Computer morali? Affidare all'intelligenza artificiale il bene e il male

25.05.2022

Il 12 marzo 1992, un filobus della metropolitana di Göteborg, in Svezia, rimase senza corrente in cima ad una collina. I passeggeri furono evacuati e il responsabile del traffico ordinò al macchinista di allentare i freni e lasciare che il treno a due carrozze scendesse lungo la collina per circa un quarto di miglio, fino a dove i motori avrebbero potuto ricollegarsi all'alimentazione.

In questo modo, disse, i freni sarebbero stati riattivati.

Il direttore si sbagliava: era tecnicamente impossibile inserire i freni in questo modo. La manovra era inoltre illegale.

Quando il treno a due carrozze si mise in movimento, scese dalla fermata della metropolitana leggera in cima alla collina, passando davanti al Chalmers Institute of Technology dove avrebbe dovuto prendere energia. Senza freni funzionanti, ha accelerato lungo Aschebergsgatan raggiungendo una velocità stimata di 100 km/h (62 miglia/h).

A circa 1,6 chilometri dalla collina, appena dopo l'edificio principale dell'Università di Göteborg, il treno si è schiantato contro i binari della fermata della metropolitana leggera di Vasaparken. Ha schiacciato le auto, ha provocato un incendio e ha ucciso 13 persone. Altre 29 sono state portate in ospedale, molte con ferite gravi.

Un tribunale ha poi riconosciuto la piena responsabilità del responsabile del traffico. Il suo ordine all'autista di scavalcare illegalmente il protocollo di sicurezza stabilito aveva causato l'incidente. Tuttavia, secondo alcune testimonianze dell'epoca, l'incidente potrebbe essere avvenuto a causa di rare circostanze tecniche.

In ogni caso, la tragedia è un esempio reale del cosiddetto “problema del carrello” [1], che viene talvolta utilizzato nella ricerca empirica sui valori morali. Nell'esperimento di pensiero, un carrello fuori controllo si dirige verso una direzione in cui si trovano diverse persone e l'unico modo per salvarle è cambiare la direzione del carrello su un altro binario, dove colpirà un gruppo più piccolo di persone. Alla persona di cui si studiano i valori viene chiesto di scegliere su quale binario far passare il carrello.

All'epoca dell'incidente di Göteborg, c'era un solo binario lungo il percorso del treno in corsa. Tuttavia, alcuni anni dopo è stato aggiunto un nuovo binario, diretto verso un'altra parte della città, a circa un quarto della collina. Se fosse stato in funzione nel 1992, il responsabile del traffico avrebbe potuto scegliere di mandare il treno in fuga sul binario alternativo.

Quale binario avrebbe scelto il responsabile del traffico? E se la funzione di manager fosse stata svolta da un'intelligenza artificiale? La decisione sarebbe stata diversa?

I computer sono sempre più coinvolti nella risoluzione di problemi morali. È inevitabile, dato che ci rendiamo dipendenti da loro per un numero sempre maggiore di funzioni della nostra vita. Questa tendenza ci porta a domandarci:

Le IA dovrebbero prendere decisioni morali?

C'è una premessa implicita nell'espansione della tecnologia dell'Intelligenza Artificiale, ovvero che essa sia impeccabile, o almeno molto meno incline agli errori rispetto agli esseri umani. È una premessa rischiosa su cui fare affidamento, soprattutto perché la più recente espansione della tecnologia IA nelle nostre vite, le auto a guida autonoma, ha dimostrato esattamente il contrario. Non solo le auto a guida autonoma sono tutt'altro che impeccabili [2], ma come spiega un rapporto dell’American Insurance Institute for Highway Safety (IIHS) [3], le auto a guida automatica non sono molto efficaci nel ridurre gli incidenti.

Il motivo, spiega l'IIHS, è che quando l'intelligenza artificiale si mette al volante, guida come gli esseri umani.

Perché? La risposta a questa domanda ci dice tutto quello che c'è da sapere sul perché non vogliamo che l'IA prenda decisioni morali al posto nostro.

Con l'avvento della tecnologia dell'intelligenza artificiale è cresciuta la letteratura che esamina il rapporto tra programmazione e valori morali, sia in teoria che in pratica. Uno dei tanti buoni esempi è un recente articolo su BigThink.com, in cui Jonny Thomson si chiede: “Quale etica dovrebbe essere programmata nei robot di domani?” [4]. Con il problema del carrello in mente, si chiede:

Chi dovrebbe decidere come si comportano le nostre nuove macchine? Forse non dobbiamo temere una “tirannia della maggioranza”, come pensava de Tocqueville, ma piuttosto la tirannia di una minuscola minoranza con sede nella Silicon Valley o nelle fabbriche di robotica. Siamo felici di avere la loro visione del mondo e i loro valori etici come modello per il nuovo mondo che ci aspetta?

Sono domande valide e molto pertinenti, visti i rapidi progressi dell'intelligenza artificiale. Allo stesso tempo, il problema che le domande di Thomson affrontano non è così nuovo come potrebbe sembrare. Fidarsi dei computer su questioni etiche è tecnicamente nuovo, ma non lo è l'idea di affidare il processo decisionale morale alle macchine. La forma meccanizzata di processo decisionale morale immaginata nella crescita della tecnologia IA è per molti versi un adattamento di un'altra forma ben consolidata di processo decisionale meccanizzato: l'assistenza sanitaria gestita dal governo.

Molte decisioni con implicazioni dirette per i pazienti sono prese da funzioni standardizzate e istituzionalizzate all'interno di una burocrazia governativa. Commissioni di esperti designate utilizzano statuti, linee guida e poteri discrezionali per decidere quali metodi di cura sono consentiti e quali vietati. Altri esperti decidono quali ospedali, cliniche e aree della medicina debbano ricevere maggiori finanziamenti e quali debbano essere ridimensionati.

Il processo decisionale morale meccanizzato dei sistemi sanitari governativi è gestito da uomini. Essi scrivono i regolamenti e poi prendono le decisioni in base ad essi.

Tre sfide per l'IA morale

Sarebbe auspicabile sostituire questi esseri umani con l'IA? Consideriamo i tre esempi seguenti:

  1. Due pazienti affetti da cancro sono in attesa di un intervento chirurgico. L'operazione li curerà definitivamente, ma un'ulteriore attesa li porterà alla morte. Il governo non ha stanziato abbastanza denaro per consentire a entrambi i pazienti di ricevere il trattamento entro il tempo necessario per salvare la vita. Entrambi i pazienti hanno 40 anni, sono sposati e hanno due figli. Uno di loro guadagna il doppio dell'altro e, grazie alla scala progressiva delle imposte sul reddito del Paese, paga più del doppio di tasse rispetto all'altro paziente.  Molti Paesi utilizzano nei loro sistemi sanitari uno strumento decisionale noto come QALY (Quality Adjusted Life Years [5]). Questo strumento viene utilizzato per l'allocazione delle risorse mediche e per stabilire le priorità di chi riceve un determinato trattamento medico e quando. Nell'esempio attuale, il QALY guiderebbe l'ospedale a dare priorità al paziente che paga più tasse. Questo garantirà al governo un ritorno maggiore sul costo dell'intervento.
  2. Due pazienti, uguali sotto tutti gli aspetti, sono entrambi in cura nello stesso ospedale per la stessa rara patologia. Il trattamento è costoso e quindi fortemente razionato dal governo. Solo un paziente può ricevere il trattamento offerto dall'ospedale. Uno dei pazienti spiega che il suo ricco fratello ha promesso di acquistare un nuovo farmaco dall'estero. È noto per curare la patologia, ma a causa del suo costo elevato è stato escluso dalla fornitura di prodotti farmaceutici in questo Paese. Un gruppo di esperti nega al paziente l'accesso al farmaco finanziato privatamente, con la motivazione che ciò porterebbe a una distribuzione iniqua delle cure mediche.
  3. Una madre dà alla luce un bambino con una patologia che richiederà un trattamento a vita. Il trattamento consentirà al bambino di avere una vita normale; senza il trattamento il bambino sarà ancora in grado di vivere, ma sarà handicappato e dipendente da altri per il resto della sua vita. Dopo aver valutato le condizioni mediche del bambino, il governo ordina l'eutanasia per il bambino. In questo modo i contribuenti risparmieranno denaro, non pagando il farmaco o non pagando l'assistenza a vita. Inoltre, secondo il governo, risparmierà al paziente il dolore di una vita di bassa qualità.

Come ho spiegato nei miei libri “Remaking America” [6] e “The Rise of Big Government” [7], i primi due esempi sono versioni leggermente stilizzate di decisioni reali prese regolarmente nei sistemi sanitari gestiti dal governo. Il terzo esempio, per quanto ne so, è ancora illegale nel mondo civile, ma il caso non è moralmente molto lontano dagli altri due. Inoltre, se il fronte avanzante della guerra abortista alla vita [8] si combina con l'assistenza sanitaria gestita dal governo, l'infanticidio potrebbe presto essere non solo legale, ma anche prescritto in determinate circostanze.

In tutti e tre gli esempi, i giudizi morali riguardanti l'allocazione delle risorse e l'applicazione dei metodi di cura sono stati rimossi dal paziente. Le decisioni su chi riceve le cure e chi viene lasciato morire sono guidate da preferenze morali contenute in statuti legali o linee guida.

Algoritmi morali prefabbricati
Le decisioni sulla vita o sulla morte sono diventate amministrative, burocratiche e, sì, meccaniche.

Possiamo e dobbiamo affidare questo tipo di decisioni ad un'intelligenza artificiale? In caso affermativo, come indicato nella prima domanda di Thomson, qualcuno dovrà decidere come l'intelligenza artificiale dovrà prendere le sue decisioni morali. Qualcuno dovrà scrivere le linee guida decisionali che l'IA applicherà.

Questo “qualcuno” sarà molto probabilmente lo stesso che ha scritto le attuali linee guida per le decisioni morali nell'assistenza sanitaria gestita dal governo. Si riterrà che abbiano le competenze e l'esperienza adeguate.

Con il tempo, man mano che l'intelligenza artificiale si radica nel campo delle decisioni morali, è del tutto possibile che le IA utilizzate per tali decisioni diventino standardizzate. Sempre più spesso i produttori le doteranno di preferenze morali prefabbricate per affrontare quelli che sono considerati i problemi più comuni dell'intelligenza artificiale. Tali preferenze saranno adattate alle linee guida decisionali meccanizzate che la maggior parte degli acquirenti di IA sta già utilizzando.

I criteri per stabilire le priorità dei pazienti, la valutazione dei metodi di cura basati su test standardizzati, la decisione se un neonato debba o meno essere sottoposto a eutanasia possono essere tutti sottoposti ad algoritmi standardizzati e prefabbricati. Col tempo, tutte le IA sanitarie ne saranno dotate. Gli acquirenti, cioè le agenzie governative incaricate di allocare le risorse sanitarie, potranno quindi effettuare una messa a punto in base alle proprie esigenze specifiche.

Pensate ad un'auto che può essere configurata per la vendita al pubblico, come un'auto della polizia o un taxi. Applicazioni diverse, ma sotto c’è la stessa macchina.

Tutto questo è possibile. Ma è auspicabile?

La risposta non ha tanto a che fare con la forma in cui viene presa la decisione - un algoritmo o un cervello umano - quanto con i valori morali che il decisore applica al problema. In particolare, poiché si tratta di assistenza sanitaria, dobbiamo sapere cosa dicono questi valori sulla vita umana stessa.

È possibile dotare qualsiasi applicazione dell'intelligenza artificiale di un divieto assoluto di negoziazione della vita umana? In teoria, la risposta è ovviamente affermativa: così come possiamo decidere che la vita è sacrosanta, possiamo scrivere in un algoritmo informatico che la vita è sacrosanta. In pratica, però, è impossibile costruire una situazione in cui l'intelligenza artificiale possa fare la differenza in meglio, pur rispettando la sacralità della vita.

È evidente che l'intelligenza artificiale non ha un vantaggio decisivo nelle valutazioni qualitative; il suo vantaggio è sul piano quantitativo. Lì, su aspetti misurabili, l'intelligenza artificiale può applicare le sue capacità superiori per elaborare grandi quantità di dati, come nel calcolo dei risultati di diversi modelli di distribuzione delle risorse sanitarie. Stimando i risultati in modo più dettagliato di quanto potrebbero fare gli esseri umani in circostanze analoghe, l'intelligenza artificiale può prendere decisioni quantitativamente migliori.

L'unico modo in cui la superiorità quantitativa dell'intelligenza artificiale può essere utilizzata per le valutazioni qualitative è se noi - come gli esseri umani che scrivono gli algoritmi - assegniamo valori quantitativi alle variabili qualitative. Possiamo, ad esempio, dare all'IA la capacità di calcolare se la vita di un paziente sarà “buona” o “cattiva” come risultato di un trattamento medico. Se all'IA viene detto di massimizzare il “bene”, allora raccomanderà il maggior numero possibile di trattamenti in base a questo risultato atteso.

D'altra parte, qualcuno dovrà decidere cosa significa effettivamente “bene”. L'IA non sarà mai in grado di prendere autonomamente questa decisione, a meno che non impari a studiare autonomamente la teoria dei valori in filosofia.

[1]https://projects.iq.harvard.edu/files/mcl/files/greene-solvingtrolleyproblem-16.pdf
[2]https://www.cnet.com/roadshow/news/google-self-driving-car-partly-responsible-for-its-first-accident/
[3]https://www.iihs.org/news/detail/self-driving-vehicles-could-struggle-to-eliminate-most-crashes
[4]https://bigthink.com/thinking/robots-ethical-decisions/
[5]https://www.sciencedirect.com/topics/nursing-and-health-professions/quality-adjusted-life-year
[6]https://www.amazon.com/Remaking-America-Welcome-Welfare-State/dp/1450243827
[7]https://www.amazon.com/Rise-Big-Government-Egalitarianism-Conquered-ebook/dp/B0764GHVFZ/ref=sr_1_1?crid=IKED1UUGAH4L&keywords=la...
[8] https://europeanconservative.com/articles/essay/moral-supremacy-a-new-assault-on-life-itself/

Traduzione di Costantino Ceoldo