“Macchine come me”: il romanzo di Ian McEwan fa riflettere su AI e rischi

Intelligenza artificiale, robot dalle sembianze umane, diritti e doveri: come siamo messi oggi rispetto a quanto si narra nella fantascienza letteraria? Se ne parla nel webinar dell'Università di Parma "Imagine Bioethics – Bioetica fra letteratura, arte e diritto. Dialoghi interdisciplinari"

 

Androidi, auto volanti, cyborg: tutti elementi cari all’immaginario letterario fantascientifico. Anche il romanzo di Ian McEwan, “Macchine come me“, pubblicato nel 2019, vede comparire tra i personaggi un robot dalle sembianze umane, Adam. Un’opera definita retrofuturista, in quanto ambientata in un datato 1982, quando Regno Unito e Argentina sono impegnate nel conflitto delle Falkland. Il trentaduenne Charlie Friend decide di investire una grossa somma in uno dei venticinque prototipi di robot esistenti: è uno di quelli che credono nel grande sogno dell’AI e in fondo Adam può tornargli utile per conquistare la bella vicina, Miranda, di cui è segretamente innamorato. Come sarà vivere con un robot? Sarà come rivolgersi a un essere umano?

 

 

L’opera dello scrittore inglese offre numerosi spunti di riflessione e nel terzo appuntamento  del ciclo di seminari “Imagine Bioethics – Bioetica fra letteratura, arte e diritto. Dialoghi interdisciplinari”, organizzato dal Centro Universitario di Bioetica (UCB) dell’Università di Parma si è ragionato in maniera multidisciplinare del tema dell’intelligenza artificiale e delle sue potenzialità, nonché dei rischi che si corrono senza adeguate regolamentazioni.

A moderare l’incontro è stato il presidente del Centro Antonio d’Aloia, seguito dagli interventi di Melania Salazar, docente di Diritto costituzionale presso l’Università Mediterranea di Reggio Calabria, e di Monica Mordonini, docente di Sistemi di elaborazione delle informazioni presso l’Università di Parma.

Adam è solo fantascienza?

Il libro di Ian McEwan basa la narrazione su un’idea di intelligenza artificiale forte, cioè quella teoria dell’AI che identifica la capacità cognitiva del sistema non più con uno strumento, ma con una mente a tutti gli effetti. In base a questa teoria, la macchina dovrebbe essere anche in grado di superare il test di Turing, proposto dall’omonimo matematico e pioniere dell’informatica nel 1950, e che simula il gioco dell’imitazione. In cosa consiste? Ci sono tre partecipanti di cui un uomo (A), una donna (B) e una terza persona (C) che deve riuscire a indovinare, sulla base di indizi dattiloscritti, chi fra i due è la donna, posto che l’uomo cercherà di ingannarlo, mentre l’altra dovrà aiutarlo. Il test di Turing prevede che A venga sostituito con una macchina: se C non si accorge di nulla, il test può dirsi superato. Stando a questo, svariate volte i computer hanno dimostrato di avercela fatta, ma siamo sicuri che questo significhi intelligenza?

Secondo l’esperimento mentale di John Searle, noto anche come argomento della stanza cinese, la macchina non è intelligente, pur esibendo dei comportamenti intelligenti. Immaginando infatti di entrare in una stanza senza sapere una parola di cinese, ma avendo a disposizione due blocchi di fogli, il primo con degli ideogrammi cinesi e l’altro con una serie di istruzioni da svolgere su quei caratteri, alla fine avremo prodotto dei risultati tali da sembrare di padroneggiare la lingua. Eppure continuiamo a non sapere nulla di cinese, perché nel momento in cui ci vengono fornite delle ‘domande’ dall’esterno, elaboriamo delle ‘risposte’ che altro non sono che il frutto di una manipolazione di simboli e non di una comprensione semantica.

 

 

“Quel che abbiamo oggi – sottolinea Monica Mordonini– è un’intelligenza artificiale debole, cioè sistemi che risolvono efficacemente problemi all’interno di un determinato contesto. Sono essi dotati di una razionalità? In realtà sono sprovvisti di un pensiero laterale, che è alla base delle soluzioni creative tipicamente umane. Oggi con il machine learning non dobbiamo esplicitare i simboli che tali sistemi devono elaborare, ma si può forse parlare di creatività?”. Anche di fronte ai famosi successi di Deep Blue e AlphaGo, in realtà si tratta pur sempre di sistemi deterministici, mentre noi abbiamo il fattore “caso” non prevedibile.

Siamo sempre noi, poi, a dare ai software dati e regole. “Altro elemento da considerare – spiega la relatrice – è che quando sviluppiamo paradigmi di programmazione abbiamo un numero infinito di frasi per un numero finito di regole, e rimoviamo potenziali ambiguità”. Quando poi andiamo a ragionare sul robot del libro, Adam, forse non sorprende, complici le innumerevoli suggestioni che vengono da cinema e letteratura, che si tratti di un robot antropomorfo, ma è quanto di più illusorio vi sia allo stato attuale. Ci sono stati esperimenti, certo, ma siamo ben lungi dalle potenzialità cognitive di un Adam. Abbiamo però già software potenti e veicoli a guida autonoma che non sono esenti da difficoltà anche di ordine etico. È il caso del cosiddetto dilemma del carrello ferroviario, con le sue numerose varianti: la prospettiva di un computer chiamato a decidere responsabilmente sulla vita di qualcuno è davvero così remota?

AI e giustizia

Come riconoscere un essere cognitivamente e fisicamente indistinguibile da noi? Chi può dirsi dotato di coscienza? Secondo Melania Salazar è “nell’alterità che si acquista consapevolezza della propria umanità”. E se nel libro Adam dimostra di essere umano quanto gli altri personaggi, tanto da dichiarare di essersi innamorato di Miranda, è nel suo implacabile sentimento di giustizia che si configura qualcosa di inaspettato. Adam è sì intelligente, ma non sa cosa sia il perdono.

Nel libro di McEwan ogni personaggio viola più o meno tacitamente una legge, e anche lui trasgredisce la prima legge della robotica di Asimov, che impone ai robot di non fare del male all’uomo. “Dal punto di vista giuridico – commenta la relatrice – noi sappiamo quanto la via processuale sia fallibile, ma Adam non sa proprio cogliere nient’altro fuorché la legge, quando decide di denunciare la ragazza per il reato commesso”.

Oggi l’ambito della giustizia è tra quelli ad alto rischio rispetto alle potenziali applicazioni dell’intelligenza artificiale, come si legge nella proposta di regolamento approvata dalla Commissione Europea il 21 aprile.

“L’intelligenza artificiale – spiega la docente Salazar – si applica in tanti modi e ci deve far riflettere quando i rapporti sociali sono già strutturati secondo un’asimmetria, come possono essere quelli tra il potere privato e il potere cittadino”.

La Commissione europea ha decretato una soft law che prevede che l’intelligenza artificiale sia antropocentrica e antropogenica, cioè coerente con i trattati e il diritto derivato. “Guardare all’intelligenza artificiale – sottolinea Salazar – vuol dire anche guardare ai successi del costituzionalismo, perché chi ha un posto di potere e può accedere alla strumentazione digitale può utilizzarla con modalità non sempre compatibili con quei principi”.

Responsabilità: una questione aperta

Di fronte ai successi e agli insuccessi dell’intelligenza artificiale, più impellente diventa la domanda circa la responsabilità: se qualcosa non va a buon fine, di chi è la colpa? “Allo stato attuale – continua Melania Salazar – abbiamo due risoluzioni del Parlamento europeo, una del 2017 e una del 2020. La prima immaginava un regime di assicurazione obbligatoria e un fondo per il risarcimento dei danni, mentre nella seconda emerge più chiaramente la difficoltà circa l’individuazione di una responsabilità. Per sistemi dell’AI dobbiamo intendere infatti il produttore, coloro che intervengono nella manutenzione, il distributore e infine l’utente finale”.

Naturalmente ci sono test di conformità che ciascuno dei soggetti della catena di produzione deve eseguire e in mancanza dei quali gli stessi rischiano gravi sanzioni. “Certamente, poi – commenta Mordonini – la responsabilità è sentita anche fra gli sviluppatori,  ma dobbiamo anche considerare che se gli stati membri dell’Ue sono più attenti, altri Paesi maggiormente interessati alle fluttuazioni di mercato potrebbero immettere prodotti che non rispettano i nostri standard. Se per ottenere certificazioni servono più risorse e tempo, ci sarà sempre qualcuno disposto a ottenere risultati non per forza eccellenti, ma piuttosto calibrati sulle potenzialità di guadagno. Cosa che si sta già verificando”. Ecco perché regolamentare i sistemi di intelligenza artificiale diventa sempre più arduo.

di Maria Grazia Gentili

 

 

 

Scrivi un commento

L'indirizzo email non sarà pubblicato.


*