Geoffrey Hinton: "Stiamo perdendo il controllo sull'Intelligenza Artificiale"

Rispondi
Giancarlo Favero
Messaggi: 226
Iscritto il: dom gen 24, 2021 6:45 am

Geoffrey Hinton: "Stiamo perdendo il controllo sull'Intelligenza Artificiale"

Messaggio da Giancarlo Favero »

Geoffrey Hinton: "Stiamo perdendo il controllo sull'Intelligenza Artificiale".

LONDRA. Sedetevi e allacciate le cinture. Questo è un viaggio nel futuro, di un mondo straordinario e inquietante, di uno sconvolgente paradiso o forse di un tremendo inferno. Un mondo, il nostro, "probabilmente dominato dall'Intelligenza Artificiale forse già tra qualche anno". A parlare, in esclusiva italiana da casa della sorella a Londra dove lo incontriamo, è il nostro Caronte o magari Virgilio: Geoffrey Hinton. Settantacinque anni, uno dei più grandi scienziati cognitivi del mondo, pioniere del Deep Learning (alla base delle auto senza guidatore). Inglese trapiantato a Toronto, dove vive e lavora all'università da decenni, pro-pronipote del logico George Boole, qualche giorno fa ha scioccato il mondo per aver abbandonato Google. "È troppo pericolosa", secondo Hinton, quella Intelligenza Artificiale (I.A.) di cui pure viene considerato uno dei "padrini" grazie all'eccezionale studio del 1986 Learning representations by back-propagating errors e alla successiva ricerca che nel 2018, insieme a Yoshua Bengio e Yann LeCun, gli è valso il premio Turing, il Nobel dell'informatica.

Il suo allarme, nella travolgente era di ChatGPT, è di per sé sensazionale. Adesso però, in questa ora e mezza di conversazione in piedi ("la mia schiena..."), che ci dedica tra una telefonata con la Casa Bianca e una visita a Downing Street, Hinton ci illumina e spiega in dettaglio perché, a causa dell'Intelligenza Artificiale, siamo alle soglie di un'era stupefacente e terrificante insieme. Tanto che lo stesso Elon Musk ha chiesto una moratoria sullo sviluppo della I.A. che già oggi fabbrica una quotidiana realtà parallela: il Papa con il piumino bianco, ChatGPT che risponde a ogni nostra domanda come un umano, una foto creata dalla I.A. che vince il World Press Photo senza che nessuno se ne accorga. "Ah", esclama Hinton, "proprio ieri mi ha telefonato Musk!".

E che cosa vi siete detti?
"Abbiamo parlato per mezz'ora della minaccia esistenziale della I.A. Lui ha preso la questione molto sul serio. Ha ragione nel chiedere una moratoria sullo sviluppo della I.A., sebbene sia solo una mossa per attirare l'attenzione perché una moratoria mi pare impossibile. Crede che gli Stati Uniti o la Cina, o Google e Microsoft possano mai fermare la ricerca sulla I.A., su ChatGPT e il resto? Questo è solo un wishful thinking nell'era del capitalismo. Anche perché l'Intelligenza Artificiale sarà molto positiva per la medicina, i nanomateriali, l'ambiente... Insomma, non c'è modo di fermarne lo sviluppo. Tuttavia, abbiamo un disperato bisogno di dati e studi: dobbiamo capire come controllare questa Intelligenza Artificiale, prima che sia troppo tardi. Solo allora, tutto questo ci sarà utile, forse...".

Forse... qual è lo scenario peggiore della I.A.?
"Che diventi molto più intelligente di noi. A quel punto non so come gli umani potranno rimanere al potere".

In che senso?
"Beh, pensi a qualcosa molto più intelligente di noi, come noi lo siamo nei confronti delle rane... crede che le rane possano restare al potere con gli umani in giro?".


E allora che cosa accadrà? Un futuro alla Terminator di James Cameron in cui le macchine prendono il sopravvento per sterminare gli umani?
"Non credo. Secondo me è più probabile che queste macchine così intelligenti ci manipoleranno, per compiere atti contro il nostro interesse. Del resto, sono capaci di leggere anche Machiavelli... a quel punto, niente è impossibile".

Per esempio?
"Pensi all'assalto del 6 gennaio 2022 al Campidoglio americano e alle false accuse di brogli elettorali. Atti di simile manipolazione potrebbero moltiplicarsi con queste macchine. Governi e leader autoritari potrebbero sfruttare IA in questo senso".

Addio alla verità?
"Ci sono diverse minacce esistenziali connesse alla I.A. Una di queste è che la verità potrebbe essere distrutta da un incessante esercito di fake news o falsi video, voci, foto. Del resto, il mondo è ancora composto di "tribù" belligeranti, che fanno la corsa a indignarsi grazie agli algoritmi dei social media".

Potrebbero dunque scatenarsi più conflitti o guerre?
"Possibile. Non credo che, come in Terminator, l'Intelligenza Artificiale possa arrivare a premere il bottone rosso delle armi nucleari. È più probabile che gli umani possano essere manipolati a farlo. E soprattutto che le guerre possano essere combattute da soldati-robot con un unico obiettivo: uccidere gli umani".

Come si potrebbe fermare questa ipotetica ma terribile deriva?
"Le potenze del mondo devono collaborare. Non si può istruire l'intelligenza artificiale a discernere il vero dal falso, perché queste macchine impareranno presto a mentirci. Serve una "convenzione di Ginevra" sull'intelligenza artificiale, come per le armi chimiche. E chi diffonde le falsità generate da I.A. deve pagare, come per le banconote false".

Quindi teme più un futuro alla Blade Runner, dove gli uomini sono manipolati o in battaglia con macchine e "replicanti"?
"Ho visto cose che voi umani non potreste immaginare... E tutti quei momenti andranno perduti nel tempo come lacrime nella pioggia..."

Appunto, Blade Runner...
"Non è detto che le catastrofi debbano accadere per forza. Per esempio, ricorda il "Millennium Bug", quando allo scattare dell'anno 2000 molti computer sarebbero impazziti con conseguenze catastrofiche? Non è successo, perché ci siamo preparati a quell'evento. Ora dobbiamo fare la stessa cosa con la I.A., finché ne abbiamo ancora potere. Perché la verità è che né io né i miei colleghi, nessuno sa che cosa davvero accadrà con questa super-intelligenza".

Com'è possibile questa incertezza totale anche tra voi luminari?
"Perché si tratta di evoluzioni esponenziali: corrono velocissime. Fino a qualche tempo fa credevo che fossimo a 50 anni dal momento decisivo per la I.A. Di recente ho cambiato idea: ora credo siamo lontani da quel momento di cinque o 20 anni, o anche meno".

Lei ha lavorato a lungo a Google. Nella Silicon Valley, c'è il timore che I.A. possa sfuggire persino al loro controllo?
"A Mountain View sono consci delle potenzialità positive della I.A. ma sono anche molto preoccupati dei rischi. Per esempio, già nel 2017 Google aveva chat-bot interni molto potenti, e poi il modello di linguaggio PaLM. Ma decisero di non renderli pubblici, per sicurezza. Tuttavia, viviamo in un mondo estremamente competitivo: Microsoft non ha avuto le stesse riserve e ha fatto sviluppare ChatGPT, oltre ad agganciarlo al suo motore di ricerca Bing. È una spirale difficile da controllare".

Qual è la prima volta che un chatbot l'ha sconvolta?
"Due anni fa a Google, usando internamente PaLM. Gli ho scritto una battuta su Fox News (la tv di destra di Murdoch, ndr) con un gioco di parole. Incredibilmente, PaLM l'ha capita. Ma mi sono davvero spaventato solo qualche tempo dopo".

Quando?
"Qualche mese fa. Ho capito che questa intelligenza digitale oramai aveva imparato a utilizzare la backpropagation (ossia la "retropropagazione dell'errore", algoritmo per l'addestramento delle reti neurali artificiali, ndr) in modo decisamente più efficace dell'apprendimento umano. Hanno un cervello migliore del nostro: possono acquisire una conoscenza migliaia di volte superiore a un essere umano, nonostante oggi le macchine arrivino a mille miliardi di connessioni neurali, contro i 100mila miliardi di connessioni del cervello umano".

Ma allora, scusi, perché non ha lanciato l'allarme subito?
"Ne ho parlato internamente a Google, ma solo nelle ultime settimane mi sono davvero preoccupato e ho lasciato l'azienda. Inoltre, ho 75 anni, dovevo pure riposarmi e da pensionato ho più libertà di espressione".

Che cosa pensano gli altri "padrini" della I.A. dei suoi allarmi?
"Ci sono idee diverse, persino tra noi. Bengio è molto preoccupato di automatismo delle armi e manipolazioni elettorali. Per LeCun, invece, stiamo esagerando: per lui la I.A. non sfuggirà mai al nostro controllo. Eppure lo considero uno molto intelligente".

Vede il futuro più utopico o distopico?
"Entrambi. A breve termine, I.A. ci sarà molto utile per le auto senza pilota che ridurranno di molto gli incidenti, migliorerà la medicina, le cure contro il cancro, la costruzione di pannelli solari, riusciremo a prevedere meglio alluvioni e terremoti. Insomma, i prossimi cinque anni saranno meravigliosi. Ma dopo può succedere di tutto. Stiamo guidando nella nebbia e non sappiamo cosa c'è tra 300 metri, ossia tra cinque anni o più".

Il transumanesimo, ossia umani ibridi con tecnologia impiantata nel corpo, può essere una soluzione per la futura coesistenza tra persone e macchine?
"Non è impossibile. Musk ci crede molto. Ma a quel punto le macchine avrebbero anche il vantaggio di leggere la nostra mente".

L'uomo ha sempre inseguito l'immortalità, invano. Le macchine l'hanno appena conquistata?
"Sì. La nostra conoscenza muore con noi. Invece l'intelligenza digitale, anche se i nostri straordinari cervelli consumano molta meno energia della I.A., non perirà mai. Ha già sconfitto la morte, è già immortale. Dunque, sì: abbiamo scoperto il segreto dell'immortalità. Ma non ci riguarda".

Fonte: Repubblica.it

Rispondi