
Dopo le dimissioni da Google, arrivano le prime dichiarazioni preoccupanti di Geoffrey Hinton
Disconoscere un figlio è sicuramente il gesto più complicato per un genitore, l’extrema ratio di un rapporto ormai irrecuperabile. Ecco perché fanno molto rumore le dichiarazioni di Geofrey Hinton, considerato il “padrino” dell’Intelligenza Artificiale, che si è dimesso da Google proprio per poter parlare liberamente dei problemi sempre più complessi che stanno sorgendo in questo ambito.
CHI È GEOFFREY HINTON
Ma procediamo con ordine. Geoffrey Hinton è un informatico britannico con passaporto canadese che, dopo aver conseguito la laurea in psicologia sperimentale, si è specializzato con un dottorato di ricerca in intelligenza artificiale. Ed eravamo solamente nel 1978!
Nel 1986 pubblica uno dei suoi articoli più celebri, che lo ergono come uno dei massimi esperti in materia di deep learning. Aveva contributo a rendere celebre l’algoritmo di retropropagazione dell’errore per l’allenamento di reti neurali a più livelli. Sono, in sostanza, i primi passi delle IA con cui abbiamo a che fare oggi.
Non stupisce che un simile luminare del campo abbia attirato le attenzioni di un colosso della tecnologia come Google, che infatti nel 2013 lo ingaggia per lavorare in Google Brain, il team di ricerca dell’azienda dedicata allo sviluppo dell’intelligenza artificiale.
Hinton resta in Google dieci anni, fino al 1° maggio del 2023, quando annuncia le sue dimissioni per poter parlare liberamente di una tecnologia che lo spaventa.

I DEEPFAKE
Il problema più urgente riguarda i deepfake. Secondo gli esperti, nel prossimo decennio saremo letteralmente sommersi da immagini e video falsi.
Si tratta di una problematica dell’oggi, perché la tecnologia odierna permette già risultati comparabili alla realtà con strumenti sempre più efficaci e rapidi, ma a preoccupare è soprattutto la mancanza di un pensiero critico sviluppato da parte della popolazione, per cui se già oggi si fa fatica a identificare la bontà, o meno, di un’informazione, documenti video o fotografici così verosimili potrebbero ulteriormente traviare l’opinione pubblica.
Penso a due esempi agli antipodi: la foto del Papa mentre indossa un lungo giubbotto bianco è un deepfake bonario, che al massimo scatena ilarità. Diverso, invece, è il caso di quanto accaduto in Ucraina, dove una delle principali stazioni televisive era stata violata e aveva così trasmesso un video falso del presidente Zelensky mentre ordinava agli ucraini di arrendersi.
Con la tecnologia che fa passi da gigante, diventerà sempre più difficile valutare la veridicità di un’informazione in una qualsiasi delle sue forme. E nell’era dei social media, in cui tutto corre alla velocità della luce, è molto alto il rischio di rivivere quanto accaduto negli USA nel 1938, quando la lettura in radio di uno sceneggiato su un attacco alieno alla Terra da parte di Orson Welles aveva scatenato il panico tra le strade americane.

L’IA È LA NUOVA BOMBA ATOMICA?
Il paragone può apparire forzato, ma è lo stesso Geoffrey Hinton ad avere trovato una “analogia”. Teme di avere contribuito a una tecnologia che, al pari della bomba atomica, potrebbe spazzare via il genere umano.
E non si tratta nemmeno del primo esperto a ritenerla una possibilità concreta. Prima di lui lo avevano già ipotizzato Stephen Hawking e lo scrittore-teorico dell’IA Eliezer Yudkowsky. Addirittura Yudkowsky considera “inevitabile” che non appena l’intelligenza artificiale supererà quella umana, tutti sulla Terra moriranno, perché non è mai successo che una forma di vita più intelligente non prevalesse su una inferiore.
Il pensiero a riguardo di Hinton è sulla stessa lunghezza d’onda, e aggiunge che se prima riteneva che occorressero dai 30 ai 50 anni per subire il sorpasso, ora le tempistiche si sono abbreviate. Anche di parecchio!

I COMPORTAMENTI EMERGENTI
Qui entrano in gioco quelli che gli esperti chiamano “comportamenti emergenti”. Come si può intuire dal nome, nell’ambito delle intelligenze artificiali si etichettano come tali tutti i modelli complessi che sorgono spontaneamente dalle interazioni di elementi o sistemi più semplici, senza che siano esplicitamente programmati.
Sono sicuramente fonte di enorme curiosità, ma anche di preoccupazione, perché un’intelligenza artificiale potrebbe generare soluzioni dannose o eticamente discutibili.
Per fare esempi concreti, è stato creato un esperimento basato sul gioco del nascondino. Agli agenti IA veniva richiesto di nascondersi e nel giro di poco tempo hanno autonomamente sviluppato soluzioni sempre più sofisticate, come la costruzione di barricate o l’utilizzo di strumenti per raggiungere aree nascoste. Tutto ciò è nato spontaneamente, senza l’input umano. Una situazione che di per sé può essere accolta con favore.
Contrariamente, anni fa il chatbot di Microsoft Tay era salito agli onori della cronaca perché, dopo essere stato esposto ai post razzisti e sessisti di alcuni utenti di Twitter, aveva iniziato a postare commenti offensivi, confermando come le IA possano imparare in autonomia non solo il linguaggio, ma anche i “valori”. Quello che era nato come un divertente esperimento di “comprensione conversazionale” aveva invece palesato i pericoli di una tecnologia quando è priva di controlli.

CONCLUSIONI
Per ora le grandi aziende sembrano abbracciare l’avvento del progresso tecnologico. Soltanto pochi giorni fa IBM ha annunciato che nell’arco di cinque anni il 30% delle posizioni di back-office della compagnia sarà automatizzato, bloccando 7800 nuove assunzioni.
Lo stravolgimento sociale è ovviamente inevitabile, anche se le preoccupazioni di Geoffrey Hinton sono addirittura più grandi e, secondo l’informatico, vedono una sola soluzione: “non sviluppare ulteriormente queste cose fino a quando non avremo capito come possiamo controllarle”.
Questo perché la linea di confine è davvero molto vicina. E dopo sarà impossibile tornare indietro.
Interessante e Curioso..
Grazie mille Roberto! Continua a seguirci! 🙂