Premio Nobel per l’intelligenza artificiale

Riconoscere i progressi nel campo dell’intelligenza artificiale e le sfide etiche poste dal suo sviluppo

Il Premio Nobel per la Fisica 2024

Il Premio Nobel per la Fisica di quest’anno mirava a riconoscere i grandi progressi nel campo dell’intelligenza artificiale (AI), premiando due dei suoi più eminenti creatori. I loro meriti sono evidenziati dalle informazioni ufficiali dell’Accademia reale svedese delle scienze: “…hanno utilizzato strumenti fisici per sviluppare metodi che sono alla base del potente apprendimento automatico di oggi. John Hopfield ha creato una memoria associativa in grado di archiviare e ricostruire immagini e altri tipi di modelli nei dati. Geoffrey Hinton ha inventato un metodo in grado di trovare autonomamente proprietà nei dati e quindi eseguire compiti come identificare elementi specifici nelle immagini.”[1]

Queste scoperte hanno portato a sviluppi tecnologici che stanno cambiando il modo in cui viviamo. Ogni volta che riceviamo un consiglio su un prodotto sul nostro dispositivo elettronico, effettuiamo una ricerca su Google o prenotiamo un viaggio online, dietro c’è l’intelligenza artificiale. È entrato anche nelle nostre case, dove sono già diffusi piccoli robot che ci aiutano in cucina o puliscono i pavimenti; nel nostro lavoro e nelle nostre fabbriche, dove da tempo i robot svolgono compiti complessi e, soprattutto, ripetitivi; nei nostri ospedali, con molteplici applicazioni a supporto della diagnosi; nel mondo finanziario e nella prospezione del mercato. Sarebbe infinito esporre tutte le applicazioni pratiche dell’IA presenti nella nostra routine quotidiana.

I commenti si concentrano sugli aspetti etici

Fin dal primo momento, le riflessioni di Hinton sui pericoli che l’intelligenza artificiale può comportare[2] hanno assunto una particolare rilevanza nel campo dell’informazione. Lui stesso ha avuto il compito di evidenziarlo nell’intervista che gli è stata fatta dall’organizzazione della Royal Academy: “In particolare, per quanto riguarda la minaccia esistenziale che queste cose sfuggono al controllo e prendono il controllo, penso che siamo a una sorta di bivio nella storia in cui nei prossimi anni dovremo capire se c’è un modo per affrontare quella minaccia. Penso che ora sia molto importante che le persone lavorino sulla questione di come mantenere il controllo. Dobbiamo dedicare molti sforzi alla ricerca. Penso che qualcosa che i governi possano fare è costringere le grandi aziende a dedicare molte più risorse alla ricerca sulla sicurezza.”[3] E abbiamo visto questa idea nei titoli dei mezzi di informazione come Fortune: “Geoffrey Hinton, vincitore del Premio Nobel, pioniere dell’intelligenza artificiale e leader dell’allarme”[4]; o CNN: “Con l’avvertimento sull’intelligenza artificiale, il premio Nobel si unisce ai vincitori che hanno messo in guardia sui rischi del proprio lavoro”[5].

Le preoccupazioni etiche dell’intelligenza artificiale

L’intelligenza artificiale è sicuramente la tecnologia più trasformativa del nostro tempo e solleva profonde preoccupazioni etiche riguardo al suo utilizzo. Tre importanti minacce sono inerenti all’essenza stessa di questa tecnologia:

  1. Privacy;
  2. L’affidabilità dei dati con cui vengono addestrati i sistemi; E
  3. Responsabilità per le decisioni prese da AI.

La privacy necessita di una protezione rigorosa contro potenziali invasioni, poiché l’efficacia dell’intelligenza artificiale dipende dalla disponibilità di grandi volumi di dati personali soggetti a processi di raccolta, conservazione e utilizzo.

I sistemi di intelligenza artificiale sono validi quanto lo sono i dati su cui sono addestrati, quindi la selezione obiettiva dei dati è fondamentale. Ciò è estremamente difficile, se non impossibile, nei sistemi aperti come ChatGPT, quindi sviluppatori e ricercatori devono dare priorità e standardizzare test rigorosi e monitoraggio continuo.

I sistemi di intelligenza artificiale prendono sempre più decisioni che influenzano le nostre vite con l’introduzione di veicoli autonomi o sistemi diagnostici clinici, ed è quindi fondamentale stabilire chiare linee di responsabilità.

Di fronte a tutte queste minacce, la società non è protetta, poiché il ritmo del cambiamento tecnologico è così rapido che anche i politici più informati non riescono a tenere il passo, né esistono investimenti realistici per farlo. Così afferma Joseph Fuller, professore alla Harvard Business School: “I regolatori non sono dotati delle competenze in materia di intelligenza artificiale per impegnarsi in [supervisione] senza una reale attenzione e investimenti”.[6]

A questi problemi etici inerenti al funzionamento dell’IA, dobbiamo aggiungerne altri derivanti dal suo uso inappropriato o perverso, come gli attacchi informatici, la disinformazione che permette di manipolare l’opinione pubblica e amplificare le divisioni sociali, o lo sviluppo di armi autonome. Ma ciò che alcuni temono di più, vedendo il ritmo accelerato dello sviluppo dell’intelligenza artificiale, è la possibilità che i sistemi di intelligenza artificiale superino l’intelligenza umana, e sostengono che dovrebbero essere adottate misure per il loro controllo e l’allineamento con i valori umani.

L’avvertimento di Geoffrey Hinton

È soprattutto questa possibilità che ha portato il recente premio Nobel, Geoffrey Hinton, a un importante cambio di prospettiva. Nell’aprile dello scorso anno, sorprendentemente, da vicepresidente dell’ingegneria di Google, si è dimesso dal suo incarico, abbandonando la prima linea delle indagini. Così The Register ha intitolato questa decisione: “Hinton, il massimo esperto di Google, si dimette, mette in guardia sui pericoli dell’intelligenza artificiale e in parte si rammarica del lavoro della sua vita”[7]. In un’intervista pubblicata all’epoca su NPR affermò: “Queste cose potrebbero diventare più intelligenti di noi e decidere di prendere il controllo, e ora dobbiamo preoccuparci di come evitare che ciò accada”.[8]

Il fatto è che Hinton si è allontanato dal lavoro di sviluppo dell’IA per poter parlare liberamente dei suoi pericoli e partecipare attivamente alla definizione degli standard per il suo sviluppo, collaborando con organizzazioni internazionali e istituti di ricerca e contribuendo con idee su come affrontare le sfide etiche poste. dai progressi dell’intelligenza artificiale.

Una volta lasciato il suo incarico presso Google, ha tenuto una conferenza a Cambridge dal titolo “Two Paths to Intelligence”[9], in cui ha confrontato il modo in cui funzionano l’intelligenza biologica e l’intelligenza artificiale e ha spiegato perché temeva che essa possa sopraffare l’umano e prenderne il controllo. .

Nella sua presentazione distingue tra informatica digitale, quella in cui il software è indipendente dall’hardware, così che i programmi possono essere trasferiti da un computer all’altro, rendendo la conoscenza “immortale”; e l’informatica biologica, che si sviluppa nel cervello umano, che sfrutta le proprietà “analogiche” del suo “hardware” (neuroni, sinapsi) e in cui i risultati sono memorizzati nel cervello stesso, quindi la conoscenza non può essere trasferita e la definisce conoscenza “mortale”.

Ciò porta a importanti differenze in due aspetti: scambio di conoscenze e meccanismi di apprendimento.

L’informatica digitale consente di fondere istantaneamente le informazioni apprese tra le diverse copie di una rete neurale, il che conferisce all’intelligenza digitale una maggiore velocità nell’acquisizione e nella diffusione della conoscenza; I sistemi biologici, d’altra parte, si basano su un processo più lento di apprendimento attraverso l’osservazione e la replica di un insegnante.

L’apprendimento nell’informatica digitale utilizza la backpropagation, che, sebbene apparentemente un algoritmo “stupido”, si rivela un potente algoritmo per adattare le connessioni di una rete neurale in base agli errori che fa, e se combinato con la potenza del calcolo e la precisione dei sistemi digitali, consentirebbe un apprendimento più efficace rispetto al calcolo biologico.

D’altro canto, l’accesso ai dati e al potere computazionale dell’intelligenza digitale è praticamente illimitato rispetto alla limitata capacità di conoscenza dei cervelli biologici.

La controversia sulla superiorità dell’intelligenza umana

Scienziati e filosofi ragionano da decenni sulle possibilità di questo miglioramento dell’intelligenza artificiale rispetto all’intelligenza umana. L’essere umano acquisisce la conoscenza in modo organico, facendo esperienze e comprendendo il proprio rapporto con la realtà e con se stesso. Ma questo meccanismo è qualcosa di estremamente complesso che non conosciamo e che comprende percezione, comunicazione, memorizzazione e informazione con qualità come emozione, soggettività, intenzionalità e attenzione. Inoltre, l’intelligenza umana ci permette di comprendere astrazioni che non sono percepibili dai sensi. Al contrario, le reti neurali artificiali apprendono in modo astratto, elaborando, attraverso l’uso di algoritmi, enormi riserve di informazioni senza collegarle alla realtà, cioè prive di autentiche esperienze emotive.

Sebbene le reti neurali siano state originariamente sviluppate cercando di imitare l’intelligenza umana, la realtà è che ci troviamo di fronte a due modi molto diversi di acquisire conoscenza. Ciò che Hinton sta dicendo è che l’intelligenza mostrata dai sistemi di intelligenza artificiale trascende le loro origini artificiali e potrebbe essere migliore del cervello umano. E sostiene che, se l’intelligenza artificiale diventasse molto più intelligente degli esseri umani, sarebbe molto abile nel manipolarci senza che ce ne rendiamo conto. Allo stesso modo, potremmo non renderci conto che siamo manipolati dall’intelligenza artificiale perché sarebbe molto più intelligente di noi.[10]

Ma ci sono altri modi di pensare, quello di chi non vede che l’IA può diventare una minaccia o quello più radicale che è impossibile che raggiunga il livello di intelligenza umana.

Yann LeCun, ex studente e collaboratore di Hinton, attualmente vicepresidente e capo scienziato dell’intelligenza artificiale presso Meta, ritiene che l’intelligenza artificiale stia attualmente inciampando contro i limiti della fisica, e lo esprime affermando che “qualsiasi gatto può saltare sopra una serie di mobili e raggiungere la cima di uno scaffale. Oggi non abbiamo nessun sistema di intelligenza artificiale che si avvicini a fare queste cose, fatta eccezione per le auto a guida autonoma”, e sono sovradimensionate, poiché richiedono “la mappatura dell’intera città, centinaia di ingegneri, centinaia di migliaia di ore di formazione ”[11]. Ma ha fiducia che questo problema verrà superato grazie a una semplice idea di base: se i neuroni possono farlo, anche le reti neurali possono farlo. Tuttavia, afferma che non costituirà mai una minaccia: “Gli assistenti IA finiranno per essere più intelligenti di noi, ma non dobbiamo sentirci minacciati. Dovremmo sentirci rafforzati da ciò. È come se ognuno avesse un team di persone intelligenti che lavorano per loro. Non c’è niente di meglio che lavorare con persone più intelligenti di te, giusto?”[12]


Sono molti coloro che difendono la superiorità del pensiero umano rispetto all’intelligenza artificiale basandosi su argomenti diversi. Dalla logica matematica si sostiene, come fa il premio Nobel Roger Penrose, dal teorema di incompletezza di Gödel, secondo il quale la capacità di qualsiasi sistema basato su algoritmi è limitata. E nella natura umana esistono tratti non computabili, il nostro cervello funziona secondo le leggi della meccanica quantistica[13][14].

Sempre dalle neuroscienze si sostiene che gli algoritmi artificiali cerchino di imitare solo la funzione cosciente di parti della corteccia cerebrale, ignorando il fatto che non solo ogni esperienza cosciente è preceduta da un processo inconscio, ma anche il passaggio dall’inconscio alla coscienza è accompagnato dalla perdita di informazioni.[15]

Un dibattito non chiuso

Sebbene gli argomenti a favore della supremazia dell’intelligenza umana sull’intelligenza artificiale possano sembrare forti, la nostra conoscenza limitata della natura dell’universo e dei meccanismi del cervello non ci consente di escludere completamente la possibilità opposta. Sarà prudente tenere conto delle raccomandazioni di Geoffrey Hinton e dare priorità alla trasparenza e alla sicurezza nello sviluppo dell’intelligenza artificiale. La sua recente nomina a Premio Nobel darà senza dubbio maggiore visibilità alle sue proposte.

Manuel Ribes – Istituto di Scienze della Vita – Osservatorio di Bioetica – Università Cattolica di Valencia

***

[1] Comunicato stampa: Il Premio Nobel per la fisica 2024 – NobelPrize.org 8 ottobre 2024

[2] M. Ribes L’intelligenza artificiale come problema Osservatorio di Bioetica UCV 20 luglio 2021

[3] Geoffrey Hinton – Intervista – NobelPrize.org ottobre 2024

[4] Paolo Confino Il premio Nobel Geoffrey Hinton è sia pioniere dell’intelligenza artificiale che front man di allarme Fortune 10 ottobre 2024

[5] Meg Tirrell Con l’avvertimento dell’intelligenza artificiale, il vincitore del Nobel si unisce ai ranghi dei vincitori che hanno messo in guardia sui rischi del proprio lavoro CNN 13 ottobre 2024

[6] Christina Pazzanese Grande promessa ma potenziale pericolo The Harvard Gazette, 26 ottobre 2020

[7] Katyanna Quach Il miglior esperto di Google Geoffrey Hinton si licenzia, avverte del pericolo dell’intelligenza artificiale The Register 1 maggio 2023

[8] Bobby Allyn “Il padrino dell’intelligenza artificiale” lancia l’allarme sui potenziali pericoli dell’AI NPR 28 maggio 2023

[9]  Geoffrey Hinton – Due percorsi verso l’intelligenza (25 maggio 2023, conferenza pubblica, Università di Cambridge)     https://blog.biocomm.ai/2023/06/06/cser-cambridge-geoffrey-hinton-two-paths- a-intelligence-06-giu-2023/

[10] Yunzhe Wang Una sinossi dell’avvertimento di Geoffrey Hinton sulla minaccia esistenziale dell’umanità da AI Medium 7 maggio 2023

[11]  Joshua Rothman Perché il Padrino di A.I. Teme ciò che ha costruito The New Yorker 13 novembre 2023

[12] Business Standard L’intelligenza artificiale  amplificherà l’intelligenza umana, non la sostituirà, afferma Yann LeCu di Meta, 23 ottobre 2024

[13]  F. Gelgi Implicazioni del teorema di incompletezza di Gödel sull’A.I. contro Mente NeuroQuantologia, Numero 3, 186-189, 2004

[14]  D. Heredia Penrose e la sua posizione contro la possibilità di computabilità della mente e della coscienza umana Dialnet Research Repository Università di Siviglia, 4 luglio 2024

[15] Athanassios S Fokas L’intelligenza artificiale può raggiungere il pensiero umano?PNAS Nexus, Volume 2, Numero 12, dicembre 2023, pgad409 https://doi.org/10.1093/pnasnexus/pgad409