Navigation

Svizzera, il laboratorio dei robot del futuro

L'intelligenza artificiale è davvero così intelligente come pensiamo?

Sophia è la prima androide sociale al mondo. È stata sviluppata a Hong Kong nel 2015 ed è in grado di riprodurre più di 62 espressioni facciali umane. Intervistata dai media, Sophia ha impressionato i giornalisti e le giornaliste per le sue risposte. Alcune, però, sono state ritenute prive di senso e artificiose. Keystone / Ritchie B. Tongo

I computer prendono sempre più spesso decisioni importanti per noi. Dovremmo lasciarli fare? Un team di ricerca dell'Istituto svizzero Idiap mostra perché gran parte dell'intelligenza delle macchine è solo un'illusione.

Questo contenuto è stato pubblicato il 16 febbraio 2022 - 16:07

Le macchine possono pensare? È con questa domanda che il matematico britannico Alan Turing apre il suo scritto più famosoLink esterno. Pubblicato nel 1950, il testo ha gettato le basi per la concezione e la definizione dell'intelligenza artificiale (IA). Per rispondere alla sua domanda, Turing inventò il "gioco dell'imitazione", usato ancora oggi per giudicare l'intelligenza di una macchina. 

Il gioco, che in seguito divenne noto come Test di Turing, coinvolge tre giocatori: il giocatore A è un uomo, il giocatore B è una donna e il giocatore C, che interpreta il ruolo dell'interrogatore, può essere di entrambi i sessi.

L’interrogatore non può vedere gli altri due giocatori e pone una serie di domande per iscritto, per determinare quale giocatore è l'uomo e quale la donna. Lo scopo dell'interrogato uomo è quello di ingannare l'interrogatore, dando risposte fuorvianti, mentre la donna deve facilitare la sua corretta identificazione. 

Ora, immaginate che il giocatore A sia sostituito da un computer. Turing scrisse che se l'interrogatore non è in grado di distinguere tra un computer e una persona, il computer dovrebbe essere considerato un'entità intelligente, poiché si dimostrerebbe cognitivamente simile a un essere umano. 

Settant'anni dopo, i risultati del test sono stupefacenti. "Al momento, non c'è un solo sistema di intelligenza artificiale, e dico nemmeno uno, che abbia superato il primo test di Turing", dice Hervé Bourlard, che dirige l’IdiapLink esterno, l’istituto di ricerca con sede a Martigny, nel Canton Vallese, specializzato in intelligenza artificiale e cognitiva.

Né artificiale né intelligente

Caduto in disuso già negli anni '70 – essendo considerato fuori moda e ridicolo – il termine intelligenza artificiale torna di moda negli anni '90, "per motivi pubblicitari, di marketing e di business", sostiene Bourlard, che è anche professore di ingegneria elettrica, “ma senza aver fatto alcun progresso reale, se non nella potenza dei modelli matematici”. Bourlard rimane scettico verso l’espressione e verso l’uso che se ne fa oggi.

Secondo il professore, non esiste una cosa come "l'intelligenza artificiale" perché nessun sistema riflette la minima intelligenza umana. Persino un bebè di due o tre mesi sa fare ciò che un'IA non sarebbe mai in grado di fare. 

Un esempio? Prendiamo un bicchiere d'acqua che si trova su un tavolo. Un bambino piccolo sa bene che, se capovolto, il bicchiere d'acqua diventa un bicchiere vuoto. "Per questo si diverte a rovesciarlo. Nessuna macchina al mondo può capire questa differenza", dice Bourlard. Ciò che questo esempio dimostra vale anche per il buon senso, una capacità che distingue gli umani dagli altri esseri viventi, ma che le macchine non possono e – secondo Bourlard – non saranno mai in grado di imitare.

"Non c’è alcuna intelligenza nell’intelligenza artificiale. È sbagliato chiamarla così, bisognerebbe parlare piuttosto di apprendimento automatico", Hervé Bourlard, direttore dell'istituto di ricerca Idiap. Idiap

L'intelligenza è nei dati

L'IA è comunque ben radicata in molti settori commerciali e sta contribuendo sempre più ai processi decisionali in campi come le risorse umane, le assicurazioni e i prestiti bancari, solo per citarne alcuni. Analizzando il comportamento umano su Internet, le macchine stanno imparando chi siamo e cosa ci piace. I sistemi di raccomandazione filtrano le informazioni meno rilevanti e ci consigliano film da guardare, notizie da leggere o vestiti che potrebbero piacerci sui social media. 

Ma questo non rende ancora l'intelligenza artificiale intelligente, dice Bourlard, che ha assunto la direzione dell'Idiap nel 1996. Il professore preferisce parlare di apprendimento automatico. Secondo Bourlard, sono tre gli aspetti che rendono l'IA potente a modo suo: potenza di calcolo, modelli matematici e banche dati molto vaste e diffuse.

I computer sempre più potenti e la digitalizzazione delle informazioni hanno reso possibile migliorare enormemente i modelli matematici. Internet con i suoi infiniti database ha fatto il resto, spingendo le capacità dei sistemi di IA sempre più lontano. 

I ricercatori e le ricercatrici dell'Idiap mostrano al pubblico come funziona l'IA e cosa può fare:

L'Idiap sta cercando di mostrare al pubblico quanto i dati siano centrali per le macchine attraverso una serie di dimostrazioni, che saranno esposte al Museo della Mano di LosannaLink esterno dal 1° aprile 2022. 

Il pubblico avrà l'opportunità, per esempio, di sperimentare come la tecnologia basata sull'IA che sta dietro alle fotocamere dei nostri smartphone può migliorare significativamente la qualità delle immagini a bassa risoluzione o, al contrario, peggiorarla, a seconda dei dati con cui è stata addestrata.

Non si tratta di un processo facile, ma richiede molti dati di buona qualità che devono essere annotati, o 'etichettati', da un essere umano (anche se non del tutto manualmente) per renderli comprensibili a una macchina. "Non siamo di fronte a qualcosa che ha una vita propria, ma a un sistema alimentato con dei dati", dice Michael Liebling, che dirige il Computational Bioimaging Group dell'Idiap.

Ciò non significa che l'IA non presenti dei rischi. I limiti delle macchine dipendono dai limiti dei dati. Questo, secondo Liebling, dovrebbe far riflettere su dove stia il pericolo reale. "Il pericolo è davvero in una macchina fantascientifica che conquista il mondo? O è nel modo in cui distribuiamo e annotiamo i dati? Personalmente, penso che la minaccia risieda nel modo in cui i dati sono gestiti piuttosto che nelle macchine stesse", sostiene Liebling.

Più trasparenza necessaria

I giganti tecnologici come Google e Facebook sono ben consapevoli del potere dei modelli alimentati con grandi quantità di dati e vi hanno costruito attorno il proprio business. Questo aspetto, insieme all'automazione di alcuni compiti umani, è quello che preoccupa di più la comunità scientifica. L'ex ricercatrice di Google Timnit Gebru è stata addirittura licenziata per aver criticato i modelli linguistici molto vasti e imperscrutabili alla base del motore di ricerca più utilizzato al mondo. 

Il limite dei modelli di machine learning è che non mostrano - o almeno non ancora - una capacità di ragionamento pari alla nostra. Sono in grado di fornire risposte ma non di spiegare perché sono arrivati a una certa conclusione. “Bisogna anche renderli trasparenti e comprensibili per un pubblico umano", dice André Freitas, che dirige il gruppo di ricerca Reasoning & Explainable AI all'Idiap.

La buona notizia, afferma Freitas, è che la comunità dell’IA – che in passato si concentrava principalmente sul miglioramento delle performance e sull’accuratezza dei sistemi – ora sta anche spingendo per sviluppare modelli etici, spiegabili, sicuri ed equi. 

"Non basta costruire modelli sempre più complessi. Bisogna anche renderli trasparenti e comprensibili per un pubblico umano", André Freitas, responsabile del gruppo di ricerca Reasoning & Explainable AI presso l'Idiap. Idiap

Con il suo gruppo di ricerca, Freitas sta costruendo modelli di IA in grado di spiegare le loro deduzioni. Questo permetterebbe non solo di prevedere e raccomandare quando le e i pazienti positivi alla Covid-19 dovrebbero essere ammessi nei reparti di terapia intensiva, ma anche di esporre al personale medico che utilizza il modello come sono state raggiunte tali conclusioni e quali sono i possibili limiti del sistema.

"Costruendo modelli di IA capaci di spiegarsi al mondo esterno, possiamo dare agli utenti gli strumenti per avere una visione critica sui loro limiti e punti di forza", dice Freitas. L'obiettivo è di trasformare gli algoritmi complessi e il gergo tecnico in qualcosa di comprensibile e accessibile. Poiché le applicazioni dell'IA iniziano a permeare le nostre vite, il ricercatore raccomanda: "Se vi imbattete in un sistema di IA, sfidatelo a spiegarsi". 

Illusioni di intelligenza

L'IA è spesso descritta come il motore che sta dietro alle innovazioni odierne. È quindi naturale che susciti eccitazione e grandi aspettative. Grazie ai modelli di reti neurali, che si ispirano al cervello umano, i computer stanno ottenendo buone prestazioni in settori che prima erano impensabili.

"Questo ci ha fatto credere che l'IA diventerà intelligente come noi e risolverà tutti i nostri problemi", dice Lonneke van der Plas, che guida il gruppo Computation, Cognition and Language all'Idiap.

Van der Plas fa l'esempio delle capacità sempre più avanzate dei sistemi linguistici, come gli assistenti virtuali o gli strumenti di traduzione automatica. "Ci lasciano senza parole e pensiamo che se un computer può cimentarsi in qualcosa di così complesso come il linguaggio ci deve essere un'intelligenza dietro", dice. 

"È facile ingannare noi stessi, perché sembrare un essere umano non significa automaticamente che ci sia un'intelligenza umana dietro", Lonneke van der Plas, ricercatrice a capo del gruppo Computation, Cognition and Language dell'Idiap. Idiap

Gli strumenti linguistici possono imitarci, perché i modelli sottostanti sono in grado di imparare degli schemi da un grande volume di testi. Ma se confrontiamo le capacità di un assistente virtuale (ad attivazione vocale) con quelle di un bambino medio in una discussione su un aeroplano di carta, per esempio, il software necessita di molti più dati per arrivare al livello del bambino - e farà persino fatica a esprimersi ricorrendo al buon senso. "È facile ingannare noi stessi, perché sembrare un essere umano non significa automaticamente che ci sia un'intelligenza umana dietro", dice Van der Plas. 

Dopo tutto, Turing lo diceva già settant’anni fa: non vale la pena di cercare di umanizzare una “macchina pensante” attraverso accorgimenti estetici. Il valore di un libro non si giudica dalla copertina.


In conformità con gli standard di JTI

In conformità con gli standard di JTI

Altri sviluppi: SWI swissinfo.ch certificato dalla Journalism Trust Initiative

I commenti a questo articolo sono stati disattivati. Potete trovare una panoramica delle discussioni in corso con i nostri giornalisti qui.

Se volete iniziare una discussione su un argomento sollevato in questo articolo o volete segnalare errori fattuali, inviateci un'e-mail all'indirizzo italian@swissinfo.ch.

Condividi questo articolo

Cambia la tua password

Desideri veramente cancellare il tuo profilo?