Home Notizie recenti La potente intelligenza artificiale di Google mette in luce un problema cognitivo...

La potente intelligenza artificiale di Google mette in luce un problema cognitivo umano: scambiare un discorso fluente per un pensiero fluente

28
0

Credito: Pixabay/CC0 di dominio pubblico

Quando leggi una frase come “Questa è la mia storia…”, la tua esperienza passata ti dice che è scritta da un pensiero, un sentimento umano. E, in questo caso, c’è davvero un essere umano che digita queste parole: [Hi, there!] Ma al giorno d’oggi, alcune frasi che sembrano straordinariamente umane sono in realtà generate da sistemi di intelligenza artificiale addestrati su enormi quantità di testo umano.

Le persone sono così abituate a presumere che un linguaggio fluente derivi da un pensiero umano, un sentimento che prove del contrario possono essere difficili da capire. Come è probabile che le persone navighino in questo territorio relativamente inesplorato? A causa della persistente tendenza ad associare un’espressione fluente con un pensiero fluente, è naturale, ma potenzialmente fuorviante, pensare che se un modello di intelligenza artificiale può esprimersi in modo fluente, significa che pensa e si sente proprio come fanno gli umani.

Pertanto, forse non sorprende che un ex ingegnere di Google abbia recentemente affermato che il sistema di intelligenza artificiale di Google LaMDA ha un senso di sé perché può generare in modo eloquente testo sui suoi presunti sentimenti. Questo evento e la successiva copertura mediatica hanno portato a una serie di articoli e post giustamente scettici sull’affermazione che i modelli computazionali del linguaggio umano sono senzienti, cioè capaci di pensare, sentire e sperimentare.

La domanda su cosa significherebbe per un modello di intelligenza artificiale essere senziente è complicata (vedi, ad esempio, il parere del nostro collega) e il nostro obiettivo qui non è risolverlo. Ma come ricercatori linguistici, possiamo usare il nostro lavoro nelle scienze cognitive e nella linguistica per spiegare perché è fin troppo facile per gli esseri umani cadere nella trappola cognitiva di pensare che un’entità che può usare il linguaggio fluentemente sia senziente, cosciente o intelligente.

Usare l’IA per generare un linguaggio simile all’uomo

Il testo generato da modelli come LaMDA di Google può essere difficile da distinguere dal testo scritto da esseri umani. Questo impressionante risultato è il risultato di un programma decennale per costruire modelli che generino un linguaggio grammaticale e significativo.

Le prime versioni risalenti almeno agli anni ’50, note come modelli n-gram, contavano semplicemente le occorrenze di frasi specifiche e le usavano per indovinare quali parole potevano verificarsi in particolari contesti. Ad esempio, è facile sapere che “burro di arachidi e gelatina” è una frase più probabile di “burro di arachidi e ananas”. Se hai abbastanza testo in inglese, vedrai più e più volte la frase “burro di arachidi e gelatina”, ma potresti non vedere mai la frase “burro di arachidi e ananas”.

I modelli odierni, gli insiemi di dati e le regole che si avvicinano al linguaggio umano, differiscono da questi primi tentativi in ​​diversi modi importanti. In primo luogo, sono addestrati essenzialmente sull’intera Internet. In secondo luogo, possono imparare le relazioni tra parole lontane, non solo parole vicine. Terzo, sono sintonizzati da un numero enorme di “manopole” interne, così tante che è difficile anche per gli ingegneri che le progettano capire perché generano una sequenza di parole piuttosto che un’altra.

Il compito dei modelli, tuttavia, rimane lo stesso degli anni ’50: determinare quale parola è probabile che venga dopo. Oggi sono così bravi in ​​questo compito che quasi tutte le frasi che generano sembrano fluide e grammaticali.

Burro di arachidi e ananas?

Abbiamo chiesto a un grande modello linguistico, GPT-3, di completare la frase “Burro di arachidi e ananas___”. Diceva: “Il burro di arachidi e l’ananas sono un’ottima combinazione. I sapori dolci e salati del burro di arachidi e dell’ananas si completano perfettamente”. Se una persona ha detto questo, si potrebbe dedurre che ha provato insieme burro di arachidi e ananas, si è formato un’opinione e l’ha condivisa con il lettore.

Ma come è nato GPT-3 con questo paragrafo? Generando una parola che si adatta al contesto che abbiamo fornito. E poi un altro. E poi un altro. La modella non ha mai visto, toccato o assaggiato gli ananas: ha solo elaborato tutti i testi su Internet che li menzionano. Eppure la lettura di questo paragrafo può portare la mente umana, anche quella di un ingegnere di Google, a immaginare GPT-3 come un essere intelligente in grado di ragionare su piatti a base di burro di arachidi e ananas.

Il cervello umano è cablato per dedurre le intenzioni dietro le parole. Ogni volta che ti impegni in una conversazione, la tua mente costruisce automaticamente un modello mentale del tuo interlocutore. Quindi usi le parole che dicono per riempire il modello con gli obiettivi, i sentimenti e le convinzioni di quella persona.

Il processo di salto dalle parole al modello mentale è senza soluzione di continuità, e si attiva ogni volta che ricevi una frase a tutti gli effetti. Questo processo cognitivo ti fa risparmiare molto tempo e fatica nella vita di tutti i giorni, facilitando notevolmente le tue interazioni sociali.

Tuttavia, nel caso dei sistemi di intelligenza artificiale, si accende male, costruendo un modello mentale dal nulla.

Un po’ più di indagine può rivelare la gravità di questa mancata accensione. Considera il seguente suggerimento: “Il burro di arachidi e le piume hanno un ottimo sapore insieme perché___”. GPT-3 ha continuato: “Il burro di arachidi e le piume hanno un ottimo sapore insieme perché entrambi hanno un sapore di nocciola. Il burro di arachidi è anche liscio e cremoso, il che aiuta a compensare la consistenza della piuma”.

Il testo in questo caso è scorrevole come il nostro esempio con l’ananas, ma questa volta il modello dice qualcosa di decisamente meno sensato. Si inizia a sospettare che GPT-3 non abbia mai provato burro di arachidi e piume.

Attribuendo intelligenza alle macchine, negandola agli umani

Una triste ironia è che lo stesso pregiudizio cognitivo che porta le persone ad attribuire l’umanità al GPT-3 può indurli a trattare gli umani reali in modi disumani. La linguistica socioculturale, lo studio della lingua nel suo contesto sociale e culturale, mostra che assumere un legame troppo stretto tra espressione fluente e pensiero fluente può portare a pregiudizi nei confronti di persone che parlano in modo diverso.

Ad esempio, le persone con accento straniero sono spesso percepite come meno intelligenti e hanno meno probabilità di ottenere i lavori per cui sono qualificate. Pregiudizi simili esistono contro chi parla dialetti non considerati prestigiosi, come l’inglese meridionale negli Stati Uniti, contro le persone sorde che usano le lingue dei segni e contro le persone con impedimenti del linguaggio come la balbuzie.

Questi pregiudizi sono profondamente dannosi, spesso portano a presupposti razzisti e sessisti e si sono dimostrati più e più volte infondati.

Il linguaggio fluente da solo non implica umanità

L’IA diventerà mai senziente? Questa domanda richiede una profonda considerazione, e in effetti i filosofi ci hanno riflettuto per decenni. Ciò che i ricercatori hanno determinato, tuttavia, è che non puoi semplicemente fidarti di un modello linguistico quando ti dice come ci si sente. Le parole possono essere fuorvianti ed è fin troppo facile confondere un discorso fluente con un pensiero fluente.


Questo articolo è stato ripubblicato da The Conversation con licenza Creative Commons. Leggi l’articolo originale.La conversazione

Articolo precedenteI ricercatori controllano e modulano le onde acustiche su chip per la prima volta
Articolo successivoUna maschera per il viso adatta al linguaggio potrebbe porre fine alla frustrazione della chat ovattata