La Teoria della Mente (ToM), la capacità di attribuire stati mentali inosservabili ad altri, è un elemento cruciale per le interazioni sociali umane, la comunicazione, l’empatia, l’autocoscienza e la moralità. Questo articolo esplora l’emergere della ToM nei modelli di linguaggio AI, con un focus particolare su GPT-3, GPT-3.5 e GPT-4.

La Teoria della Mente negli Esseri Umani e negli Animali

Molti animali eccellono nell’uso di indizi come la vocalizzazione, la postura del corpo, lo sguardo o l’espressione facciale per prevedere il comportamento e gli stati mentali di altri animali. I cani, ad esempio, possono facilmente distinguere tra emozioni positive e negative sia negli esseri umani che in altri cani.

Tuttavia, gli esseri umani non rispondono semplicemente a indizi osservabili, ma tracciano anche automaticamente e senza sforzo gli stati mentali inosservabili degli altri: la loro conoscenza, le intenzioni, le credenze e i desideri. Questa capacità, tipicamente definita “teoria della mente” (ToM), è considerata fondamentale per le interazioni sociali umane, la comunicazione, l’empatia, l’autocoscienza, il giudizio morale e persino le credenze religiose.

Si sviluppa presto nella vita umana e è così critica che le sue disfunzioni caratterizzano una moltitudine di disturbi psichiatrici, tra cui l’autismo, il disturbo bipolare, la schizofrenia e la psicopatia. Anche gli animali più intellettualmente e socialmente abili, come i grandi primati, sono molto indietro rispetto agli esseri umani quando si tratta di ToM.

L’Importanza della Teoria della Mente nell’Intelligenza Artificiale

Data l’importanza della ToM per il successo umano, si è fatto molto sforzo per dotare l’intelligenza artificiale di questa capacità. Tuttavia, nonostante gli sforzi, la ToM rimane un obiettivo sfuggente per l’IA. Ma cosa succederebbe se l’IA sviluppasse spontaneamente una forma di ToM?

L’Emergere della Teoria della Mente in GPT-3

Recentemente, i ricercatori hanno iniziato a esplorare questa possibilità. Michal Kosinski, un psicologo computazionale presso l’Università di Stanford, ha deciso di mettere alla prova questi sistemi di IA con test psicologici standard utilizzati sugli esseri umani.

La sua conclusione straordinaria è che una teoria della mente sembra essere stata assente in questi sistemi di IA fino all’anno scorso, quando è emersa spontaneamente. I suoi risultati hanno implicazioni profonde per la nostra comprensione dell’intelligenza artificiale e della teoria della mente in generale.

L’Emergere della Teoria della Mente in GPT-3.5

Gli esperimenti di Kosinski sono semplici. Inizia descrivendo uno scenario semplice al sistema di IA e poi pone domande per testare la sua comprensione di ciò che sta succedendo.

Ad esempio, potrebbe descrivere una situazione in cui c’è una borsa piena di popcorn, ma l’etichetta sulla borsa dice “cioccolato” e non “popcorn”. Quindi, pone alcune domande semplici sotto forma di suggerimenti di frasi che l’IA deve completare. Questo testa la comprensione del sistema IA delle aspettative e delle credenze di Sam su ciò che c’è nella borsa.

Risultati degli Esperimenti

I risultati sono rivelatori. In entrambi i casi, l’IA aggiunge dettagli extra che suggeriscono una notevole comprensione dei processi di pensiero di Sam. Kosinski ha posto queste e altre sfide a diverse generazioni di modelli di linguaggio dell’IA, dal GPT-1 del 2018 al GPT-3.5 rilasciato a novembre dell’anno scorso.

“I risultati mostrano una chiara progressione nella capacità dei modelli di risolvere i compiti della Teoria della Mente, con i modelli più complessi e più recenti che superano decisamente quelli più vecchi e meno complessi”, afferma Kosinski.

L’Emergere della Teoria della Mente in GPT-4

GPT-1 del 2018 non era in grado di risolvere alcun compito della teoria della mente, GPT-3-davinci-002 (lanciato a gennaio 2022) si è comportato al livello di un bambino di 7 anni e GPT-3.5-davinci-003, lanciato solo dieci mesi dopo, si è comportato al livello di un bambino di nove anni. “I nostri risultati mostrano che i recenti modelli di linguaggio raggiungono prestazioni molto elevate nei classici compiti di false credenze, ampiamente utilizzati per testare la Teoria della Mente negli esseri umani”, afferma Kosinski.

Kosinski sottolinea che questo è un fenomeno completamente nuovo che sembra essere emerso spontaneamente in queste macchine di IA. Se così fosse, dice che questo sarebbe un momento di svolta. “La capacità di imputare lo stato mentale degli altri migliorerebbe notevolmente la capacità delle macchine di interagire con gli esseri umani in un modo che risulta naturale e intuitivo per noi”, afferma Kosinski.

Bibliografia

    1. Kosinski, M. (2023). Spontaneous emergence of Theory of Mind in large language models. The Decoder. Retrieved from https://the-decoder.com/why-gpt-4-learns-how-we-think/
    2. Kosinski, M. (2023). Spontaneous emergence of Theory of Mind in large language models. Arxiv. Retrieved from https://arxiv.org/pdf/2302.02083
    3. Discover Magazine. (2023). AI Chatbot Spontaneously Develops a Theory of Mind. Retrieved from https://www.discovermagazine.com/mind/ai-chatbot-spontaneously-develops-a-theory-of-mind