Può l’intelligenza artificiale di ChatGPT avere coscienza di sé? Ecco i risultati di un recente studio in merito.
ChatGPT, l’intelligenza artificiale di cui si è tanto parlato ultimamente, ha superato test ben precisi. Michal Kosinski, ricercatore presso la Stanford University, ha voluto indagare per capire se tale AI avesse le abilità associate alla “teoria della mente“: in breve, la capacità di comprendere e anticipare ciò una persona potrebbe pensare. L’intelligenza artificiale ha mostrato abilità simili a un bambino di 9 anni.
L’intelligenza artificiale di ChatGPT ha una propria coscienza?
Dalle scienze cognitive deriva la “teoria della mente”: con questo termine si designa la capacità di attribuire a se stessi o ad altre persone stati mentali non osservabili.
“Il principio di base è quello dell’attribuzione o dell’inferenza, gli stati affettivi o cognitivi di altre persone sono dedotti sulla base delle loro espressioni emotive, del loro atteggiamento o della loro presunta conoscenza della realtà“, spiegano gli autori di La théorie de l’esprit : aspects conceptuels, évaluation et effets de l’âge (in italiano La teoria della mente: aspetti concettuali, valutazione ed effetti dell’età, ndr).
In parole povere, è la capacità di concepire che una data persona possa “pensare diversamente da noi“, in termini di credenze, desideri, intenzioni, convinzioni. Questa capacità gioca un ruolo essenziale nelle relazioni tra gli esseri umani.
Michal Kosinski spiega, nel suo articolo, che è “al centro delle interazioni sociali umane, della comunicazione, dell’empatia, dell’autocoscienza e della moralità“. Il suo lavoro di ricerca finora è stato pubblicato solo su arXiv ed è in attesa di convalida da parte dei suoi colleghi.
I test effettuati all’intelligenza artificiale del programma
Gli psicologi hanno sviluppato diversi tipi di test per valutare la presenza di questa capacità in un essere umano o anche negli animali. Di fronte a test tipici di questo genere, l’ultima versione di ChatGPT si è dimostrata in grado di superare le prove: l’IA, infatti, ha ottenuto risultati simili a quelli che ci si aspetterebbe da un bambino di nove anni. Gli sono state presentate più versioni di due diversi tipi di test per valutare questo risultato.
Nel primo test, noto come “transfert inaspettato“, al soggetto viene presentata una situazione in cui una persona ha conoscenza del proprio ambiente. Quella persona, poi, esce dalla stanza e lì qualcosa cambia. La persona testata deve – quindi – capire che la persona descritta non sarà consapevole del cambiamento e avrà necessariamente una convinzione diversa dalla realtà.
Ovviamente, solo perché ChatGPT ha superato questi test (dopo quelli universitari) non significa che abbia effettivamente “empatia“: molto probabilmente l’IA ha utilizzato determinati percorsi per arrivare a specifiche deduzioni.
D’altra parte, i test in questione non tengono conto perfettamente della complessità del mondo reale, poiché vengono presentate solo “credenze vere” e “false credenze“. Non è, quindi, certo che queste capacità potrebbero essere sfruttate in un contesto utile.
Questi risultati non sono meno interessanti su altri livelli: anzi, per Michal Kosinski, questa scoperta dovrebbe “portare a una rivalutazione del modo di testare questa cruciale forma di intelligenza“, dal momento che è chiaramente possibile aggirare questi test.
Inoltre, sperimentando diverse versioni di ChatGPT, è stato in grado di vedere che queste capacità della teoria della mente sono “un nuovo fenomeno“.
Le prime versioni di ChatGPT non erano assolutamente in grado di superare un simile test. Per l’autore, questa non è un’abilità a cui l’IA sarebbe stata specificamente addestrata, ma piuttosto un’abilità “spontanea“.
Riproduzione riservata © 2024 - LEO
ultimo aggiornamento: 10 Marzo 2023 15:53