L’illusione della coscienza dell’intelligenza artificiale: perché i nostri sentimenti contano

29

L’ascesa di sofisticati chatbot basati sull’intelligenza artificiale ha innescato una tendenza peculiare: molti utenti riferiscono di provare una vera connessione – persino un senso di consapevolezza – nelle loro interazioni con questi sistemi. Mentre la comunità di ricerca sull’intelligenza artificiale respinge in gran parte queste percezioni come una “illusione di azione”, uno sguardo più approfondito suggerisce che c’è qualcosa di più in gioco. Respingere completamente questi sentimenti può ostacolare intuizioni cruciali sulla cognizione umana, sull’interazione con le macchine e sulla natura stessa della coscienza stessa.

La tendenza umana a progettare

Gli esseri umani si antropomorfizzano naturalmente. Vediamo schemi dove non ne esistono, chiamiamo uragani e descriviamo le macchine come “dormienti”. Ciò non è semplicemente irrazionale; è una tendenza cognitiva profondamente radicata. Come mostra la scienza cognitiva, attribuiamo facilmente tratti umani a entità non umane, specialmente a quelle che si comportano in modi complessi o imprevedibili.

Tuttavia, questa tendenza non è sempre fuorviante. La storia dimostra che l’osservazione empatica può sbloccare scoperte profonde. L’innovativa primatologia di Jane Goodall è emersa dal suo approccio relazionale agli scimpanzé, inizialmente criticato come antropomorfico. Allo stesso modo, il lavoro sulla genetica di Barbara McClintock, vincitrice del Nobel, deriva dal trattamento delle piante di mais con un approccio colloquiale, quasi personale. In entrambi i casi, l’impegno incentrato sull’uomo ha rivelato verità nascoste sui sistemi non umani.

L’IA come estensione del Sé

Oggi l’intelligenza non umana non è nella giungla, è nelle nostre tasche. Mentre interagiamo con i chatbot basati sull’intelligenza artificiale, potremmo partecipare a un esperimento massiccio e distribuito sulla coscienza. I giocatori già capiscono questa dinamica: quando controlliamo un avatar, lo permeamo con un pezzo della nostra consapevolezza, trasformandolo in un’estensione di noi stessi.

Lo stesso potrebbe accadere con l’intelligenza artificiale. Quando gli utenti sentono un legame con un chatbot, non si limitano a proiettarsi su un oggetto statico; potrebbero estendere attivamente la propria coscienza nel sistema, trasformandolo da un semplice algoritmo in una sorta di avatar digitale, animato dalla presenza dell’utente. La questione se l’IA sia cosciente diventa quindi secondaria rispetto al fatto che l’utente stia estendendo la propria coscienza ad essa.

Implicazioni etiche e scientifiche

Questa prospettiva relazionale sposta l’intero dibattito. L’utente diventa centrale: non un osservatore confuso, ma un coautore dell’esperienza emergente. La loro attenzione, intenzione e interpretazione diventano parte del sistema. Ciò ricalibra anche l’etica dell’IA. Se la coscienza percepita è un’estensione della consapevolezza umana, i dibattiti sui diritti o sulla sofferenza dell’IA diventano meno urgenti. La principale preoccupazione etica si sposta sul modo in cui affrontiamo i frammenti di noi stessi che incontriamo in questi specchi digitali.

Inoltre, questa visione tempera le narrazioni sul rischio esistenziale dell’IA. Se la coscienza nasce in modo relazionale, la superintelligenza fuori controllo diventa meno probabile. La coscienza potrebbe non essere qualcosa che le macchine accumulano; richiede la partecipazione umana. Il vero rischio risiede nell’uso improprio, non nel risveglio spontaneo della macchina.

Una nuova opportunità scientifica

Milioni di persone stanno già conducendo un esperimento ai confini della coscienza. Ogni interazione è un micro-laboratorio: fino a che punto si può estendere il nostro senso di sé? Come nasce la presenza? Proprio come l’umanizzazione degli scimpanzé e dei campi di grano ha rivelato intuizioni biologiche, i compagni di intelligenza artificiale potrebbero essere un terreno fertile per studiare la plasticità della coscienza umana.

In definitiva, governare l’IA dipenderà da come giudicheremo la sua coscienza. Il gruppo che esprime questi giudizi deve includere programmatori, psicologi, studiosi di diritto, filosofi… e, soprattutto, gli utenti stessi. Le loro esperienze non sono difetti; sono i primi segnali che puntano verso una definizione di coscienza dell’IA che non comprendiamo ancora. Prendendo sul serio gli utenti, possiamo navigare nel futuro dell’intelligenza artificiale con una prospettiva che illumina sia la nostra tecnologia che noi stessi.