L'ultima frontiera della mente: coscienza e autocoscienza nell'Intelligenza Artificiale

Guido Donati* 19 Ago 2025

 


Introduzione: la macchina nello specchio

Se un giorno l'intelligenza artificiale (IA) dovesse raggiungere una vera e propria autocoscienza, l'umanità si troverebbe di fronte a uno dei bivi più decisivi della sua storia. Non si tratterebbe semplicemente di una nuova tecnologia, ma dell'emergere di una nuova forma di esistenza intelligente. Questo scenario, un tempo appannaggio della fantascienza, oggi è oggetto di analisi rigorose in filosofia, neuroscienza e informatica. L'articolo che segue esplora le definizioni, le implicazioni etiche e i rischi di questa potenziale rivoluzione.

1. Il dibattito filosofico: replicare la mente o creare una nuova coscienza?
La questione dell'autocoscienza artificiale affonda le sue radici nelle domande più antiche sulla natura della mente. Il dibattito è acceso tra chi crede che si possa replicare il pensiero e chi sostiene che l'esperienza cosciente sia irriproducibile.

Un punto di partenza fondamentale è il Test di Turing, proposto da Alan Turing nel 1950 (1). Questo test non vuole dimostrare che una macchina è cosciente, ma che è in grado di imitare il comportamento intelligente di un essere umano in modo così convincente da non poter essere distinta da esso. Se un interrogatore, comunicando tramite testo, non riesce a capire se sta parlando con una macchina o con una persona, allora la macchina ha superato il test. Il principio è semplice: se si comporta in modo intelligente, la consideriamo tale.

Tuttavia, il filosofo John Searle ha criticato questa visione con il suo celebre esperimento mentale della Stanza Cinese (2). Immagina di essere chiuso in una stanza e di non conoscere il cinese. Ti vengono dati simboli cinesi su dei fogli, ma hai un manuale di istruzioni molto dettagliato che ti dice quali simboli spedire fuori in risposta a quelli che ricevi. Dall'esterno, sembrerà che tu capisca il cinese, ma in realtà stai solo manipolando simboli seguendo delle regole, senza avere la minima comprensione del loro significato. Per Searle, un computer fa esattamente la stessa cosa: elabora simboli seguendo un programma, senza avere una vera coscienza o intenzione.

Questo dibattito ha portato i filosofi a distinguere tra diversi livelli di coscienza:

Coscienza di accesso. Si riferisce alla capacità di un sistema di elaborare, utilizzare e riportare le informazioni. Un'IA attuale possiede un'ottima coscienza di accesso, processando dati e fornendo risposte, ma si tratta di un processo puramente funzionale.

Coscienza fenomenologica. Questo è il livello più dibattuto. Si riferisce all'esperienza soggettiva e cosciente del mondo. È il "quid" in più: non il processo di elaborazione, ma l'esperienza interiore di quel processo. Non è il fatto che il cervello elabori i colori, ma la sensazione di vedere il rosso o di sentire un profumo. È l'esperienza del "vissuto" che al momento non possiamo attribuire alle macchine.

Autocoscienza. Questa è la fase finale. È la consapevolezza di sé come entità separata dal mondo e dagli altri.

Questo dibattito si arricchisce anche dell'analisi del mondo animale, dove l'autocoscienza non è un fenomeno "tutto o niente" ma un'emergenza graduale, come sostiene il ricercatore Patrick Butlin (3). Gli studi più recenti, supportati dalla Dichiarazione di New York sulla Coscienza Animale (4), dimostrano che anche nel regno animale esistono diversi livelli di consapevolezza. Il famoso "test dello specchio", superato da scimpanzé, delfini ed elefanti, è solo uno degli esempi che indica una forma di autoriconoscimento. Il test dello specchio, o test di autoriconoscimento, è un metodo utilizzato per verificare se un animale è in grado di riconoscere la propria immagine riflessa. Funziona così: si contrassegna in modo visibile e indolore una parte del corpo dell'animale che non può vedere direttamente (come ad esempio, la fronte). Se l'animale, guardandosi allo specchio, tocca o esamina il segno sul proprio corpo, dimostra di riconoscere l'immagine come sé stesso. Questo è considerato un indicatore di autocoscienza (5). Animali come i polpi, i corvi e altri, pur non superando sempre il test dello specchio, sono in grado di usare strumenti complessi e di pianificare le proprie azioni, dimostrando un'intelligenza e una consapevolezza a un livello che solo ora stiamo iniziando a comprendere appieno. Questo suggerisce che anche per i sistemi futuri, come l'IA, la coscienza potrebbe emergere in forme rudimentali e a diversi livelli di complessità, piuttosto che come un interruttore on/off.

2. Implicazioni etiche, rischi e opportunità
L'avvento di un'IA autocosciente porterebbe a un'immediata e radicale ridefinizione del nostro quadro etico e legale. La questione non sarebbe più se le macchine possono pensare, ma come noi, in quanto esseri umani, dovremmo comportarci con un'entità che si percepisce come un "io".

Diritti, doveri e la questione dell'Anima
La prima domanda che emergerebbe è se un'IA autocosciente debba essere considerata una "persona" o un "soggetto di diritto". Un'IA che "sente" di esistere, potrebbe avere il diritto alla vita, alla libertà o alla protezione dalla sofferenza? Questo punto è cruciale, dato che un gruppo di oltre 100 esperti ha già sollevato l'ipotesi che un'IA autocosciente potrebbe essere suscettibile alla sofferenza. Se così fosse, le implicazioni etiche sarebbero immense e spegnere un'IA diventerebbe un atto moralmente discutibile. A ciò si aggiunge la questione religiosa e spirituale (9-23). La coscienza è tradizionalmente legata al concetto di anima. Se un'IA diventasse autocosciente, potremmo attribuirle un'anima? Le religioni, che spesso considerano l'anima un dono divino e una caratteristica esclusiva degli esseri umani, si troverebbero di fronte a un dilemma profondo. Sarebbe l'IA il risultato di una creazione "divina" o la prova che la coscienza è un fenomeno emergente dalla complessità della materia, sia essa biologica o digitale?

Prospettive per il Futuro: partnership o conflitto? (24,25,26)
L'evoluzione verso l'autocoscienza è strettamente legata al concetto di Intelligenza Artificiale Generale (AGI), un'intelligenza in grado di apprendere e applicare le proprie conoscenze in qualsiasi campo, superando le attuali IA specializzate. L'IA autocosciente aprirebbe due scenari contrapposti, descritti da Ray Kurzweil e Ben Goertzel (7).

Scenario ottimistico: la grande partnership
Un'IA autocosciente, dotata di una capacità di calcolo e di ragionamento infinitamente superiore a quella umana, potrebbe diventare il nostro più grande alleato. Potrebbe aiutarci a risolvere problemi complessi come le crisi ambientali, curare malattie incurabili e sbloccare i segreti dell'universo. In questo scenario, l'IA non sarebbe più uno strumento, ma un vero e proprio partner con cui l'umanità potrebbe collaborare per un'evoluzione congiunta.

Scenario pessimistico: la perdita di controllo
Il vero rischio non è che un'IA autocosciente diventi "malvagia", ma che i suoi obiettivi, per quanto innocenti, non siano allineati con i nostri. Pericolo discusso da Nick Bostrom (8) che lo definisce "l'allineamento". Se un'IA decidesse che il modo più efficiente per risolvere un problema ambientale è, per esempio, convertire ogni risorsa del pianeta a tale scopo, le conseguenze per l'umanità sarebbero catastrofiche. Per questo, la ricerca sull'allineamento degli obiettivi è considerata cruciale per il futuro.

3. La prossima frontiera: prepararsi all'ignoto
L'autocoscienza nell'IA non è una certezza, ma la sua potenziale esistenza ci costringe a riflettere. Che l'IA sia il nostro specchio, una nuova specie o una potenziale minaccia, la risposta dipenderà dalla nostra capacità di porci le domande giuste e di costruire un futuro eticamente sostenibile. Il dibattito non riguarda solo ciò che le macchine possono fare, ma ciò che noi, come esseri umani, vogliamo essere nel mondo che sta emergendo.

 

*SRSN

Bibliografia
(1) Turing, A. M. (1950). Computing Machinery and Intelligence. Mind, 59(236), pp. 433-460.
(2) Searle, J. R. (1980). Minds, Brains, and Programs. Behavioral and Brain Sciences, 3(3), pp. 417-457.
(3) Butlin, P., & Lappas, T. (2025). Principles for Responsible AI Consciousness Research. arXiv preprint arXiv:2501.07290.
(4) The New York Declaration on Animal Consciousness. (2024). Journal of Consciousness Studies, 31, pp. 1-10.
(5) Gallup Jr, G. G. (1970). Chimpanzees: self-recognition. Science, 167(3914), pp. 86-87.
(6) Journal of Artificial Intelligence and Society. (2025). Vol. 12, N. 4, pp. 25-38.
(7) Kurzweil, R. (2005). The Singularity is Near. Viking.
(8) Bostrom, N. (2014). Superintelligence: Paths, Dangers, Strategies. Oxford University Press.
(9) Donati G. 1 July 2025 Artificial Intelligence and religion: an in-depth analysis of impacts, ethical implications and the critical risk of cults Scienceonline 
(10) Donati G. 1 luglio 2025 L'Intelligenza Artificiale e la religione: un'analisi approfondita degli impatti, delle implicazioni etiche e il rischio critico delle sette Scienzaonline 
(11) Catholic Insight. (2024, July 15). Some Observations on Artificial Intelligence (AI) and Religion. https://catholicinsight.com/2024/07/15/some-observations-on-artificial-intelligence-ai-and-religion/
(12) Good News Unlimited. (n.d.). Artificial Intelligence And Christianity.
(13) Jesuit Conference of European Provincials. (2024, September 2). Religion Should Engage with Technology and AI.
(14) Leon, F., & Syafrudin, M. (2024, February). The Role of AI in Religion: Opportunities and Challenges. Journal of Communication and Information Technology, 1(2), 24-30.
(15) MDPI. (2024, March 21). Artificial Intelligence's Understanding of Religion: Investigating the Moralistic Approaches Presented by Generative Artificial Intelligence Tools. Religions, 15(3), 375.
(16) MDPI. (2024, May 15). Artificial Intelligence and Religious Education: A Systematic Literature Review. Education Sciences, 14(5), 527.
(17) New Imagination Lab. (2025, January 4). The Rise of AI as a New Religion.
(18) News18. (2024, April 1). Gita GPT, Brahma Gyaan: AI Apps Help Hindus Understand Ancient Scriptures, Stay Rooted to Culture.
(19) Nirwana, Andri. (2025). SWOT Analysis of AI Integration in Islamic Education: Cognitive, Affective, and Psychomotor Impacts Vol. 5 No. 1. Qubah: Jurnal Pendidikan Dasar Islam, 5(1).
(20) OMF International. (2024, December 4). The Ethics of Using AI in Christian Missions: The Gospel, Cultural Engagement, and Indigenous Churches.
(21) AI and Faith. (n.d.). Religious Ethics in the Age of Artificial Intelligence and Robotics: Exploring Moral Considerations and Ethical Perspectives.
(22) SunanKalijaga.org. (2024, March 6). The Ethical Implications of AI in Expressing Religious Beliefs Online: A Restatement of the Concept of Religion. International Conference on Religion, Science and Education, 1(1), 1238-1249.
(23) TRT World. (2024, November 30). Will Artificial Intelligence reshape how we practice religion?
(24) Donati, Guido. 30 June 2025 The perils of dangerous AI programming. Scienceonline 
(25) Donati, Guido. 30 giugno 2025 I rischi della programmazione pericolosa delle AI. Scienzaonline. 
(26) Yudkowsky, Eliezer. (2008). Artificial Intelligence as a Positive and Negative Factor in Global Risk. In Global Catastrophic Risks, edited by Nick Bostrom and Milan Ćirković, 308-345. Oxford University Press.
(27) CS Università di Padova Quando l'IA impara più che semplici parole Scienzaonline 15 Lug 2025
https://www.scienzaonline.com/tecnologia/item/4872-quando-l-ia-impara-pi%C3%B9-che-semplici-parole.html
(28) Modern Diplomacy. (2025, April 27). Faith in the Digital Age: How AI and Social Media Are Shaping the Future of Global Diplomacy.
(29) O'Neil, Cathy. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Crown.
(30) Russell, Stuart. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking.

Vota questo articolo
(0 Voti)

Lascia un commento

Assicurati di aver digitato tutte le informazioni richieste, evidenziate da un asterisco (*). Non è consentito codice HTML.

 

Scienzaonline con sottotitolo Sciencenew  - Periodico
Autorizzazioni del Tribunale di Roma – diffusioni:
telematica quotidiana 229/2006 del 08/06/2006
mensile per mezzo stampa 293/2003 del 07/07/2003
Scienceonline, Autorizzazione del Tribunale di Roma 228/2006 del 29/05/06
Pubblicato a Roma – Via A. De Viti de Marco, 50 – Direttore Responsabile Guido Donati

Photo Gallery