• 28 November 2024
Antonio Chella

Al momento sappiamo che non esiste uno stadio di coscienza per l’Intelligenza Artificiale, almeno per come la intendiamo noi esseri umani. La coscienza è uno stato mentale molto complesso che coinvolge sia la consapevolezza di sé, che l’esperienza soggettiva, ma soprattutto, la capacità unica di fare introspezione. Siamo nella fascia delle abilità cognitive e l’IA che conosciamo attualmente è quella che è stata sviluppata per eseguire compiti specifici utilizzando algoritmi o modelli matematici standard, senza però avere alcuna consapevolezza di sé o di altra esperienza soggettiva.

Va sottolineato poi che il concetto di coscienza è ancora ampiamente dibattuto tra gli esperti e non è ancora ben definito tanto che la questione (anche filosofica), resta aperta a diverse interpretazioni.

Andiamo però con ordine. C’è un professore a Palermo che sta portando avanti da diverso tempo un lavoro di ricerca che vede nella possibilità di creare un’ambiente interno alle macchine che possa assomigliare ad una sorta di introspezione. In realtà è proprio della coscienza che si tratta.

Storia di un’intervista

Ho incontrato il Professor Antonio Chella direttore del Robotics Lab del Dipartimento di Ingegneria dell’Università di Palermo, in una fin troppo calda giornata siciliana.

Dopo averlo seguito per diverso tempo attraverso interviste sui social media e in alcuni programmi televisivi di approfondimento legati al Metaverso e all’Intelligenza Artificiale, ho pensato che approfondire la materia di ricerca che definisce il lavoro di questo lungimirante professore potesse essere una buona idea.

Ed avevo ragione.

Non scriverò quindi di seguito un’intervista secondo i canoni della domanda e della risposta. Quello che farò sarà raccontare quello che è emerso da una chiacchierata molto interessante intorno ad un tavolo di vetro.

La cosa che più mi aveva colpito, prima di incontrare Antonio Chella, e sulla quale volevo incentrare tendenzialmente tutte le mie domande, era la possibilità di studiare una linea che potesse essere la base per la creazione di una conoscenza emotiva delle macchine.

Voglio premettere che Antonio Chella è stato direttore del Centro Interdipartimentale di Tecnologie della Conoscenza, nonché direttore del Dipartimento di Ingegneria Informatica, e coordinatore del corso di Dottorato in Ingegneria dell’Innovazione Tecnologica. Questo non per enumerare cariche e qualifiche ma per sottolineare la grande esperienza che è emersa in un dialogo molto interessante fatto sulle nuove tecnologie.

Abbiamo iniziato a parlare naturalmente di Intelligenza Artificiale applicata ai vari settori anche se questa non è la specifica del lavoro quotidiano di Antonio Chella. Il punctum intorno al quale è girata la discussione, molto piacevole, è stato quello della possibilità di definire all’interno di un robot un qualcosa che somigli ad una coscienza. Possono quindi le macchine avere una loro propria coscienza?

E se sì, quali sono i passaggi fondamentali per poter creare le basi di qualcosa che le assomigli?

Quello che le macchine “ancora” non dicono

Naturalmente, così come spiegava il Professore, bisogna comprendere perché attualmente i sistemi di intelligenza artificiale di cui disponiamo e che utilizziamo manchino in realtà di corporalità. I vari tool che conosciamo ormai molto bene e che hanno nomi come ChatGPT o come Bard di Google, in realtà sono l’architettura di una perfetta conoscenza prevedibile di tutti quei dati recuperati dalla dimensione online.

Il lavoro del team del professore si focalizza invece su di un’analisi che parte dalla ricerca di base. Mi spiega infatti che possiamo distinguere due diversi tipi di coscienza, che poi si avvicina molto alla conoscenza. Il primo è quello dell’auto-consapevolezza, ossia di quello che noi conosciamo e percepiamo di noi stessi. Il secondo è invece quello che riflette la capacità di poter sentire, e di poter avvertire, qualunque cosa da un semplice profumo fino ad un’emozione profonda.

Coscienza ed eticità

Ed è proprio qui che parte il dilemma quasi etico. Tassello importante su cui ci si sta interrogando attualmente. Parliamo infatti di architettura cognitiva e di aspetti liberi del nostro cervello analizzabili attraverso l’esigenza di creare un discorso interiore. E quindi il robot che parla con se stesso. Il professore mi racconta che nel suo team accademico lavorano non soltanto ingegneri informatici ma anche psicologi e soprattutto filosofi. E siamo ritornati su quella che è al momento la conoscenza prevedibile dei dati inseriti. I sistemi che conosciamo sono la somma di quello che noi gli diamo. Eppure lavorando in fase di ricerca attraverso tecniche miste, ossia reti neurali e ragionamento probabilistico, le regole non sono ancora state ben definite.

Il professore mi fa un esempio molto concreto. La differenza visibile tra un essere umano ed una macchina è al momento quella di avere un’esigenza. Un’artista sappiamo che sente l’esigenza di esprimere, attraverso la propria creatività e quindi attraverso un’opera ben definita, ciò che fa parte del suo mondo interiore. Questo mondo interiore rappresenta la somma della sua esperienza, delle sue emozioni e della sua analisi del mondo che lo circonda. Ma come si crea invece l’esigenza in una macchina? Molto semplice spiega il professor Antonio Chella, basta lavorare sul rapporto di interazione che la macchina stessa ha con il mondo esterno.

Dati e ricerca

Lavorare su quello che viene dall’interazione con ciò che circonda l’intelligenza artificiale implementata all’interno di un robot. Mi fa poi ancora un altro esempio. Che differenza c’è tra il fatto di poter conoscere la composizione di un dato profumo e la consapevolezza che si tratti invece di una rosa al solo sentire quello stesso profumo? In questo sta la bellezza del lavoro del gruppo di ricerca del Dipartimento di Ingegneria Robotica dell’Università di Palermo. Pensare di poter toccare anche solo un lembo di quella risposta filosofica che dai tempi di Socrate ha caratterizzato il dilemma della conoscenza umana.

L’IA è in grado di apprendere da grandi quantità di dati e di compiere operazioni complesse, ma la sua “intelligenza” è essenzialmente una capacità di elaborare informazioni in modo efficiente, piuttosto che una coscienza o consapevolezza reale. Questo è ancora il punto di verifica e quindi di partenza.

Conclusioni

La ricerca sta progredendo rapidamente, ma la creazione di un’intelligenza artificiale cosciente solleva comunque molte domande etiche, oltre che scientifiche. Alcuni ricercatori sostengono che sia possibile, in teoria, creare una coscienza artificiale, ma attualmente non ci sono ancora prove concrete che dimostrino che sia realizzabile, né esistono IA che abbiano dimostrato di possedere una coscienza.

Resta comunque molto valido l’insegnamento di questo professore dalla grande esperienza ed umanità che crede nella via che porta le prossime generazioni ad avere la possibilità di un’IA che sia in grado di aiutare, più che unicamente ragionare sul proprio sé.