• 30 November 2024
I rischi della Intelligenza Artificiale

I rischi creati dall’intelligenza artificiale possono sembrare davvero tanti a una lettura semplicistica. Cosa succede alle persone che perdono il lavoro a causa di una macchina intelligente? L’AI potrebbe influenzare i risultati di un’elezione? E se una futura AI decidesse di non aver più bisogno di umani e volesse sbarazzarsi di noi? Il mondo ha imparato molto sulla gestione dei problemi causati da innovazioni rivoluzionarie.

Innovazioni e minacce

Queste sono tutte domande che vengono poste quotidianamente e le preoccupazioni che sollevano devono essere prese sul serio. Ma c’è una buona ragione per pensare che possiamo affrontarle con serenità: questa non è la prima volta che una grande innovazione ha introdotto nuove minacce che dovevano essere controllate. L’abbiamo già fatto in passato.

Che si tratti dell’introduzione delle automobili o dell’ascesa dei personal computer e di Internet, le persone sono riuscite a superare altri momenti di trasformazione e, nonostante molte turbolenze, alla fine ne escono migliori. Poco dopo che le prime automobili erano sulla strada, ci fu il primo incidente d’auto. Ma non abbiamo vietato le auto: abbiamo adottato limiti di velocità, standard di sicurezza, requisiti per guidare (patente), leggi sulla guida in stato di ebbrezza e altre regole della strada.

Ora siamo nella prima fase di un altro profondo cambiamento, l’era dell’AI. È analogo a quei tempi incerti prima dei limiti di velocità e delle cinture di sicurezza. L’intelligenza artificiale sta cambiando così rapidamente che non è chiaro esattamente cosa accadrà dopo. Stiamo affrontando grandi domande sollevate dal modo in cui funziona la tecnologia attuale, dai modi in cui le persone la useranno per cattive intenzioni e dai modi in cui l’AI ci cambierà come società e come individui.

In un momento come questo, è naturale sentirsi inquieti. Ma la storia dimostra che è possibile risolvere le sfide create dalle nuove tecnologie.

L’Intelligenza Artificiale rivoluzionerà le nostre vite

Aiuterà a risolvere problemi, in materia di salute, istruzione, cambiamenti climatici e altro che, finora, sembravano intrattabili. La Fondazione Gates ne sta facendo una priorità e il CEO, Mark Suzman, ha recentemente condiviso come pensa di ridurre le disuguaglianze.

Ci saranno tante cose da dire in futuro sui benefici dell’AI, oggi cerchiamo di capire le preoccupazioni che ci porta questa tecnologia. 

Una cosa che è chiara da tutto ciò che è stato scritto finora sui rischi dell’AI, e molto è stato scritto, è che nessuno ha tutte le risposte. Un’altra cosa che chiara è che il futuro dell’AI non è così cupo come alcune persone pensano o roseo come pensano altri. I rischi sono reali, ma dobbiamo essere ottimisti sul fatto che possano essere gestiti. Esaminando ogni preoccupazione, torneremo su alcuni temi:

  • Molti dei problemi causati dall’AI hanno un precedente storico. Ad esempio, avrà un grande impatto sull’istruzione, ma anche le calcolatrici portatili alcuni decenni fa e, più recentemente, consentendo ai computer di entrare in classe. Possiamo imparare da ciò che ha funzionato in passato.
  • Molti dei problemi causati dall’AI possono anche essere gestiti con l’aiuto dell’AI.
  • Dovremo adattare le vecchie leggi e adottarne di nuove, proprio come le leggi esistenti contro le frodi dovevano essere adattate al mondo online.

Vediamo i rischi che sono già presenti, o presto lo saranno. Cosa succede se una super AI stabilisce i propri obiettivi? E se fossero in conflitto con quelli dell’umanità? Dovremmo anche creare una super AI?

Ma pensare a questi rischi a lungo termine non dovrebbe andare a scapito di quelli più immediati.

I rischi attuali

I deepfake e la disinformazione generati dall’AI potrebbero minare le elezioni e la democrazia.

L’idea che la tecnologia possa essere utilizzata per diffondere bugie e falsità non è nuova. Le persone lo hanno fatto con libri e volantini per secoli. È diventato molto più facile con l’avvento di word processor, stampanti laser, e-mail e social network.

L’intelligenza artificiale prende questo problema del testo falso e lo estende, consentendo praticamente a chiunque di creare audio e video falsi, noti come deepfake. Se ricevessimo un messaggio vocale che suona come se tuo figlio che dice “Sono stato rapito, per favore invia $ 1.000 a questo conto bancario entro i prossimi 10 minuti e non chiamare la polizia”, avrà un impatto emotivo orribile ben oltre l’effetto di un’e-mail che dice la stessa cosa.

Su una scala più ampia, i deepfake generati dall’intelligenza artificiale potrebbero essere utilizzati per cercare di inclinare un’elezione. Naturalmente, non ci vuole una tecnologia sofisticata per seminare dubbi sul legittimo vincitore di un’elezione, ma l’intelligenza artificiale lo renderà più facile.

Ci sono già video fasulli che presentano filmati costruiti ad hoc di noti politici. Immaginiamo che la mattina di un’elezione importante, un video che mostra uno dei candidati rapinare una banca diventi virale. È falso, ma ci vogliono diverse ore alle agenzie di stampa e alla campagna per dimostrarlo. Quante persone lo vedranno e cambieranno i loro voti all’ultimo minuto? Potrebbe far pendere la bilancia, soprattutto in un’elezione ravvicinata.

Quando il co-fondatore di OpenAI Sam Altman ha recentemente testimoniato davanti a una commissione del Senato degli Stati Uniti, i senatori di entrambi i partiti si sono concentrati sull’impatto dell’AI sulle elezioni e sulla democrazia. 

Certamente non abbiamo risolto il problema della disinformazione e dei deepfake. Ma due cose ci fanno sperare in bene. Uno è che le persone sono in grado di imparare a non prendere tutto per oro colato. Per anni, gli utenti di posta elettronica sono caduti in truffe in cui qualcuno che si fingeva un principe saudita prometteva un grande guadagno in cambio della condivisione del numero della carta di credito. Ma alla fine, la maggior parte delle persone ha imparato a guardare due volte quelle e-mail. Man mano le truffe diventavano più sofisticate. Avremo bisogno di avere lo stesso “allenamento” per i deepfake.

L’altra cosa è che l’intelligenza artificiale può aiutare a identificare i deepfake e a crearli. Intel, ad esempio, ha sviluppato un rilevatore deepfake e l’agenzia governativa DARPA sta lavorando sulla tecnologia per identificare se il video o l’audio sono stati manipolati.

Questo sarà un processo ciclico: qualcuno trova un modo per rilevare la falsità, qualcun altro capisce come contrastarla, qualcun altro sviluppa contromisure e così via. Non sarà un successo immediato e inscalfibile ma non saremo nemmeno indifesi.

Cybersecutiry

L’intelligenza artificiale rende più facile lanciare attacchi a persone e governi.

Oggi, quando gli hacker vogliono trovare difetti nel software, lo fanno con la forza bruta, scrivendo codice che elimina potenziali punti deboli fino a quando non scoprono un modo per entrare. Si tratta di percorrere molti vicoli ciechi, il che significa che ci vuole tempo e pazienza.

Gli esperti di sicurezza che vogliono contrastare gli hacker devono fare la stessa cosa. Ogni patch software che installi sul tuo telefono o laptop rappresenta molte ore di ricerca, da parte di persone con buone e cattive intenzioni.

I modelli di intelligenza artificiale accelereranno questo processo aiutando gli hacker a scrivere codici più efficace. Saranno anche in grado di utilizzare informazioni pubbliche sulle persone, come dove lavorano e chi sono i loro amici, per sviluppare  attacchi di phishing più avanzati di quelli che vediamo oggi.

La buona notizia è che l’Intelligenza Artificiale può essere utilizzata per scopi buoni e cattivi. I team di sicurezza del settore pubblico e privato devono disporre degli strumenti più recenti per individuare e correggere i difetti di sicurezza prima che i criminali possano trarne vantaggio. L’industria della sicurezza del software amplierà il lavoro che stanno già facendo su questo fronte: dovrebbe essere una delle principali preoccupazioni per loro.

Questo è anche il motivo per cui non dovremmo cercare di impedire temporaneamente alle persone di implementare nuovi sviluppi nell’AI, come alcuni hanno proposto. I criminali informatici non smetteranno di creare nuovi strumenti. Né lo faranno le persone che vogliono usare l’intelligenza artificiale per progettare armi nucleari e attacchi bioterroristici. Lo sforzo per fermarli deve continuare allo stesso ritmo.

C’è un rischio correlato a livello globale: una corsa agli armamenti per l’AI che può essere utilizzata per progettare e lanciare attacchi informatici contro altri paesi. Ogni governo vuole avere la tecnologia più potente in modo da poter scoraggiare gli attacchi dei suoi avversari. Questo incentivo a non permettere a nessuno di andare avanti potrebbe innescare una corsa alla creazione di armi informatiche sempre più pericolose. Tutti starebbero peggio.

Questo è un pensiero spaventoso, ma abbiamo la storia che ci guida. Sebbene il regime mondiale di non proliferazione nucleare abbia i suoi difetti, ha impedito la guerra nucleare totale di cui diverse generazioni hanno avuto (e hanno) tanta paura. 

L’intelligenza artificiale porterà via il lavoro delle persone

Nei prossimi anni, l’impatto principale dell’AI sul lavoro sarà quello di aiutare le persone a svolgere il proprio lavoro in modo più efficiente. Questo sarà vero sia che lavorino in una fabbrica o in un ufficio gestendo chiamate di vendita e contabilità fornitori. Alla fine, l’intelligenza artificiale sarà abbastanza brava a esprimere idee da essere in grado di scrivere le tue e-mail e gestire la tua casella di posta per te. Sarai in grado di scrivere una richiesta in un inglese semplice o in qualsiasi altra lingua e generare una ricca presentazione sul tuo lavoro.

È un bene per la società quando la produttività aumenta. Dà alle persone più tempo per fare altre cose, al lavoro e a casa. E la domanda di persone che aiutano gli altri, insegnando, curando i pazienti e sostenendo gli anziani, per esempio, non scomparirà mai. Ma è vero che alcuni lavoratori avranno bisogno di supporto e riqualificazione mentre facciamo questa transizione verso un posto di lavoro basato sull’intelligenza artificiale. Questo è un ruolo per i governi e le imprese, e dovranno gestirlo bene in modo che i lavoratori non siano lasciati indietro, per evitare il tipo di interruzione nella vita delle persone che si è verificata, ad esempio, durante il declino dei posti di lavoro nel settore manifatturiero negli Stati Uniti.

Inoltre, non è la prima volta che una nuova tecnologia ha causato un grande cambiamento nel mercato del lavoro. Non credo che l’impatto dell’Intelligenza Artificiale sarà così drammatico come la rivoluzione industriale, ma certamente sarà grande come l’introduzione del PC. Le applicazioni di elaborazione testi non hanno eliminato il lavoro d’ufficio, ma lo hanno cambiato per sempre. I datori di lavoro e i dipendenti hanno dovuto adattarsi, e lo hanno fatto. Il cambiamento causato dall’AI sarà una transizione accidentata, ma ci sono tutte le ragioni per pensare che possiamo ridurre l’interruzione della vita e dei mezzi di sussistenza delle persone.

L’intelligenza artificiale eredita i nostri pregiudizi e inventa le cose

Le allucinazioni, il termine per quando un’AI fa con sicurezza un’affermazione che semplicemente non è vera, di solito accadono perché la macchina non capisce il contesto della nostra richiesta. Chiedere a un’intelligenza artificiale di scrivere una breve storia su come fare una vacanza sulla luna, potrebbe dare una risposta molto fantasiosa. Chiederle di aiutarci a pianificare un viaggio in Tanzania, potrebbe provare a mandarci in un hotel che non esiste.

Un altro rischio con l’intelligenza artificiale è che riflette o addirittura peggiora i pregiudizi esistenti contro le persone di determinate identità di genere, razze, etnie e così via.

Le allucinazioni

Per capire perché si verificano allucinazioni e pregiudizi, è importante sapere come funzionano oggi i modelli di intelligenza artificiale più comuni. Sono essenzialmente versioni molto sofisticate del codice che consente alla nostra app di posta elettronica di prevedere la prossima parola che stiamo per digitare: scansionano enormi quantità di testo, praticamente tutto ciò che è disponibile online, in alcuni casi, e lo analizzano per trovare modelli nel linguaggio umano.

Quando poniamo una domanda a un’intelligenza artificiale, l’AI guarda le parole che abbiamo usato e quindi cerca pezzi di testo che sono spesso associati a quelle parole. Se scriviamo “elenca gli ingredienti per i pancake”, potremmo notare che le parole “farina, zucchero, sale, lievito, latte e uova” appaiono spesso con quella frase. Quindi, in base a ciò che sa sull’ordine in cui quelle parole appaiono di solito, genera una risposta. I modelli di intelligenza artificiale che funzionano in questo modo utilizzano quello che viene chiamato un trasformatore. GPT-4 è uno di questi modelli.

Questo processo spiega perché un’AI potrebbe sperimentare allucinazioni o sembrare di parte. Non ha contesto per le domande che le facciamo o le cose che le diciamo. Se diciamo a qualcuno che ha commesso un errore, potrebbe dire: “Mi dispiace, ho digitato male“. Ma questa è un’allucinazione, non ha digitato nulla. Lo dice solo perché ha scansionato abbastanza testo per sapere che “Scusa, ho digitato male” è una frase che le persone spesso scrivono dopo che qualcuno li ha corretti.

Allo stesso modo, i modelli di intelligenza artificiale ereditano qualsiasi pregiudizio sia insito nel testo su cui sono addestrati. Se si legge molto su, diciamo, medici, e il testo menziona principalmente medici maschi, allora le sue risposte presumeranno che la maggior parte dei medici siano uomini.

Alcuni ricercatori pensano che le allucinazioni siano un problema intrinseco. Probabilmente, invece, nel tempo, ai modelli di intelligenza artificiale potrà essere insegnato a distinguere i fatti dalla finzione. OpenAI, ad esempio, sta facendo un lavoro promettente su questo fronte.

Altre organizzazioni, tra cui l’Alan Turing Institute  e il National Institute of Standards and Technology, stanno lavorando sul problema del bias. Un approccio è quello di costruire valori umani e ragionamenti di livello superiore nell’AI. È analogo al modo in cui funziona un essere umano autocosciente: forse presumiamo che la maggior parte dei medici siano uomini, ma siamo abbastanza consapevoli di questo presupposto da sapere che dobbiamo combatterlo intenzionalmente. L’intelligenza artificiale può funzionare in modo simile, soprattutto se i modelli sono progettati da persone di diversa estrazione.

Infine, tutti coloro che utilizzano l’AI devono essere consapevoli del problema dei pregiudizi e diventare un utente informato. Se chiediamo a un’AI di redigere un saggio, potrebbe essere pieno di pregiudizi come lo è di errori fattuali. Dovremo controllare i pregiudizi della nostra AI e anche i nostri.

Gli studenti non impareranno a scrivere perché l’intelligenza artificiale farà il lavoro per loro.

Molti insegnanti sono preoccupati per i modi in cui l’IAI minerà il loro lavoro con gli studenti. In un momento in cui chiunque abbia accesso a Internet può utilizzare l’intelligenza artificiale per scrivere una prima bozza rispettabile di un saggio, cosa impedisce agli studenti di trasformarlo come il proprio lavoro?

Esistono già strumenti di intelligenza artificiale che stanno imparando a dire se qualcosa è stato scritto da una persona o da un computer, in modo che gli insegnanti possano dire quando i loro studenti non stanno facendo il proprio lavoro. Ma alcuni insegnanti non stanno cercando di impedire ai loro studenti di utilizzare l’intelligenza artificiale nella loro scrittura, in realtà la stanno incoraggiando.

A gennaio, un’insegnante di inglese con molta esperienza alle spalle di nome Cherie Shields ha scritto un articolo su Education Week su come usa ChatGPT nella sua classe. Ha aiutato i suoi studenti in tutto, dall’iniziare un tema, alla scrittura di schemi e persino dare loro un feedback sul loro lavoro.

Gli insegnanti dovranno abbracciare la tecnologia AI come un altro strumento a cui gli studenti hanno accesso”, ha scritto. “Proprio come una volta abbiamo insegnato agli studenti come fare una corretta ricerca su Google, gli insegnanti dovrebbero progettare lezioni chiare su come il bot ChatGPT può aiutare con la scrittura di saggi. Riconoscere l’esistenza dell’AI e aiutare gli studenti a lavorare con essa potrebbe rivoluzionare il modo in cui insegniamo“. Non tutti gli insegnanti hanno il tempo di imparare e utilizzare un nuovo strumento, ma educatori come Cherie Shields tracciano una via molto importante e coloro che lo fanno ne trarranno molto beneficio.

Ricordiamoci il tempo in cui i calcolatori elettronici si sono diffusi negli anni 1970 e 1980. Alcuni insegnanti di matematica temevano che gli studenti avrebbero smesso di imparare a fare aritmetica di base, ma altri abbracciarono la nuova tecnologia e si concentrarono sulle capacità di pensiero dietro l’aritmetica.

C’è un altro modo in cui l’intelligenza artificiale può aiutare con la scrittura e il pensiero critico. Soprattutto in questi primi giorni, quando allucinazioni e pregiudizi sono ancora un problema, gli educatori possono far generare articoli all’AI e quindi lavorare con i loro studenti per verificare i fatti. Le organizzazioni non profit per l’istruzione come Khan Academy e OER Project offrono a insegnanti e studenti strumenti online gratuiti che pongono una grande enfasi sulla verifica delle affermazioni. Poche abilità sono più importanti del saper distinguere ciò che è vero da ciò che è falso.

Dobbiamo assicurarci che il software educativo aiuti a colmare il divario di risultati, piuttosto che peggiorarlo. Il software di oggi è principalmente orientato a potenziare gli studenti che sono già motivati. Può sviluppare un piano di studio, indirizzare verso buone risorse e testare le conoscenze. Ma non sa ancora come attirarci in un argomento che non ci interessa già. Questo è un problema che gli sviluppatori dovranno risolvere in modo che gli studenti di tutti i tipi possano beneficiare dell’AI.

Qual è il prossimo passo?

Credo che ci siano più ragioni per essere ottimisti sul fatto che possiamo gestire i rischi dell’AI massimizzando i loro benefici. Ma dobbiamo muoverci rapidamente.

I governi devono sviluppare competenze in materia di intelligenza artificiale in modo da poter emanare leggi e regolamenti informati che rispondano a questa nuova tecnologia. Dovranno affrontare la disinformazione e i deepfake, le minacce alla sicurezza, i cambiamenti nel mercato del lavoro e l’impatto sull’istruzione. Per citare solo un esempio: la legge deve essere chiara su quali usi dei deepfake sono legali e su come i deepfake dovrebbero essere etichettati in modo che tutti capiscano quando qualcosa che stanno vedendo o sentendo non è vero.

I leader politici dovranno essere attrezzati per avere un dialogo informato e ponderato con i loro elettori. Dovranno anche decidere quanto collaborare con altri paesi su questi temi piuttosto che andare da soli.

Nel settore privato, le aziende di intelligenza artificiale devono svolgere il proprio lavoro in modo sicuro e responsabile. Ciò include la protezione della privacy delle persone, assicurandosi che i loro modelli di intelligenza artificiale riflettano i valori umani di base, riducendo al minimo i pregiudizi, diffondendo i benefici a quante più persone possibile e impedendo che la tecnologia venga utilizzata da criminali o terroristi. Le aziende in molti settori dell’economia dovranno aiutare i propri dipendenti a compiere la transizione verso un luogo di lavoro incentrato sull’intelligenza artificiale in modo che nessuno venga lasciato indietro. E i clienti dovrebbero sempre sapere quando interagiscono con un’intelligenza artificiale e non con un essere umano.

Infine, è importante per tutti seguire il più possibile gli sviluppi dell’AI. È l’innovazione più trasformativa che ognuno di noi vedrà nella nostra vita e un sano dibattito pubblico dipenderà dalla conoscenza della tecnologia, dei suoi benefici e dei suoi rischi. I benefici saranno enormi e la migliore ragione per credere che possiamo gestire i rischi è che lo abbiamo già fatto prima.