ChatGPT, Ivana Bartoletti (Wipro): «Non c'è creatività nell'AI ma solo imitazione. Serve un codice etico»

ChatGPT, Ivana Bartoletti (Wipro): «Non c'è creatività nell'AI ma solo imitazione. Serve un codice etico»
di Maria Lombardi
5 Minuti di Lettura
Mercoledì 18 Gennaio 2023, 14:50 - Ultimo aggiornamento: 22 Gennaio, 17:41

Scrive articoli e anche libri, compone poesie, improvvisa versi rap, recita in latino, risponde a qualsiasi domanda.

Ma quanto è intelligente ChatGPT, tra le nuove frontiere dell’intelligenza artificiale? E soprattutto, possiamo considerare creativo il chatbot (il software che simula le conversazioni umane) alimentato dal modello di linguaggio GPT-3 e sviluppato da OpenAI? «Assolutamente no», è la riposta di Ivana Bartoletti, global chief privacy officer di Wipro, autrice di “An artificial revolution: on power, politics and AI”, da poco nominata inaugural visiting cybersecurity & privacy executive fellow presso la Virginia Tech University.

Bartoletti, perché no?

«ChatGPT-3 scrive testi di ottima qualità in modo automatico e autonomo, ma parlare di creatività è fantascienza. GPT è un modello di linguaggio autoregressivo che tramite l’apprendimento profondo produce un testo simile a quello umano. Il fatto che un sistema di AI risolva un problema, non vuole dire che debba essere intelligente per farlo. Confondere la capacità di AI di rispondere a un quesito con l’intelligenza vera e propria è un rischio notevole e pone domande nuove, compresa quella sulla responsabilità per la produzione di artefatti semantici».

E cosa manca perché possa essere considerata un’intelligenza vera e propria?

«A GPT-3, come agli altri modelli di intelligenza artificiale, manca la comprensione di base del mondo, semplicemente mimano i comportamenti umano.

Questo ovviamente apre grandi questioni etiche».

Si arriverà a dotare l’AI di un codice etico?

«La questione in primo luogo è come fare in modo che il rule of law sia tradotto nel design di questi sistemi, e laddove non sia possibile dimostrarne l’aderenza, allora deve essere chiaro che l’algoritmo non può essere usato. Questo soprattutto in ambiti complessi e ad alto rischio come la salute, la selezione del personale o l’allocazione di risorse economiche che possono avere un grande impatto sulla vita delle persone. Dobbiamo smetterla di pensare che gli algoritmi possano sostituirsi alle scelte che dobbiamo fare come società. Mi auguro che nel 2023 si cominci ad invertire i termini del dibattito: non ragionare più su come le scelte di policy debbano adeguarsi alla tecnologia ma di come invece proprio il dibattito pubblico possa indirizzare l’innovazione, così da aiutarci a crescere come Paese e società».

Gli algoritmi condizionano già la nostra vita pur essendo accusati di rafforzare e diffondere pregiudizi e stereotipi, di genere e non solo. Non è pericoloso tutto ciò?

«Siamo ad un punto cruciale nella relazione tra tecnologia e umanità. L’AI ci porta grandi promesse e benefici ma solo se saremo in grado di governarne i rischi. Primo tra tutti, quello di perpetuare e cristallizzare il passato e le disuguaglianze nelle decisioni che riguardano il futuro. Gli algoritmi hanno bisogno di dati, e i dati non sono neutri. Sono lo specchio della società com’è oggi, con tutti i decenni e i secoli di stratificazioni sociali, economiche, discriminazioni di genere, razziali e così via. Quando questi dati vengono presi in maniera acritica e inseriti negli algoritmi, il risultato non può certamente essere neutro bensì riproporrà le stesse dinamiche che ci sono nella società».

Ci può fare qualche esempio pratico?

«Abbiamo visto banche che davano meno credito alle donne perché storicamente guadagnano meno degli uomini. O annunci di lavori meno retribuiti offerti sempre alle donne. Ma c’è anche lo scandalo scoppiato in Olanda che è servito da monito all’Europa. Le autorità fiscali olandesi avevano utilizzato un algoritmo per creare profili di rischio nel tentativo di individuare le frodi sui sussidi per l’assistenza all’infanzia. Ma hanno erroneamente etichettato decine di migliaia di famiglie, spesso con redditi bassi o appartenenti a minoranze etniche, come truffatori. Alcune vittime si sono suicidate e più di mille bambini sono stati presi in affido».

Quale scenario si può aprire se si continueranno a produrre dati condizionati da pregiudizi?

«Gli algoritmi hanno sempre più una funzione allocativa, decidono se una persona può ricevere un credito o un servizio, editoriale, scelgono quale news vengono presentate online quando facciamo browsing, e predittiva. Ma il punto è che tutto questo avviene in maniera oscura e difficile da comprendere. Per questo l’Unione Europea, e non solo, sta lavorando sull’AI Act. E ci si interroga sulla trasparenza degli algoritmi usati dal settore pubblico e privato».

Quali sono le nuove frontiere dell’AI? Cosa ci possiamo aspettare per il 2023?

«Credo molto nelle opportunità dell’AI. Adesso stiamo parlando tutti di GPT-3, ma dobbiamo già guardare a GPT-4 che sarà lanciato nel 2023 e lo eclisserà. Se GPT-3 ha 175 miliardi di parametri, GPT-4 ne ha 100 trilioni. Vedremo un maggiore uso dell’AI in diagnostica e personalizzazione medica e, molto importante, nell’ottimizzazione delle risorse per sostenere la lotta al cambiamento climatico. Ma il 2023 sarà anche l’anno del dibattito sulle regole, specialmente con il metaverso e le opportunità e i rischi che comporta».

L’intelligenza artificiale potrà diventare autocosciente?

«Qui dobbiamo fare attenzione, e ricordarci cosa avvenne a giugno quando Blake Lemoine, ex ingegnere di Google, annunciò che il modello linguistico LaMDa fosse senziente, cioè dotato di sensibilità. LaMDa afferma di apprezzare “le tematiche della giustizia e dell’ingiustizia, la compassione e Dio, la redenzione e lo spirito di sacrificio per una causa superiore”, di riuscire a provare felicità e tristezza, auto caratterizzandosi come senziente, e dunque umano. Tutto questo mostra la pericolosità della situazione: LaMDa non è una tecnologia senziente, bensì un prodotto sofisticato in grado di produrre risultati accattivanti imitando il discorso e la creatività umana grazie al volume dei dati, l’architettura e le tecniche adottate. La distanza con l’umano è ancora grande». 

© RIPRODUZIONE RISERVATA