L’intelligenza artificiale? Basta che non sia “cotto e mangiato”

L’intelligenza artificiale? Basta
che non sia “cotto e mangiato”

di Roberto Danovaro
4 Minuti di Lettura
Giovedì 1 Febbraio 2024, 07:11

In questi giorni sta divampando il dibattito sull’intelligenza artificiale (IA). Molti esperti sono a favore, altri sono dubbiosi o contrari. Io credo sia ancora difficile capire quali sono le implicazioni di un uso robusto di questo strumento, ma da ricercatore sono sempre stato convinto che le innovazioni tecnologiche servano alla scienza e possano contribuire allo studio e alla conoscenza dei fenomeni che ci circondano e quindi al miglioramento della qualità delle nostre vite. Dopotutto la ricerca ha una funzione democratica, è universale, viene condivisa e partecipata e, almeno in teoria, dovrebbe sempre essere fatta per contribuire al benessere di tutti. Detto questo però ho fortissime perplessità sul fatto che l’intelligenza artificiale possa dare un contributo positivo al miglioramento del nostro benessere, alla diffusione della conoscenza e alla diminuzione delle diseguaglianze. Farò alcuni esempi per chiarire quali sono, allo stato attuale, i miei principali dubbi. Il primo esempio riguarda l’uso di ChatGPT, la nota piattaforma per l’intelligenza artificiale già accessibile a tutti. ChatGPT viene utilizzata spesso dai nostri figli e dai nostri studenti per fare compiti e avvantaggiarsi durante test e compiti in classe. L’uso dell’intelligenza artificiale viene fatto, sostanzialmente, per evitare di studiare, sostituisce la preparazione autonoma dello studente, necessaria alla sua crescita intellettuale. L’IA è in grado di produrre in pochi secondi un tema “cotto e mangiato”, ad esempio sulla poesia “L’Infinito” di Leopardi senza che lo studente l’abbia neanche mai letta. Non ci sono dubbi sul fatto che questo tipo di utilizzo sia negativo per i nostri figli e studenti, anche perché “questa scorciatoia” potrebbe portare ad una valutazione errata della loro preparazione con conseguenze negative sul processo formativo. La cosa mi preoccupa poiché l’utilizzo di ChatGPT è difficile da contrastare nelle scuole. Spesso, infatti, gli insegnanti sono meno esperti degli studenti sull’utilizzo di queste nuove tecnologie. Il secondo esempio riguarda l’uso dell’intelligenza artificiale per la scrittura di articoli scientifici (o di altra natura). Io, da editore responsabile di riviste scientifiche internazionali, ho cominciato a ricevere un numero crescente di articoli che usavano dati rielaborati e che avevano tutte le caratteristiche per essere stati prodotti dall’intelligenza artificiale. Ho fatto delle verifiche insieme alla casa editrice e ho scoperto che, ad oggi, non esistono strumenti efficaci per verificare se è stata utilizzata l’intelligenza artificiale in una pubblicazione.

In altri termini non abbiamo strumenti comprovati per distinguere quello che viene elaborato dalla mente umana e quello che viene fornito dall’intelligenza artificiale e “venduto” come lavoro intellettuale di un ricercatore. È pur vero che, allo stato attuale, le capacità dell’intelligenza artificiale sono limitate, ma in futuro la distinzione tra “intelligenza naturale” e “artificiale” potrebbe essere molto difficile. Un terzo esempio è legato al contributo dell’intelligenza artificiale alla riduzione delle disuguaglianze. L’utilizzo di internet e lo sviluppo della digitalizzazione delle conoscenze sono stati strumenti democratici di condivisione della conoscenza. Internet ha contribuito ad aumentare la possibilità di accesso equo e paritario alle informazioni e alla formazione (pensiamo anche al periodo COVID con le lezioni fatte a distanza). Tuttavia, l’intelligenza artificiale potrebbe avere effetti opposti. Potrebbe essere sfruttata per manipolare i mezzi di comunicazione di massa, per orientare le opinioni politiche, per violare la privacy delle persone, per orientare i nostri consumi (molto più di come avviene oggi). Potrebbe anche essere utilizzata per fini non-pacifici. Tutto dipende quindi da come useremo questa tecnologia. Dopotutto, questa è la caratteristica di ogni tecnologia: può essere utile se usata per fini benefici ma può essere sfruttata anche per scopi eticamente scorretti o iniqui. L’intelligenza artificiale di livello avanzato è un prodotto appannaggio di grandissimi gruppi industriali e di pochi governi. Il rischio è che questa tecnologia possa aumentare significativamente il divario, già forte, tra la parte più ricca e avanzata del Pianeta e quelle più povera. È per questo che le Nazioni Unite hanno chiesto di mettere l’intelligenza artificiale all’interno di una regolamentazione che ne garantisca un utilizzo positivo ed equo. Credo che questi aspetti debbano farci riflettere e che sia necessario discutere quali regole darsi, e farlo subito. Perché chi detiene questa tecnologia non sarà contento di avere dei limiti imposti da queste regole e l’uso sbagliato dell’intelligenza artificiale potrebbe diventare non reversibile.

* Professore ordinario all’Università Politecnica delle Marche titolare dei corsi di Biologia Marina, Ecologia ed Etica ambientale

© RIPRODUZIONE RISERVATA