Le sfide dell’Intelligenza artificiale (AI), il tentativo di regolamentarla, con l’Europa a fare da apripista. Le prepccupazioni etiche espressa dal Pontefice. Tutti temi delicati e di stringente attualità dei quali si occupa, con l'acume dell'osservatore e il rigore dello studioso, Ruben Razzante nel libro Il governo dell’Intelligenza Artificiale. Gestione dei rischi e innovazione responsabile (Cacucci Editore).
Razzante insegna Diritto dell’informazione all’Università Cattolica del Sacro Cuore di Milano. Nell’agosto 2023 è stato nominato consulente a titolo gratuito della Commissione straordinaria per il contrasto dei fenomeni di intolleranza, razzismo, antisemitismo e istigazione all'odio e alla violenza del Senato della Repubblica, presieduta dalla Senatrice a vita, Liliana Segre. Dal 2020 è tra gli esperti dell’Unità di monitoraggio per il contrasto della diffusione di fake news relative al Covid-19 sul web e sui social network, istituita dal Sottosegretario di Stato alla Presidenza del Consiglio dei Ministri con delega all’Informazione e all’Editoria.
Professor Razzante, qual è l’impatto dell’AI sul diritto dell’informazione e sul lavoro giornalistico e di comunicazione?
«L'Intelligenza Artificiale (AI) sta avendo un impatto significativo sul diritto dell'informazione. In primo luogo, sta cambiando il modo in cui le informazioni vengono raccolte, elaborate e distribuite. Gli algoritmi di AI sono in grado di analizzare grandi quantità di dati in tempo reale, permettendo ai giornalisti di ottenere insights più rapidamente e con maggiore precisione. Tuttavia, questo solleva questioni importanti riguardo alla protezione dei dati personali e alla privacy, poiché l'AI spesso richiede l'accesso a grandi volumi di informazioni sensibili. L'AI sta trasformando anche il giornalismo, ad esempio automatizza molte delle attività di routine, come la raccolta di dati e la redazione di articoli, liberando così i giornalisti per lavori più creativi e investigativi. Gli strumenti di AI possono anche assistere i giornalisti nell'analisi dei dati, nel fact-checking e nella scoperta di tendenze. Contemporaneamente c'è una crescente preoccupazione che l'automazione possa ridurre il numero di posti di lavoro disponibili nel settore, poiché alcune mansioni potrebbero essere svolte interamente dalle macchine. Il giornalista, per mantenere la sua unicità e integrità professionale, deve perseguire la verità dei fatti attraverso l’analisi creativa e la verifica scrupolosa delle fonti. Il valore distintivo del giornalismo risiede nella deontologia e nel rispetto dei doveri professionali. La conciliazione tra questi principi e l’uso dell’AI inciderà sull’esercizio della professione giornalistica già nel prossimo futuro».
Smentendo molti profeti di sventura, secondo lei l’AI può avere un impatto positivo sulla qualità dell’informazione?
«L'impatto può essere duplice. Da un lato, l'AI può migliorare la qualità grazie a un'analisi più approfondita e precisa dei dati, permettendo di produrre reportage più informati e dettagliati. Gli strumenti di AI possono anche aiutare a combattere la disinformazione identificando e segnalando notizie false. Dall'altro lato, c'è il rischio che un eccessivo affidamento sull'AI porti a un'informazione standardizzata e meno diversificata, poiché gli algoritmi potrebbero favorire determinati tipi di contenuti a scapito di altri, influenzando così la pluralità delle voci e delle opinioni nel panorama mediatico».
Come si concilia, se si concilia, la tutela del diritto d’autore con le creazioni di ChatGPT come articoli o altri contenuti?
«La questione della tutela del diritto d'autore in relazione alle creazioni generate da modelli di Intelligenza Artificiale come ChatGPT è complessa e ancora in evoluzione, sia dal punto di vista giuridico che etico. Il 13 marzo scorso è stato approvato il nuovo regolamento dell’Unione europea relativo all’uso dell’Intelligenza Artificiale, ampiamente conosciuto come “Artificial Intelligence Act” (AI Act). Tra i sistemi di AI regolamentati da questa legge i cosiddetti sistemi “generativi” (come ChatGPT) che devono essere addestrati utilizzando grandi set di dati, ovvero contenuti su cui spesso terzi detengono i diritti d’autore. L'uso di materiale protetto da copyright per istruire tali sistemi ha già dato origine a diverse cause legali, di cui si è parlato ampiamente. A dire il vero però, l’AI Act non contiene disposizioni specifiche riguardanti i diritti di proprietà intellettuale. La legge sull’AI prescrive tuttavia che i fornitori di modelli di Intelligenza Artificiale debbano rispettare la direttiva sul diritto d'autore n. 790/2019 dell'Unione europea, in particolare in relazione allo "scraping" di banche dati, necessario per l'addestramento dei sistemi di intelligenza artificiale. Sebbene la direttiva consenta l'attività di data mining senza l'autorizzazione dei titolari dei diritti per scopi scientifici, l'attività di estrazione in generale può aver luogo solo se l'uso per tali scopi non è stato espressamente riservato dai titolari. È cruciale considerare l'originalità e la qualità dei contenuti generati, valutare se sono davvero originali o semplici rielaborazioni di materiale esistente e stabilire come attribuire correttamente la paternità delle opere generate. Inoltre, è necessario determinare se l’uso del contenuto generato rientra nei limiti dell’uso equo o di altre eccezioni previste dalla legge sul diritto d’autore. In conclusione, la tutela del diritto d’autore in relazione alle creazioni di ChatGPT richiede una considerazione attenta delle normative vigenti, dei termini di servizio delle piattaforme AI e delle implicazioni etiche e legali, con la possibilità di future modifiche legislative per affrontare meglio queste nuove sfide».
Dal punto di vista giuridico, il fatto che questa nuova dimensione sia nelle mani di colossi privati rende più difficile regolamentarla e porre dei paletti giuridici?
«Indubbiamente i colossi tecnologici possiedono risorse enormi, competenze specializzate e un'influenza significativa, che possono usare per plasmare l'industria e orientare la regolamentazione. La loro posizione dominante può ostacolare gli sforzi dei legislatori e dei regolatori di stabilire normative efficaci e bilanciate. Inoltre, queste aziende spesso operano a livello globale, mentre le leggi sul diritto d’autore e altre normative pertinenti variano significativamente da un paese all’altro. Questo crea una complessità aggiuntiva nel tentativo di creare un quadro normativo coerente ed efficace a livello internazionale. Inoltre, i colossi privati tendono a proteggere i propri interessi commerciali e possono lottare contro regolamentazioni che percepiscono come limitanti per la loro attività. La rapida evoluzione della tecnologia rispetto alla lentezza dei processi legislativi rappresenta un ulteriore ostacolo. In questo contesto è essenziale che ci sia una cooperazione tra governi, organizzazioni internazionali, esperti legali, tecnologi e rappresentanti delle aziende per sviluppare normative che bilancino la protezione dei diritti d’autore, la promozione dell’innovazione e gli interessi del pubblico. Solo attraverso un approccio collaborativo e multidisciplinare si può sperare di affrontare tali sfide».
Adesso si sta affermando una narrazione in cui si evidenziano solo i rischi e i pericoli legati all’AI, descritti talvolta con toni emergenziali e apocalittici. Lei non vede nessun beneficio?
«Certamente, ci sono, sono significativi ma spesso vengono trascurati. L'AI può migliorare notevolmente l'efficienza e la precisione in molti ambiti, ottimizzando processi complessi e riducendo gli errori umani. Inoltre, l'AI può analizzare grandi quantità di dati rapidamente, rivelando pattern e insights che sarebbero altrimenti invisibili, contribuendo così a innovazioni e scoperte. Offre anche la possibilità di personalizzare esperienze e soluzioni per gli individui, migliorando la qualità della vita e l'accesso ai servizi. Infine, l'AI può automatizzare compiti ripetitivi e pericolosi, liberando tempo e risorse umane per attività più creative e strategiche e promuovendo una maggiore sicurezza e produttività complessiva».
In quali settori l’AI può aiutarci di più?
«Per esempio, nell'assistenza sanitaria, migliorando la diagnosi delle malattie, personalizza i trattamenti e accelera la ricerca medica. Nel settore industriale, ottimizza la produzione, riduce gli sprechi e implementa sistemi avanzati di manutenzione predittiva. Nell'istruzione, offre esperienze di apprendimento personalizzate e supporta l'educazione digitale. Nei trasporti, guida l'evoluzione verso veicoli autonomi, migliorando la sicurezza stradale e ottimizzando l'efficienza logistica. Nella ricerca scientifica, facilita analisi complesse e scoperte in campi come la genetica e la climatologia. Nei servizi finanziari, rafforza la sicurezza delle transazioni, ottimizza la gestione del rischio e personalizza i servizi per le esigenze individuali. Nel settore dei media e dell'intrattenimento, consente la creazione di contenuti personalizzati e l'analisi delle preferenze degli utenti. Nella gestione delle risorse naturali, supporta la sostenibilità ambientale attraverso monitoraggi dettagliati e modelli predittivi per la gestione delle risorse idriche e energetiche. Infine, nell'amministrazione pubblica, facilita la pianificazione urbana intelligente, la gestione dei dati pubblici e la miglior comprensione dei modelli socio-economici. Direi che ce n’è abbastanza per concludere che l’Intelligenza Artificiale non dev’essere demonizzata ma governata».
Lei nel libro parla di primato europeo sull’AI Act. Che cos’è l’AI Act e in cosa si sostanzia questo primato.
«L’AI Act rappresenta il primo tentativo a livello mondiale di disciplinare l’Intelligenza Artificiale, un traguardo prezioso che conferma il primato dell’Europa digitale sul fronte regolatorio e il suo ruolo di trendsetter in questo ambito. L’AI Act è l’alba di un giorno nuovo per la civiltà giuridica e rappresenta innegabilmente uno snodo fondamentale per il futuro dell’umanità, destinato ad incidere significativamente sul fondamentale rapporto tra tecnologia e persona, contribuendo a tracciarne gli sviluppi e le direzioni per i prossimi lustri. Va comunque detto che anche gli Stati Uniti, con un Executive order dell’ottobre 2023, vale a dire attraverso un processo di coregolazione tra l’amministrazione Biden e sette colossi come Microsoft, si sono posti l’obiettivo di disciplinare l’AI. La Cina, dal canto suo, sta emanando diverse regole sull’AI generativa. Fermo restando, dunque, il primato europeo nell’ambito dell’hard law, esistono altre testimonianze che confermano quanto sia globale la sensibilità regolatoria rispetto al tema dell’Intelligenza Artificiale».
Papa Francesco è stato invitato al recente G7 in Puglia a intervenire nella sessione dedicata all’AI. È la prima volta di un Pontefice nella storia del summit. Qual è il suo commento rispetto alle preoccupazioni espresse dal Pontefice?
«L’intervento del Pontefice sulle preoccupazioni riguardanti l'Intelligenza Artificiale è stato incentrato sulla necessità di guidare lo sviluppo dell'AI affinché sia orientato al bene comune e alla dignità umana. Francesco ha evidenziato l'importanza di sviluppare l'AI in modo etico, affrontando le sfide legate all'automazione e alla digitalizzazione senza perdere di vista i valori umani, la giustizia sociale e l'equità. Inoltre, ha sottolineato il rischio di una crescente disuguaglianza tecnologica e l'importanza di garantire che le tecnologie digitali siano orientate alla promozione del bene comune, specialmente a beneficio dei più vulnerabili nella società. Tutte le preoccupazioni espresse dal Pontefice sono estremamente rilevanti e necessarie. Con il continuo avanzamento della tecnologia, è fondamentale considerare non solo gli sviluppi tecnologici, ma anche le loro implicazioni etiche, sociali ed economiche. La crescita dell'AI offre enormi potenzialità per migliorare la qualità della vita umana, ma comporta anche rischi significativi, come l'accentuazione delle disuguaglianze, la perdita di posti di lavoro e la potenziale minaccia alla privacy e alla sicurezza. Affrontare queste sfide richiede un approccio equilibrato e responsabile da parte di governi, industrie e società civile. Dobbiamo garantire che l'implementazione dell'AI sia guidata da principi etici solidi, che pongano al centro il rispetto della dignità umana, la giustizia sociale e la promozione del bene comune. Inoltre, è cruciale investire nella formazione e nell'adattamento delle competenze per preparare le persone ai cambiamenti derivanti dall'automazione e dalla digitalizzazione. Il contributo del Papa al G7 rappresenta un importante richiamo a considerare non solo il progresso tecnologico, ma anche le sue conseguenze sull'umanità nel suo complesso. È un invito a riflettere su come possiamo sviluppare e utilizzare l'AI in modo che porti beneficio a tutti, senza lasciare indietro nessuno».