Le sfide per il giornalismo e il mondo della comunicazione, le trappole per il Diritto dell’informazione, le potenzialità (positive), i rischi (da non sottovalutare). L’Intelligenza artificiale (IA) è arrivata come un ciclone nelle nostre vite e società e promette di cambiarle radicalmente. In meglio o in peggio? Ed esiste la possibilità di una costruzione etica? Si possono porre dei paletti perché non diventi strumento di propaganda di odio e fake news. Sono le domande che tutti, non solo gli addetti ai lavori, si pongono e che Ruben Razzante, professore di Diritto dell’informazione all’Università Cattolica di Milano, cerca di offrire con uno sguardo laico e plurale nel volume L’algoritmo dell’uguaglianza (FrancoAngeli Editore) che raccoglie una serie di saggi di vari esperti del settore. Razzante è anche consulente della Commissione straordinaria anti-odio del Senato presieduta dalla senatrice a vita Liliana Segre che firma la prefazione del libro.
Professor Razzante, lei è un osservatore lucido e disincantato sui cambiamenti, spesso repentini, che riguardano il mondo dei media e gli adeguamenti normativi che ne seguono. L’IA quali sfide pone per il Diritto dell’informazione e della comunicazione?
«L’Intelligenza Artificiale sta sollevando numerose sfide per il Diritto dell’informazione e della comunicazione. Innanzitutto, c’è la questione dell’affidabilità delle informazioni che genera. Infatti alcuni contenuti che l’IA produce potrebbero incrementare il fenomeno della disinformazione, anche se al tempo stesso essa potrebbe divenire un valido strumento per combatterlo. Altre criticità emergono sul piano della trasparenza e della responsabilità, soprattutto quando gli algoritmi vengono utilizzati per selezionare o filtrare certe notizie. Un’ulteriore area problematica è la privacy, vista la grande quantità di dati personali che i sistemi intelligenti possono trattare. Particolarmente complessa è anche la questione del diritto d’autore. Infatti, i contenuti generati dall’IA pongono numerosi interrogativi sulla titolarità del copyright e sulle relative tutele».
E quali, invece, sono le sfide che l’IA pone per l’etica dell’informazione?
«Innanzitutto, c’è il rischio di diffondere dei contenuti falsi o manipolati che possono compromettere la veridicità e l’affidabilità dell’informazione. Inoltre, quando l’IA viene impiegata per personalizzare i contenuti, c’è il potenziale rischio di generare delle cosiddette “bolle informative”, con inevitabili limitazioni per il pluralismo. Un’altra criticità riguarda la trasparenza, una componente essenziale dell’informazione, nel dichiarare e rendere esplicito quando un contenuto è stato generato o supportato da un’Intelligenza Artificiale. Infatti, ogni individuo ha il diritto di sapere se l’informazione ricevuta sia frutto di una tecnologia oppure di un essere umano. Infine, altre due sfide etiche riguardano la possibilità che gli algoritmi possano alimentare e amplificare dei bias preesistenti e la responsabilità morale, ovvero su chi debba effettivamente ricadere la colpa nel caso in cui venga prodotta un’informazione scorretta o completamente falsa. Da questo punto di vista, il nuovo Codice deontologico delle giornaliste e dei giornalisti, entrato in vigore il primo giugno, impone obblighi precisi e chiarisce che, in caso di errore, l’uso dell’IA non può mai diventare un’esimente per l’autore dell’articolo».
La prefazione del suo ultimo libro è firmata da Liliana Segre. Che significato hanno le sue parole e in che modo riguardano gli algoritmi?
«Coinvolgere la senatrice a vita Segre in questa mia iniziativa editoriale non è stata una casualità. Infatti con lei collaboro in qualità di consulente a titolo gratuito della Commissione straordinaria del Senato per il contrasto dei fenomeni di intolleranza, razzismo, antisemitismo, istigazione all’odio e alla violenza, da lei presieduta. La sua prefazione mi inorgoglisce e inquadra fin dall’inizio il leitmotiv dell’opera: l’Intelligenza Artificiale può essere impiegata per ostacolare la diffusione di ogni forma di discriminazione e, per riuscire a fare ciò, deve diventare un amplificatore delle azioni virtuose dell’uomo. L’IA deve divenire uno strumento di valorizzazione delle diversità in modo da consentire la tutela delle identità di ogni individuo e lo svolgimento della personalità di ognuno. Questi sistemi devono funzionare “con” l’uomo e potenziare ogni sua attività, in modo tale da poter affrontare al meglio le sfide poste dalla rivoluzione tecnologica. Perciò, l’IA deve essere vista come uno strumento in grado di costruire una società maggiormente inclusiva. Tutto ciò può avvenire solamente se essa verrà progettata con consapevolezza, etica e rispetto per i diritti fondamentali».
Il giornalismo sopravvivrà, e in che modo, all’IA?
«Sicuramente il giornalismo sopravvivrà. Solo che bisognerà sviluppare delle conoscenze e delle abilità più specifiche in tal senso, soprattutto per poter sfruttare questi strumenti a vantaggio della qualità dell’informazione e per valorizzare la professione. Un elemento fondamentale che rimarrà una prerogativa dell’uomo sarà il pensiero critico. Infatti l’IA è solamente in grado in riportare delle informazioni sulla base dei dati che le sono stati immessi durante la fase di addestramento. Perciò, l’Intelligenza Artificiale non sostituirà mai totalmente i giornalisti ma diventerà sempre di più un valido e prezioso supporto per la loro professione, aiutandoli a sbagliare meno e contribuendo a razionalizzare il loro lavoro».
Il fenomeno delle fake news è un fenomeno diffuso da anni che con la potenza di fuoco assicurata dall’IA può davvero andare fuori controllo. Chi risponde se un contenuto generato da IA diffama, discrimina o diffonde notizie false? L’attuale quadro normativo è adeguato?
«Si tratta di una tematica ancora complessa e in corso di evoluzione. La responsabilità dei contenuti generati con l’ausilio dell’IA rimane in capo all’autore e quindi non coinvolge in alcun modo i produttori dei sistemi. Chi utilizza l’Intelligenza Artificiale per produrre dei contenuti che risultano falsi o lesivi dell’onore e della reputazione altrui ne risponde in prima persona e, come ricordavo prima, neppure sul piano strettamente deontologico può dare la colpa agli algoritmi».
Che cosa serve, dal punto di vista normativo, per governare in modo efficace l’uso dell’IA nel giornalismo senza ingessare la professione?
«Alla base c’è la necessità di sviluppare delle norme che siano chiare ed equilibrate, in grado di adattarsi al continuo progresso tecnologico. Inoltre, è essenziale che venga garantita la trasparenza nei confronti degli utilizzi dell’Intelligenza Artificiale, dichiarando ogni volta se la si impiega, in che modo e in che misura. In tal senso, un mezzo utile ed efficace potrebbe essere la creazione di codici etici condivisi che vadano a stabilire delle regole comuni in grado di adattarsi alle continue evoluzioni tecnologiche. In questo modo sarebbe possibile sia avvantaggiare la professione che incentivare l’innovazione. Quando parlo di codici etici condivisi alludo alla possibilità che, oltre al codice deontologico dei giornalisti, si affermino altre forme di autodisciplina per editori, operatori tecnologici e altre figure coinvolte nei processi di produzione e diffusione delle notizie».
Sui temi della censura e della manipolazione dell’opinione pubblica quali sono i rischi maggiori derivanti dall’IA?
«Innanzitutto che possa amplificare tali fenomeni. Un potenziale pericolo potrebbe essere quello di impiegare questi strumenti per controllare la visibilità di determinati contenuti, favorendo alcune opinioni e oscurandone altre. Inoltre, l’IA può essere usata per generare dei contenuti manipolati, i cosiddetti deepfake, andando a influenzare l’opinione pubblica e con il rischio di rafforzare determinati pregiudizi e polarizzazioni. Questi sistemi, se non utilizzati in modo responsabile e consapevole, possono diventare una minaccia per la libertà d’espressione, il pluralismo e la formazione di una libera opinione pubblica».
Nel Messaggio per la Giornata mondiale della Pace del 2023 papa Francesco aveva messo in relazione il tema dell’IA con quello dell’educazione e della pace chiedendo un pensiero critico sull’IA e la capacità di governarla eticamente. Lei, da giurista, come ha accolto questo appello e che cosa ritiene si debba fare?
«L’appello del compianto Papa Francesco è stato particolarmente significativo, anche dal punto di vista giuridico. Il richiamo alla necessità di un pensiero critico e di un controllo etico dell’IA mostra come una tecnologia, per quanto sia potente, deve sempre avere al centro la supervisione umana. Da giurista, questo appello lo accolgo come un invito a rafforzare l’attuale quadro normativo in materia di Intelligenza Artificiale, affinché rispetti i diritti fondamentali e promuova l’inclusione e l’uguaglianza sostanziale. Ciò che è diventato necessario è riuscire a promuovere e a diffondere un’educazione digitale in grado di far comprendere e governare queste nuove tecnologie. Solamente in questo modo sarà possibile costruire un’IA che diventi un amplificatore delle azioni virtuose dell’essere umano e non una minaccia per il futuro dell’umanità».