di GIANMICHELE LAINO, direttore di Giornalettismo
Prossimità, cuore, responsabilità. Nel momento stesso in cui papa Francesco, il 29 gennaio 2024, ha preso questi tre concetti e li ha declinati come possibile schermo di protezione nei confronti del vortice innescato dall’Intelligenza Artificiale su informazione e comunicazione, l’aria dell’Aula Paolo VI si è fatta densa. Tutti i presenti – i dipendenti di Tv2000 e InBlu2000 – hanno avuto modo di collegare quelle tre verità pronunciate a voce ferma dal Pontefice alle inevitabili sperimentazioni fatte, da operatori di settore, con le varie piattaforme che generano testi e immagini attraverso l’apprendimento automatizzato.
È probabile che, in quel momento esatto, chi lavora quotidianamente con le notizie e chi ha fatto della comunicazione la propria missione abbia preso coscienza di quanto potrà essere difficile in futuro avvicinarsi agli utenti, redigere un racconto sincero dei fatti, essere trasparenti sulla certezza delle proprie fonti. Come farlo, se un chatbot fornirà delle risposte preconfezionate e fredde (tarate, tra le altre cose, sullo scraping dei contenuti online e sui dati di chi usa internet) a chiunque lo interroghi? Come farlo, se l’elemento soggettivo, la competenza, la testimonianza diretta saranno sempre più sacrificati sull’altare della produzione rapida e dell’immediatezza della trasmissione dei contenuti?
Come farlo, se oggi la riconoscibilità dell’origine affidabile di una notizia risulta più difficile anche per chi fa giornalismo e comunicazione da tempo, sommerso dall’eccesso di disordine informativo, di immagini e video verosimili ma non veri, generati e alterati anziché documentati? L’Intelligenza Artificiale, in questo particolare momento storico, presenta una serie di criticità etiche. Oltre alla sempre più frequente alterazione della realtà vi è anche l’uso indiscriminato di dati sensibili, della violazione del copyright rispetto a contenuti protetti dal diritto d’autore, del consumo di energia collegato ai data center, dei rischi connessi al riconoscimento biometrico, della terrificante prospettiva della sostituzione dell’essere umano in alcuni luoghi di lavoro.
Per questo la prossimità, il cuore e la responsabilità devono rappresentare dei valori condivisi, sia dagli operatori della comunicazione, sia dagli utenti delle piattaforme digitali. Si tratta di elementi che possono essere validi – perché no – anche verso l’approccio alle nuove tecniche di AI che, se utilizzate correttamente, risultano persino utili a chi comunica per professione. È funzionale, ad esempio, un approccio che possa portare i giornalisti a utilizzare tool di Intelligenza Artificiale per analizzare i linguaggi, per ordinare grandi quantità di dati utili a un’inchiesta, per sintetizzare in maniera oggettiva dei testi molto lunghi, per intuire – sulla base del numero e della qualità delle fonti citate – l’attendibilità di un contenuto. Se intendiamo le nuove tecnologie come supporto a un racconto della realtà vicino al destinatario, sincero e mai sopra le righe, allora potremo continuare a vedere in internet un servizio e non – al contrario – un modo per silenziare l’umanesimo.
- Articolo tratto da PAGINE APERTE, speciale Settimana della Comunicazione
Vai alla versione sfogliabile o scarica il pdf