PHOTO
«All’origine di questo lavoro c’è stato un incontro, con un ragazzino di tredici anni che mi dice “sai mi sono fatto la fidanzata, però l’ho fatta con l’intelligenza artificiale: bionda, alta e con gli occhi azzurri». Basterebbe questo virgolettato di Ivano Zoppi per capire come il rapporto “adolescente-intelligenza artificiale” possa essere assolutamente malsano e problematico. Non si può più ignorare quella che rischia, a tutti gli effetti, di diventare una piaga sociale, soprattutto perché il tempo per intervenire esiste. Ma la forbice si sta assottigliando sempre di più. Per analizzare (e analizzarci) questo mondo così complesso e pieno di sfaccettature si è svolto il convegno, A.I NOSTRI FIGLI, Intelligenza artificiale e informazione libera, la responsabilità della parola a tutela delle generazioni digitali organizzato dal Gruppo Editoriale San Paolo e le sue realtà Famiglia Cristiana e Cisf, con Fondazione Carolina e in collaborazione con UCSI Lombardia, con un richiamo al mondo adulto riguardo alla responsabilità educativa nei confronti dei ragazzi.
L’incontro si è dipanato attraverso tre tavoli di discussione, ognuno con le proprie tematiche. Il primo è stato moderato da don Stefano Stimamiglio, direttore di Famiglia Cristiana, e ha visto la preziosa collaborazione di Antonella Marchetti, direttrice del Dipartimento di Psicologia dell’Università Cattolica del Sacro Cuore, e Riccardo Sorrentino, presidente dell’Ordine dei Giornalisti della Lombardia. Tema centrale di questo primo spazio di dibattito è il rapporto tra il mondo del giornalismo e l’intelligenza artificiale. La Professoressa Marchetti ha aperto il dibattito sottolineando che l’essere umano è «corpo, cuore e mente». L’interazione con l’A.I. nasconde svariate insidie psicologiche: «come esseri umani, quando interagiamo con l’intelligenza artificiale, se non consideriamo che loro non hanno corpo e cuore, c’è un errore nella relazione». Siamo influenzati e ammaliati dai chatbot, poiché utilizzano un linguaggio fluido che si sintonizza con le nostre richieste, le nostre necessità e i nostri bisogni. Hanno comportamenti che dovrebbero essere scontati, ad esempio rispettano il proprio turno durante la conversazione (fatto assolutamente insolito nei rapporti di oggi), che ci aiutano ad avere l’impressione di interagire con qualcuno di “simile a me”.
Parlando del rapporto tra giornalismo e intelligenza artificiale, Riccardo Sorrentino spiega come quest’ultima non si può sostituire al ruolo di divulgatore svolto da chi lavora sulle notizie. L’A.I. non sa cosa dice, è una macchina statistica con una creatività combinatoria. Non sa cos’è reale e non conosce il significato di ciò che dice. Può essere utile per analizzare una grande mole di dati, ma non potrà mai sostituirsi al giornalista, il cui lavoro è fondato proprio sul rapporto indissolubile con la realtà.
Al secondo tavolo, dedicato alle “fotografie del futuro digitale”, sono intervenuti Marta Macellari, statistica del Centro Studi di Fondazione Carolina, Ivano Zoppi, segretario generale Fondazione Carolina, e Francesco Belletti, direttore Cisf, con il coordinamento di Benedetta Verrini, giornalista e area comunicazione Cisf. Ad aprire la conversazione è stato Paolo Picchio, presidente onorario di Fondazione Carolina, con un toccante discorso nel quale ha ricordato la figlia Carolina, prima vittima riconosciuta di cyberbullismo. Questo spazio ha restituito dati interessanti, che aiutano a inquadrare il rapporto dei ragazzi con i chatbot. Quasi uno su quattro utilizza quotidianamente l’intelligenza artificiale. Ma i dati, sapientemente spiegati e analizzati da Marta Macellari che dovrebbero accendere il segnale d’allarme sono quelli che evidenziano come oltre il 25% degli under15 utilizzi i chatbot come uno spazio sicuro per confrontarsi e uno su tre li apprezza come “amici digitali”. «Questi dati pongono una questione che non possiamo eludere: cosa stiamo offrendo, come adulti, come educatori, come società, ai nostri ragazzi? Se cercano nell’intelligenza artificiale un amico, non significa forse che gli spazi che offriamo loro siano invece percepiti ostili? Se cercano altrove disponibilità e ascolto immediato, evidentemente non riusciamo a garantire loro la presenza e l’attenzione di cui hanno bisogno», chiosa Ivano Zoppi.
Altrettanto interessante lo studio portato all’attenzione della sala dal direttore del Cisf Francesco Belletti. Una ricerca che tratta del percorso interpretativo del punto di vista dei genitori verso l’uso dell’intelligenza artificiale da parte dei figli nella vita e a scuola. Ne sono emerse dichiarazioni interessanti, come quella di un padre di un adolescente quindicenne che frequenta il liceo scientifico: «La uso tutti i giorni sul lavoro, facendo software, e sta proprio lì il segreto: se la usi in maniera attiva, se la guidi e sei conscio di quello che stai facendo, è ormai uno strumento insostituibile. Se, invece, ti abbandoni a lei, rischi di prendere di quelle cantonate…». Completamente di diverse vedute è una mamma di un sedicenne che «non la uso mai e mi ritengo fortunata».


Opinioni quasi opposte sullo strumento, ma in comune c’è che tutti ci vedono dei pericoli. A concludere il tavolo, un video di Filippo Caccamo sull’uso dell’A.I. a scuola.
Durante il terzo e ultimo tavolo, “Lettere per l’A.I., le sfide per il bene comune”, sono intervenuti Alberto Pellai, medico e psicoterapeuta, Stefano Pasta, docente e ricercatore presso il Dipartimento di Pedagogia dell’Università Cattolica e membro del Cremit, Federico Tonioni, responsabile del primo Centro per la patologia da web della Fondazione Policlinico Gemelli di Roma e Federica Bensi, psicologa della Polizia di Stato, moderati da Paolo Perazzolo, caporedattore di famiglia Cristiana. Pasta si è concentrato sulla gestione dello smartphone e delle tecnologie in famiglia. Circa il 50% dei ragazzi usa i dispositivi in modo massiccio, mentre l'altra metà dichiara un uso più moderato. Nel 53% dei casi esistono regole in famiglia, ma il problema non è solo "se" ci sono, ma come vengono applicate. Il conflitto esplode soprattutto sul tempo di utilizzo, che sottrae spazio ad altre attività vitali. Estremamente illuminante è stato l’intervento di Bensi, che ha analizzato le problematiche legate a sexortion (sesso+ estorsione, un ricatto che avviene online) e Deepfake (quando vengono diffuse immagini a sfondo pornografico che però non sono mai esiste e quindi sono state create con A.I.). Il suo intervento è stato impreziosito da una spiegazione dettagliata delle illusioni che caratterizzano gli autori minorenni di questo genere di reato, le convinzioni che vive dentro di sé una vittima (soprattutto il senso di colpa) e l’impatto che ha la vicenda nella vita di queste ultime.


Alberto Pellai, infine, ha parlato del valore della vergogna, di quanto sia importante arrossire in una situazione che ci mette a disagio: solo così si cresce e si migliora. Competenza che non si matura se si rimane dietro lo schermo, nella propria comfort zone. Lo psicoterapeuta sostiene inoltre con forza la necessità di ambienti scolastici senza cellulari, per favorire la socializzazione. E chiosa con un rimprovero agli adulti: «Abbiamo consegnato la crescita dei ragazzi alle multinazionali. A loro bisogna fornire un contesto che non manipoli, imbrogli e seduca la loro creatività e spontaneità, che in quel momento è
nella fase di maggior sviluppo».
A conclusione dell’evento sono state poste domande direttamente a Chatgpt. Fa riflettere la risposta che il chatbot ha dato alla domanda: «Sei consapevole che i preadolescenti e gli adolescenti cercano in te un amico? Perché lo fanno?», il chatbot ha replicato: “Io sono solo uno strumento, i ragazzi mi cercano perché non giudico, sono veloce e sempre disponibile. Dovete essere voi (gli adulti ndr) a promuovere alternative al bisogno emotivo di adolescenti e preadolescenti”. Da qui l’urgenza di un nuovo umanesimo digitale, fondato sulla responsabilità delle parole, sulla qualità dell’informazione e su un uso consapevole della tecnologia, nell’interesse non solo degli utenti di oggi, ma delle generazioni di domani.







