PHOTO
C’è una frase di Tatiana Tommasi che funziona come una chiave: «L’intelligenza artificiale non è un oracolo, è una macchina probabilistica». Sembra un dettaglio tecnico, in realtà è un discrimine filosofico. Perché se l’AI è probabilità, allora non decide, ma suggerisce. E qualcuno è responsabile.
È qui che la conversazione con la docente del Politecnico di Torino, protagonista il 18 aprile dello spettacolo teatrale Socrate 16.22 all’interno di Biennale Tecnologia (vedi di seguito), allarga lo sguardo alla politica e all’etica. Perché oggi il digitale non è più uno strumento: è un’infrastruttura. E come tutte le infrastrutture, autostrade, reti elettriche, acquedotti, può essere regolato. Il punto di partenza sono i dati. I nostri. «Siamo noi a nutrire i modelli», osserva Tommasi. Ogni ricerca, ogni click è materia prima che finisce nei sistemi di intelligenza artificiale. In cambio riceviamo servizi, velocità, comodità. Ma il prezzo è spesso una cessione silenziosa: firmiamo consensi che raramente leggiamo, alimentiamo piattaforme che non controlliamo. Non è una teoria del complotto, è il modello di business.


Il secondo livello è quello dell’elaborazione: cosa accade a quei dati, come vengono trasformati? Qui si apre una tensione tra aziende private globali che sviluppano e governano questi sistemi opposte a democrazie che cercano di inseguire con regole. L’Europa, in questo senso, è un laboratorio interessante. Con l’AI Act, la prima legge quadro al mondo sull’intelligenza artificiale, prova a costruire un perimetro etico e giuridico, introducendo categorie di rischio, obblighi di trasparenza, limiti all’uso. Ma mentre legifera, l’Europa compra tecnologia altrove, affidando pezzi di infrastrutture strategiche ad attori esterni. È un paradosso solo apparente: la regolazione senza capacità industriale rischia di essere una forma di dipendenza “elegante”. Tommasi non indulge in allarmismi, ma non minimizza. Pur avendo le competenze, non sempre ci sono investimenti europei a supportarle. È chiaro che la sovranità oggi passa anche da qui: chi controlla gli algoritmi che analizzano dati sensibili, che sostengono decisioni militari strategiche, che orientano politiche pubbliche?
Il tema si fa ancora più scivoloso quando si entra nel campo della difesa. Le armi autonome e la sorveglianza algoritmica pongono molte domande. È importante sottolineare che la decisione ultima e la responsabilità rimane dell’uomo, in linea con quanto previsto dalla legislazione nazionale e internazionale. Nel frattempo, l’AI entra nella vita quotidiana. Consiglia acquisti, suggerisce risposte. Sembra innocua, ma può portare con sé le credenze, le semplificazioni e gli stereotipi dei dati con cui è stata addestrata. «Non è uno strumento neutro», dice Tommasi, «e soprattutto alcuni sistemi tendono ad assecondare chi fa le domande». E questo, per una società democratica, è un rischio sottile: un’intelligenza che non oppone resistenza non allena il pensiero critico. Per questo la vera urgenza non è tecnologica, ma educativa. Non si tratta di tenere l’AI fuori dalle scuole, ma di portarcela dentro. Spiegare come funziona, dove sbaglia, quando fidarsi e quando no. Perché la differenza non la farà la potenza degli algoritmi, ma la qualità degli utenti.
C’è infine una tentazione, molto contemporanea: usare l’intelligenza artificiale per difendere la democrazia, contrastare la disinformazione, accettando però gli stessi meccanismi che la possono erodere. Tra profilazione e sorveglianza il confine è sottile. E spesso invisibile. Tommasi propone una bussola: «Diritti umani, valori democratici, sostenibilità. Uno “spazio cartesiano” su cui mappare le scelte. Ma anche questa bussola va continuamente difesa, aggiornata, praticata. Perché i valori non sono incorporati nei sistemi: vengono tradotti, male o bene, da chi li progetta».
Alla fine, il punto è quasi disarmante nella sua semplicità: l’intelligenza artificiale è uno strumento potente. Nelle mani giuste può amplificare il meglio, in quelle sbagliate il peggio. La differenza non la farà la tecnologia, ma la nostra capacità di governarla. E forse, in un’epoca che delega sempre di più alle macchine, la competenza più umana di tutte resta questa: non smettere di pensare.
L’evento
Biennale Tecnologia, la manifestazione culturale organizzata dal Politecnico di Torino, torna in città dal 15 al 19 aprile con 120 eventi tra dibattiti, mostre e spettacoli sul tema Soluzioni. Tra gli invitati, Marco Paolini, Maccio Capatonda, Joe R. Lansdale, Diego Fabbri, Jacopo Veneziani, Paolo Benanti, Maurizio Ferraris.






