FACEBOOK DIVENTA PIU' RESPONSABILE
La notizia che Facebook ha deciso di assumere 3.000 nuovi revisori per impedire la diffusione di post e di video violenti o palesemente immorali merita qualche riflessione.
Anzitutto, è un bene che il Social media più diffuso al mondo (lo usano miliardi di persone) si stia gradualmente assumendo la responsabilità di cio che è di ciò che fa. Non è scontato: infatti, la prima reazione dei vertici, tempo fa, è stata di limitarsi a ribadire il ritornello vuoto della libertà di espressione. Certo che è sacrosanto il diritto di esprimersi e di comunicare,ma come la mettiamo quando le nostre parole e le nostre azioni procurano un danno a noi stessi o ad altri? Quando prevaricano sui diritti degli altri?
Ultimamente Mark Zuckerberg e i suoi hanno preso coscienza che questa pilatesca lavati di mani è assurda: è come se un'azienda che produce un determinato prodotto si appellasse al suo diritto di commerciare, infischiandosene degli effetti che provoca quel prodotto o come se ciascuno di noi, rivendicando una libertà assoluta, pretendesse di fare ciò che gli pare, anche quando procura del male agli altri.
Ai 4.500 revisori già attivi, se ne aggiungerenno presto altri 3.000 dunque. I revisori hanno appunto il compito di vigilare sui contenuti postati sulla piattaforma, raccogliendo segnalazioni degli utenti e delle autorità.
CHI STABILISCE LE REGOLE?
Facebook si è resa conto - e questa è la seconda riflessione - che non basta un algoritmo per sventare questo pericolo. Le cronache anche recenti lo hanno dimostrato in modo brutale e drammatico: sul social sono comparsi video e affermazioni di suicidi, omicidi, violenze rimasti per ore visibili al mondo prima che qualcuno prendessse un'iniziativa.«Abbiamo visto persone fare del male a sé stessi e ad altri, sia in diretta sia in video postati successivamente. È straziante», ha scritto Zuckenberg.
Per effettuare con cura un controllo etico - perché di questo stiamo parlando, inutile girarci attorno! - la tecnologia e la scienza si rivelano inadeguati: occorrono un occhio, cioè una intelligenza e una coscienza umani.
Non saranno dunque dei robot o qualche sofisticato programma a vigilare sulla correttezza dei contenuti, bensì delle persone, 3.000 nuovi esseri pensanti.
Infine, bisogna che la collettività e le istituzioni prendano coscienza che queste popolari piattaforme social hanno bisogno di una regolamentazione. In questo momento, è l'azienda stessa a decidere che cosa può essere pubblicato e cosa può essere diffuso. In base a quali criteri? Ed è sufficiente che un'azienda si assegni da sé tali criteri, senza alcun controllo esterno, o deve essere un organo giuridico riconosciuto a stabilire le leggi che valgono per tutti e farle osservare?
Facebook comincia ad assumersi le sue responsabilità, ed è un bene; ma le istituzioni pubbliche hanno il dovere di scrivere le leggi e le norme che tutti - Facebook compresa, sono tenuti a rispettare. Altrimenti i social media potranno muoversi a loro discrezione, creandosi una morale su misura.