Nel 1946, appena finita la guerra, gli scienziati che avevano speso quegli anni in semìcattività, o perché impegnati in progetti segreti o perché profughi, ricominciarono a girare il mondo. E con essi le nuove idee. Un giorno Gleb Wataghin, un fisico russo che aveva trovato rifugio nel nostro Paese, rivide per caso il suo vecchio amico John von Neumann, il matematico ungherese che, esule negli Usa, vi aveva costruito il primo cervello elettronico per i complessi calcoli necessari al programma nucleare della grande potenza. A Wataghin, che gli rimproverava di aver trascurato la matematica per le armi, rispose che il suo lavoro era sempre la matematica. Ma si sarebbe rivelato più esplosivo della bomba atomica. L'èra dei computers, che ci sta ora portando nella seconda rivoluzione industriale, era cominciata.
I calcolatori, in verità, sono ben più antichi dell'elettronica. Dopo il pallottoliere e l'abaco, il primo strumento di calcolo è stato il regolo. Ideato in Scozia nel 1600, è stato "mandato in pensione" solo cinque anni fa dal boom dei calcolatori tascabili. Tra questi due estremi, che ancora convivono in molte scrivanie, la strada è stata lunga ed eccitante. I primi calcolatori meccanici furono opera di bambini-prodigio. Nel 1700 Blaise Pascal, adolescente, costruì per il padre, agente delle tasse, una farraginosa "pascalina" montata su rotelle ed ingranaggi complicatissimi. Le ansie religiose lo portarono poi altrove, ma, anni dopo, un altro filosofo, Leibnitz, anch'egli ancora giovanissimo, se ne interessò ed ebbe un'intuizione geniale. Per semplificare quelle rotelle dentate bastava abbandonare il sistema decimale antropomorfo - dieci simboli con dieci dita - e tornare all'antichissimo sistema binario che si serve di due soli simboli, l'1 e lo 0.
Si parte da zero che si scrive 0, si continua con l'uno che si scrive 1. Si arriva a due che si scrive 10, il tre si scrive 11, il quattro 100 e così via. Il diciassette già si scrive 10001. È un metodo che a noi può apparire troppo complicato, perfino un po' folle: cifre che arrivano a coprire intere pagine di due soli simboli sono difficili da afferrare per il cervello umano. Invece per un calcolatore nulla è tanto conveniente quanto la semplicità di questo sistema binario che, avendo due simboli soli, permette di esprimere tutto con un movimento di va e vieni.
La brillante idea di Leibnitz venne raccolta anni dopo, in Inghilterra, mentre l'industrializzazione stava rendendo davvero ardua la contabilità tenuta col calcolo manuale. Fu Charles Babbage che sostituì alle complesse rotelline a dieci denti di Pascal un sistema di semplici punzoni che, alzandosi ed abbassandosi, esprimevano I'1 e lo 0. Babbage era un genio del cal olo e della meccanica; con l'aiuto della contessa Ada di Lovelace, figlia di Lord Byron, costruì il primo computer già dotato di un meccanismo di input per introdurre i segnali binari, di un'unità di calcolo, di una memoria ed, infine, di un meccanismo di output che forniva i risultati delle operazioni. Egli aveva capito quale rivoluzione il sistema binario utilizzato nelle macchine da calcolo avrebbe permesso se solo si fossero potuti costruire meccanismi molto veloci, capaci di far sfilare rapidamente sequenze aritmetiche lunghe pagine intere. Fu un uomo troppo avanti per il suo tempo, non fece che sognare tecnologie impossibili; non aveva a disposizione che quella dei primi telai funzionanti a schede perforate, innovazione allora strepitosa. ma del tutto inadeguata per il calcolatore. Ed infatti il suo assomigliava davvero ad un telaio, veniva azionato a mano, faceva un fracasso terribile e, mentre calcolava, tremava tutto per il lavoro frenetico dei punzoni che bucavano le schede.
Il sogno della macchina veloce fece impazzire Babbage, che morì senza poter vedere le applicazioni dell'elettricità, le quali, molti anni dopo, avrebbero permesso il vero salto di qualità mediante i relé elettromagnetici. Il contributo decisivo lo diede Von Neumann che, lavorando a Los Alamos durante la costruzione delle prime armi nucleari, utilizzò anche lui, per la segnalazione binaria, l'elemento più veloce a disposizione, e cioè l'elettrone, ma servendosi di valvole (tubi catodici). Erano poste così le basi per la rivoluzione informatica che noi oggi sappiamo alle porte, ma di cui abbiamo concetti oscuri e confusi.
Proviamo a chiarirli nei due luoghi in cui si è fatto il lavoro pionieristico sui calcolatori: prima a Los Alamos, dove Von Neumann adottò l'elettronica, quindi al Mit di Boston dove vi è un prestigioso "Centro per l'intelligenza artificiale''.
A Los Alamos non si parla più del singolo computer, ma della rete computerizzata composta di calcolatori di ogni dimensione in comunicazione fra loro: tutti assieme costituiscono l'apparato più potente al mondo, sottoposto quindi a rigide misure di sicurezza. Nel laboratorio abbiamo incontrato, ma senza poterli fotografare tre degli specialisti che che si occupano di questo apparato: Dennis Perry. Lawry Man, Ray Ellis.
Una prima cosa è subito chiara: queste macchine silenziose ed eleganti da cui si diffonde una siderale luce blu altro non sono che i parenti ricchi del "motore analitico" costruito da Babbage un secolo fa.
Uguale è la struttura logica, identica la tecnica matematica, che riduce anche le operazioni più complesse in quelle più elementari, cioè in addizioni algebriche. Identico il sistema: infatti il passaggio e l'interruzione di corrente - on e off - esprimono sempre e solo i due simboli binari. Sono detti in inglese binary digits, e per questo oggi si usa così spesso il termine ''digitalizzazione". Simili, infine, sono i dilemmi. L'inventore inglese, dettando il diario alla sua amorosa Lady Lovelace, si chiedeva: « Il motore analitico potrà mai inventare, creare, immaginare?». Domande non troppo diverse se le pongono gli uomini che oggi hanno a disposizione una tecnologia meravigliosa, quella che Babbage non ebbe mai. Ma se la struttura concettuale non è mutata, qual è stata la scoperta che ha portato alla rivoluzione informatica dei nostri giorni?
« La miniaturizzazione», dice Dennis Perry, «permessa dai semiconduttori a stato solido. I tubi catodici sono stati sostituiti dai transistors, quindi dai circuiti integrati. sempre più piccoli, sempre più veloci. Non è stata l'invenzione di un singolo, ma il lavoro di centinaia di persone: la ricaduta tecnologica più spettacolare delle imprese spaziali». Chip, scheggetta, si dice in inglese quella capocchia di spillo he ha preso il posto di valvole grosse come lampadine. E costruita con materiali semiconduttori silicati che, avendo la proprietà di lasciare passare la corrente in una sola direzione, costituiscono delle valvole naturali. Le impurità che contengono, inoltre, amplificano i segnali che ricevono: quindi la corrente domestica è sufficiente a far funzionare un moderno computer. I silicati sono modesti minerali di cui sono fatte le montagne e la sabbia dei mari. Abbondantissimi, non costano quasi nulla: ed ecco perché si parla anche di "civiltà del silicio".
«Una sola chip», prosegue Dennis Perry, «svolge le funzioni che, trent'anni fa, richiedevano un armadio pieno di val vole. quarant'anni fa una stanza colma di circuiti e relé. Quelle microscopiche piastrine di silicio formano l'unità di calcolo (che è sempre più veloce) e la memoria (che è sempre più vasta). Quindi i computers sono sempre più potenti. più robusti, più piccoli, più facili da riparare e molto più a buon mercato. Credo che tutti questi vantaggi insieme non siano mai toccati ad altre tecnologie».
«Dove andiamo?». si chiede ancora Perry. «La miniaturizzazione proseguirà ancora, ma non per sempre, perché l'uomo non può maneggiare oggetti di dimensioni microscopiche. Con le fibre ottiche - "microlasers" innestati nei processori - utilizzeremo segnali veloci come la luce, ma oltre non potremo andare perché le leggi della natura ce lo proibiscono.
«Le previsioni sono rischiose, ma teniamo presente che la miniaturizzazione è una conquista recente, degli ultimi cinque anni. In un tempo così breve i calcolatori hanno invaso le case, gli ospedali, le scuole, gli uffici, le fabbriche, i centri studi, i ministeri. Sono sulla scrivania, in tasca, in cucina, in auto. Pilotano i satelliti, gli aerei, i treni e comandano squadre di robots».
Gli fa eco Lawry Man: «Insomma l'hardware, la macchina, l'apparato, è oggi uno strumento potentissimo. Tuttavia è pur sempre solo "un cretino che lavora come un pazzo" ed è lì che aspetta i nostri ordini. Il problema è che non abbiamo ancora imparato a darglieli in modo efficiente; la programmazione (il cosiddetto software) è molto arretrato. Anni ed anni di ricerca saranno ancora necessari per svilupparlo.
«Progrediranno invece molto in fretta le comunicazioni: il computer è un masticatore di numeri, ma anche di dati che traduce nel segnale binario; pertanto non va visto come un'entità a sé stante, ma come una centrale per elaborare, smistare e comunicare dati ed informazioni. Per farlo si servirà dei satelliti».
Come organizzare, chiarire, mettere ordine in questa mole di dati che invaderà la terra? Ray Ellis è fra gli autori di un interessante tentativo. «Il computer adora i numeri», egli dice, «e li digerisce senza problemi. Invece il cervello umano, davanti a lunghe sfilze numeriche s'impigrisce, s'annoia perché è abituato ad immagini sintetiche, che afferra e comprende ancora meglio se sono esteticamente belle, ma-gari divertenti. Il nostro computer ha imparato a visualizzare astruse equazioni in film animati, ottenuti con tante sequenze di grafici colorati. Lo fa con gusto ed arte, tanto che, qualcuno di noi ha davvero dipinto opere d'arte usando il computer come uno speciale pennello. Il computer è diventato un mirino che cattura l'immagine che solo la mente umana può vedere. Un esempio? Chi ha mai visto il "Big-Bang", il botto con cui cominciò l'universo? Esso è stato sempre e solo rappresentato da complicate equazioni. Il nostro computer le sta traducendo in immagini colorate: fra breve avremo il film e vedremo il ''Big-Bang"».
E' un tentativo per rendere accessibile a tutti la cultura matematica del computer; tuttavia il suo modo di "ragionare" resta sempre molto lontano da quello del cervello umano. Ben lo sanno al Mit dove, al "Centro per l'intelligenza artificiale", ne abbiamo parlato con due sposi, matematici e pisani: si chiamano Giuseppe e Maria, di cognome Attardi.
Potrebbe usarlo anche un analfabeta
In questo Centro noi non progettiamo computer per la scienza: essi sono relativamente semplici e già molto sviluppati. Noi vogliamo computers che sostituiscano l'uomo in certe funzioni; che vedano, sentano e muovano le braccia per lavorare. E siano così facili da usare da essere accessibili anche all'analfabeta, nel Terzo Mondo ad esempio. Per riuscirci bisognerà rendere il computer un po' più simile al cervello umano, che è terribilmente complesso. Esso può chiamare in causa simultaneamente decine di migliaia di catene nervose, mentre il calcolatore usa i suoi circuiti ad uno ad uno. Anche il cervello verosimilmente funziona sul sistema binario, tuttavia la sua memoria è grande un milione di volte quella di questo elaboratore già molto avanzato, che abbiamo davanti. Contiene fino a un milione di miliardi di unità d'informazioni, non solo, ma sa organizzarle infinitamente meglio, accedervi istantaneamente al momento giusto. Se invece chiediamo un'informazione ad un computer, lui, per sapere se la conosce, deve passare in rassegna tutto quanto contiene in memoria. Ce la fa perché è tanto veloce, ma se la nostra informazione è un briciolo distorta egli non la riconosce più.
Ma cosa vuol dire tentare di avvicinare intelligenza artificiale al cervello umano?
«Noi puntiamo ad insegnare al computer a fare relazioni, ad autocorreggersi, ad adattarsi all'ambiente ad imparare dall'esperienza, quindi a generalizzare. Ci vorranno computers allacciati che lavorino simultaneamente, con memorie giganti e una programmazione sofisticata al punto che potremo farla solo se ci aiuterà il computer stesso. È una sfida affascinante in cui, solo qui, sono coinvolte centinaia di persone, ma, se sapremo raccoglierla, il volto del mondo verrà cambiato».
Più esplosivo della bomba atomica, aveva detto Von Neumann. Spariranno le poste, i telefoni, le macchine per scrivere, le catene di montaggio e molti posti di lavoro. Ne nasceranno o rinasceranno altri, quelli artigianali, ad esempio. La televisione avrà un'unica rete mondiale e le trasmissioni saranno ''impacchettate" nella memoria dei computers: richiameremo sul video del calcolatore di casa il film della sera prima o il telegiornale di New York trasmesso la mattina su un altro fuso orario. Con lo stesso computer faremo le operazioni di banca, prenoteremo il treno, faremo la spesa parlando col terminale del supermercato. Sulla stampante riceveremo il giornale, la posta e magari svolgeremo il nostro lavoro e parteciperemo a teleconferenze senza uscire di casa. A scuola i nostri figli seguiranno corsi di Harvard o della Sorbona, perché sul tetto della scuola avranno installato un piccolo piatto, che costerà quattro soldi, un'antenna per satelliti che li metterà "in diretta" coll'intero pianeta. Forse.
Forse tutto questo darà possibilità di liberazione al Terzo Mondo. Se è vero che il suo dramma sono l'ignoranza e l'isolamento, quando anche gli sperduti villaggi in Africa e in Asia potranno collegarsi a buon mercato con la rete d'informazione che avvolgerà la Terra, nodi antichi avranno una risposta. Come avere un numero sufficiente di tecnici, insegnanti e "medici scalzi" che vadano dappertutto a spiegare i pericoli dell'acqua sporca, insegnino a leggere e scrivere e ad usare tecniche di agraria elementare? Ci penseranno satelliti e computers. Intanto, forse, in Occidente noi condurremo una vita allucinante, incollati al piccolo schermo. Oppure andrà tutto diversamente?