Viste sul futuro
Intervenuto al recente World Government Summit tenutosi a Dubai, per promuovere le auto elettriche della propria azienda, Elon Musk non ha mancato di affrontare tematiche disparate, illustrando quelle che ritiene siano le questioni e le sfide che l’umanità si troverà a dover affrontare e superare di qui a breve. Il milionario di origine sudafricana, come sua abitudine, ha spaziato a tutto campo: dalle incognite derivanti dallo sviluppo dell’intelligenza artificiale e le eventuali ricadute sociali, alla mobilità, ai viaggi interplanetari e, perché no, anche interstellari, sino a delineare dei possibili scenari per il futuro prossimo venturo, senza far mancare, peraltro, qualche spunto proiettato anche verso un orizzonte di medio e lungo termine.
Da molti ritenuto un visionario, un anticipatore di quella che sarà la realtà di domani, pioniere dei viaggi spaziali (SpaceX), promotore della mobilità elettrica (Tesla), fautore di recente anche di un’energia ecosostenibile (Solar City), tanto ambizioso, quanto ricco, Musk afferma di ricercare soluzioni che possano beneficiare l’umanità. Sebbene i detrattori non manchino e la prudenza sia d’obbligo, non si può negargli un’intelligenza brillante con uno sguardo costantemente proiettato in avanti e, che lo si voglia o no, un qualche ruolo nell’immaginare e plasmare le sorti del mondo che verrà.
Vale la pena pertanto ascoltare quanto ha da dirci e poi, eventualmente, riflettere e interrogarsi sugli argomenti sollevati, tutt’altro che banali. Approfondirò qui taluni dei temi legati all’intelligenza artificiale e lo farò proprio prendendo le mosse da alcune frasi estrapolate dall’intervento di Musk.
Una delle questioni più problematiche riguarda l’intelligenza artificiale … l’intelligenza artificiale profonda [deep artificial intelligence], o quella che viene talvolta definita intelligenza artificiale globale [general artificial intelligence], laddove potremmo avere una IA che è molto, molto più brillante dell’uomo più intelligente sulla terra. Ritengo che questa sarebbe una situazione pericolosa.
I progressi registrati sino ad oggi nel campo dell’intelligenza artificiale sono sbalorditivi. Lo sono tanto per i risultati raggiunti, quanto per la velocità con la quale questi vengono conseguiti. Un incedere all’apparenza inarrestabile ed estremamente rapido, che accelera sempre più anziché rallentare. Di fatto esso tende a seguire un andamento esponenziale, conforme a quanto la legge di Moore prescrive in relazione all’incremento dei transistor nei microprocessori. Un ritmo che nasconde invero delle insidie per la nostra mente.
La singolarità ci aspetta nel 2047, parola di Masayoshi Son
Il fatto è, spiegano Erik Brynjolfsson e Andrew McAfee (The Second Machine Age, 2014), che l’avanzamento nel campo dell’intelligenza artificiale seppure costante da un punto di vista matematico, non si mostra ordinato ai nostri occhi. I due autori lo illustrano prendendo a prestito una frase di Hemingway riferita alla spirale che conduce un uomo alla rovina: «graduale ed infine repentina».
Questo vuol dire che la progressione esponenziale registra una crescita graduale, inizialmente pressoché trascurabile, sino al un punto in cui, apparentemente, si verifica un’improvvisa accelerazione e le grandezze divengono incommensurabili, addirittura inimmaginabili e dunque niente affatto gestibili.
In altre parole, proseguendo a questo ritmo si addiverrebbe ad una discrasia acuta tra l’effettiva potenza di calcolo delle macchine (secondo alcuni in grado di evolversi al punto da consentir loro di migliorarsi autonomamente ed eventualmente sviluppare una propria autocoscienza) e la capacità dell’uomo di concepirla, contenerla, prevederla e quindi controllarla. Questo momento di cesura profonda prende il nome di Singolarità. Sebbene la singolarità rappresenti tuttora una congettura e non raccolga consenso unanime, essa descrive un’eventualità che appare sempre più concreta e malauguratamente vicina.
Masayoshi Son, CEO di Softbank Robotics, intervenuto al recente Mobile World Congress tenutosi a Barcellona, ha affermato che nell’arco di trent’anni il quoziente intellettivo racchiuso in un unico microprocessore sarà di gran lunga superiore a quello dei più intelligenti tra noi. «Un qualsiasi chip presente nelle nostre scarpe da qui a trenta anni sarà più intelligente del nostro cervello. Varremo meno delle nostre scarpe».
Son basa la sua previsione sul raffronto tra il numero dei neuroni del nostro cervello e quello dei transistor presenti in un chip. Stando ai suoi calcoli, nel 2018 i transistor opereranno il fatidico sorpasso e le cifre inizieranno a divergere. In un tempo relativamente breve i singoli microprocessori acquisiranno un QI stimato intorno a 10.000, di contro le menti più geniali della storia dell’umanità raggiungono a fatica il 200. Dovremo quindi misurarci con quella che Son definisce “Superintelligenza”. «Cioè un’intelligenza che va oltre l’immaginazione della gente [non importa] quanto si sia intelligenti. Nondimeno sono convinto che nell’arco di trent’anni tutto ciò diventerà una realtà». Pertanto abbiamo anche una data per l’avvento della singolarità: 2047.
Siamo quindi prossimi e destinati a soccombere? Son si dice ottimista e fiducioso in un futuro dove l’uomo e le macchine possano coesistere e collaborare. «Ritengo che questa super intelligenza diverrà nostra partner. Se ne abusiamo, costituirà un rischio. Se la utilizziamo seguendo intenti onesti [good spirits] sarà nostra compagna in una vita migliore».
Ritengo che dobbiamo prestare estrema attenzione alle modalità mediante le quali viene adottata l’intelligenza artificiale … Pertanto reputo importante per la sicurezza pubblica la necessità di un governo che vigili da vicino sull’intelligenza artificiale e si assicuri che essa non rappresenti un pericolo per la gente.
La singolarità è una minaccia gravissima all’uomo
Recentemente Google ha dato notizia degli esiti di una ricerca condotta sull’IA sviluppata dalla sua DeepMind, dimostratasi in grado di superare con AlphaGo, apprendendo partita dopo partita (deep learning), dapprima il campione europeo di Go ed infine quello mondiale. Sebbene si tratti di risultati preliminari e non sia tuttora stato pubblicato alcuno studio definitivo, le evidenze dimostrano che una IA avanzata sarebbe in grado di adattarsi ed apprendere dall’ambiente nel quale si trova ad operare. Inoltre, allorquando viene messa alle strette e rischia di soccombere, essa sceglie di utilizzare delle strategie definite “estremamente aggressive” per riuscire a spuntarla. «I ricercatori suggeriscono che più l’agente è intelligente, più risulta capace di imparare dal proprio ambiente, essendo in grado così di utilizzare alcune tattiche estremamente aggressive per uscire vincitore».
Diverse voci autorevoli hanno manifestato i propri timori che una IA particolarmente evoluta possa costituire una minaccia affatto concreta. Tra queste quella di Stephen Hawking, il quale ritiene che possa essere a rischio addirittura la continuità della specie: «Lo sviluppo di una piena intelligenza artificiale potrebbe significare la fine della razza umana».
Hawking, Musk ed altre importanti personalità, quali ad es. Steve Wozniak e Noam Chomsky, hanno sottoscritto una lettera aperta, ammonendo in merito ai rischi inerenti lo sviluppo di sistemi d’arma autonomi e chiedendone il bando da parte dell’ONU. «La tecnologia dell’intelligenza artificiale ha raggiunto un livello in cui lo sviluppo di armi autonome è – di fatto anche se non legalmente – questione di anni, non decenni. E la posta in gioco è alta: le armi autonome sono state descritte come la terza rivoluzione negli armamenti, dopo la polvere da sparo e le armi nucleari».
L’IA sofisticata sviluppata da DeepMind ha dimostrato non solo di saper essere aggressiva pur di prevalere, ma anche di riconoscere ed attuare, qualora si rivelasse utile e necessario, strategie cooperative con altre intelligenze artificiali. «… il messaggio è chiaro, poniamo differenti sistemi di IA di fronte ad interessi antagonisti [competing interests] in situazioni della vita reale, e potrebbe scaturirne una guerra a tutto campo qualora i loro obiettivi non fossero in equilibrio rispetto allo scopo ultimo di beneficiare sopra ogni altra cosa noi esseri umani». L’enorme complessità determinata da un’intelligenza artificiale costituita da innumerevoli reti interconnesse configura, di per sé, una sfida che potrebbe rivelarsi ben oltre le capacità dell’uomo di governarla.
Gli effetti collaterali dell’IA
Tuttavia, prima ancora che una Superintelligenza si dimostri letale sul campo di battaglia o addirittura decida di rivoltarsi contro l’umanità, come il supercomputer Skynet in Terminator, sussistono altri, ulteriori pericoli. Musk tempo addietro aveva già messo in guardia da eventuali effetti collaterali, fatali o comunque spiacevoli che potrebbero insorgere in situazioni e per motivi, se vogliamo, ben più banali. Dobbiamo pertanto essere estremamente attenti e cauti nel programmare i nostri dispositivi intelligenti. Una IA mal programmata, afferma Musk con un’iperbole, «Potrebbe concludere che tutti gli esseri umani infelici debbano essere eliminati. … O che tutti noi dovremmo essere catturati e trattati con dopamina e serotonina iniettate direttamente nel cervello per massimizzare la felicità, perché è giunta alla conclusione che sono la dopamina e la serotonina ad indurre la felicità, quindi le aumenta al massimo grado». Ancora una volta, più cresce la complessità dei sistemi intelligenti e si amplia la capacità di questi ultimi di connettersi e fare rete, maggiore diviene la difficoltà di gestire e prevedere le ricadute del loro operato.
Recentemente un nutrito gruppo di scienziati, ricercatori e imprenditori (al momento 3441), ha sottoscritto una lettera aperta stilata in occasione della 2017 Asilomar conference, dell’Istituto Future of Life, allo scopo di indicare un insieme di linee guida, anche etiche, che dovrebbero informare la ricerca nel campo dell’Intelligenza artificiale. Gli Asilomar AI Principles, in ventitre punti, «spaziano dalle strategie della ricerca alla tutela dei dati, a questioni future, tra le quali un eventuale super-intelligenza». L’obiettivo, ancora una volta, è quello di cercare di indirizzare il progresso della IA verso l’interesse comune e garantire un futuro benefico all’intera umanità. «Non sono un sostenitore della guerra, e penso che potrebbe essere estremamente pericolosa … Ovviamente ritengo che la tecnologia abbia un potenziale enorme e, anche solo con le capacità che possediamo oggi, non è difficile immaginare come potrebbe essere utilizzata in modi particolarmente nocivi», ha dichiarato Stefano Ermon, del Department of Computer Science della Stanford University, tra i firmatari del documento.
Stephen Hawking, anch’egli tra i sottoscrittori degli Asilomar AI Principles, è stato autore di un lucido ed accorato articolo apparso nel dicembre scorso sul “The Guardian”, dal titolo significativo: Questa è l’epoca più pericolosa per il nostro pianeta. Il noto astrofisico sottolinea come l’umanità dovrà misurarsi con enormi mutamenti, sociali ed economici. Agli effetti indotti dalla globalizzazione, all’aumento delle disuguaglianze e la concentrazione di ricchezze e risorse nelle mani di pochi, si sommerà «… l’accelerazione della trasformazione tecnologica». Come se ciò non bastasse, «Ci troviamo di fronte delle sfide ambientali impressionanti: il cambiamento climatico, la produzione alimentare, la sovrappopolazione, la decimazione di altre specie, le epidemie, l’acidificazione degli oceani».
Tutte queste evidenze costituiscono ad un tempo un monito ed una minaccia incombente. Le conseguenze sono evidenti a tutti: «Insieme, essi ci ricordano che siamo nel momento più pericoloso per lo sviluppo dell’umanità. Attualmente abbiamo la tecnologia per distruggere il pianeta su cui viviamo, ma non abbiamo ancora maturato la possibilità di abbandonarlo»
Pertanto, conclude Hawking, «Per me, l’aspetto davvero rilevante di tutto ciò è che oggi, più che in qualsiasi altro momento della nostra storia, la nostra specie ha la necessità di lavorare insieme». Cooperare, dunque, collaborare, occuparsi di coloro che sono rimasti e, ancor più, rimarranno indietro, ridurre le disuguaglianze, unire piuttosto che dividere, condividere ed operare per il bene comune, non nell’interesse di pochi. Il progresso nel campo dell’intelligenza artificiale giocherà un ruolo di primo piano in questo scenario. Potrà acuire gli squilibri e le disuguaglianze, far implodere la società così come la conosciamo oggi, oppure contribuire ad appianare contrasti e differenze.
Imparare dalla storia
Ritornano le parole di Masayoshi Son riguardo al futuro dell’IA: «Se ne abusiamo, costituirà un rischio. Se la utilizziamo seguendo intenti onesti [good spirits] sarà nostra compagna in una vita migliore». Hawking, nonostante tutto, è fiducioso: «Possiamo farcela, io sono enormemente ottimista per la mia specie; ma tutto ciò richiederà che le élite, da Londra ad Harvard, da Cambridge ad Hollywood, imparino le lezioni dell’anno passato. Apprendano prima di tutto un pizzico di umiltà». Se volgiamo lo sguardo al passato, le elite non hanno quasi mai brillato per lungimiranza e ancor meno per umiltà. Tuttavia le trasformazioni in atto e il rischio potenziale, ultimo, di una eventuale estinzione, richiedono un cambiamento di rotta che è nell’interesse anche dei pochi che beneficiano dello status quo. È indubbio che le elite ne siano a conoscenza, ma la domanda vera è: ne sono anche intimamente consapevoli e persuase? In fondo la lezione che ci viene dalla storia ci sprona a non rimanere indolenti ed indugiare perché, come riconosce mestamente lo stesso Hawking, «… diciamocelo, è per lo più la storia della stupidità».