“Dobbiamo riflettere su cosa abbiamo creato e perché”. Sono le parole di Nello Cristianini, fisico, professore e ricercatore di Intelligenza Artificiale presso l’Università di Bristol, durante la trentaseiesima edizione della Lettura del Mulino dal titolo “Le macchine intelligenti. Capirle per poterci convivere”.
Dagli anni ’50 ai ’90 circa, l’approccio all’intelligenza artificiale era molto “matematico”: ci si chiedeva quale fosse l’attività intellettualmente più alta che un umano potesse svolgere e la risposta sembrava essere “dimostrare teoremi”, ha esordito il docente di Bristol.” L’idea che l’intelligenza fosse deduzione logica, e regole assiomatiche era molto popolare a quei tempi, e tutti gli sforzi investiti nel tentativo di creare macchine intelligenti in quest’ottica non aveva portato a nessun risultato. Il punto di svolta è stato l’abbandono di questo approccio in favore di metodi statistici: questo “cambio di paradigma” ha permesso di avere i primi traduttori. In sintesi, si è passato dal cercare di definire delle regole precise e procedere per deduzione logica a seguire un modello comportamentale guidato da inferenza statistica.
Si è evitato di prendere l’essere umano come modello di intelligenza: l’idea è quella di interessarsi di comportamenti intelligenti più che di intelligenza stessa, che possono essere anche propri di un sistema. Il concetto è quello di emulare comportamenti utili, imparare dagli esempi, lasciando da parte il tentativo di risolvere il “problema dell’intelligenza”, abbandonando anche la questione di dare una etichetta al concetto stesso o definirlo univocamente. Amazon riesce a consigliare senza comprendere il modello di una personalità, allo stesso modo è possibile bloccare le mail indesiderate.
Però, oltre ha tutti i vantaggi che queste macchine hanno portato ci sono rischi reali e concreti non solo alla nostra esistenza e libertà, ma anche alla privacy. “La stessa opinione pubblica è condizionata dagli algoritmi” ha sottolineato Cristianini. “Abbiamo creato delle macchine di cui adesso non possiamo più fare a meno e non abbiamo ancora le norme culturali, le leggi e i valori per conviverci”. È un problema attualissimo di struttura culturale. C’è bisogno di persone che “dipingano” i nuovi problemi per trasmettere alle generazioni future una coscienza di questi rischi, e questo compito, per Nello, spetta alla politica.
Si tratta di governare il cambiamento essendo consapevoli delle molteplici implicazioni: in campo educativo, a livello sociale ma anche sulla nostra mente. Le macchine sono uno strumento potente e imprescindibile basta pensare alle tante conquiste raggiunte in campo medico, industriale e scientifico. Tuttavia, bisogna pensare alle conseguenze etiche e culturali che l’utilizzo su larga scala delle macchine intelligenti avrà. Ciò implica la necessità di modifiche legislative per chiarire ruoli e responsabilità.
Il problema non è la macchina, ma l’uomo stesso se non affronta le questioni secondo una giusta prospettiva. Da chiedersi se in questo processo di sostituzione dell’uomo quali siano le conseguenze etiche e culturali a livello globale. E il rischio per l’uomo di perdere parte della sua identità, riducendo la propria esistenza a ciò che sa fare una macchina e alla soddisfazione di nuovi bisogni per lo più indotti.
Il Parlamento europeo si è espresso in materia: “L’uso dell’intelligenza artificiale (IA) deve prevenire pregiudizi di genere, sociali e culturali e proteggere la diversità linguistica, pietre miliari dei diritti e dei valori fondamentali della nostra società”. Con 623 voti a favore dai membri che vogliono rimarcare l’importanza dei valori etici europei alla base dell’uso, in ambito educativo e culturale, delle tecnologie sviluppate grazie all’IA.
Con questa risoluzione il Parlamento europeo “invita la Commissione europea e tutti gli Stati membri a tenere conto degli aspetti etici, anche da una prospettiva di genere, nell’elaborazione delle politiche e della legislazione in materia di IA e, se necessario, ad adeguare l’attuale legislazione, inclusi i programmi dell’Unione e gli orientamenti etici in materia di utilizzo dell’IA”.
In particolare, i parlamentari chiedono lo sviluppo di indicatori specifici per misurare le diversità e garantire che le raccomandazioni contenute negli algoritmi, specie nei servizi di streaming audio e video, non influiscano negativamente sulla diversità culturale e linguistica dell’Unione.
L’attenzione è posta anche sulla diffusione di fake news, un tema caldo che ha sottolineato anche il professore Cristianini durante l’evento. Bisogna stabilire il modo in cui le tecnologie di intelligenza artificiale vengono utilizzate dai media e vigilare sull’uso improprio di queste tecnologie per la diffusione di false notizie.