Prima il vertice di due settimane fa alla Casa Bianca, poi l’audizione al Senato Usa. Sam Altman, Ceo di OpenAI e padre di ChatGPT, è impegnato in un tour ai vertici della politica americana. E proprio lui, non nasconde i pericoli di un’intelligenza artificiale lasciata a sé stessa, libera di fare e disfare. Non solo pericoli per l’occupazione, uno dei temi che più tengono in apprensione i politici di fronte all’avanzata prorompente dell’intelligenza artificiale e delle sue applicazioni nel mondo del lavoro e dell’organizzazione d’impresa. Pericoli, e grandi, Sam Altman ne vede per la corretta gestione della democrazia, delle elezioni, dei conflitti sociali che possono essere influenzati o anche stravolti da comunicazioni false spacciate come vere. «Se questa tecnologia (l’intelligenza artificiale, ndr) andasse male, le cose potrebbero finire molto male: dobbiamo dirlo ad alta voce e lavorare col governo per evitare che ciò accada”, ha detto con molta chiarezza di fronte ai senatori a Washington. Ecco perché ha chiesto ai membri del Senato Usa di varare nuove regole e di affidare a una nuova agenzia governativa il compito di assegnare le licenze per lo sviluppo dei grandi modelli di intelligenza artificiale come ChatGPT o Bard di Google, con il potere di revocarle se quei modelli non rispettano gli standard fissati dal potere politico. Un’audizione molto importante e significativa che fa capire quanto complesse siano le implicazioni della nuova tecnologia sulle nostre vite e che arriva dopo gli appelli degli economisti Friedman e Harari e dopo le clamorose dimissioni di Geoffrey Everest Hinton, il padrino dell’intelligenza artificiale di Google, che ha lasciato Big G proprio per potere parlare liberamente dei rischi legati all’AI.
LEGGI ANCHE: La rivincita di Big Tech sulle banche si chiama AI. È un pericolo o no? Ecco perché può sconvolgere i mercati
Cosa ha detto Sam Altman al Senato Usa
Il Ceo di OpenAi, nel suo intervento sull’intelligenza artificiale al Senato Usa, è andato anche oltre e ha ipotizzato la nascita di un’agenzia internazionale che sovrintenda alle regole e si occupi di sorvegliarle, sul modello di quanto si fa per l’energia nucleare dove l’Agenzia internazionale per l’energia atomica (Aiea) è il punto di riferimento per tutti gli operatori a livello globale. Secondo Sam Altman si tratta di individuare standard di sicurezza per questi modelli dell’intelligenza artificiale valutando anche la loro capacità di autoriprodursi o di sfuggire al controllo del gestore agendo in modo autonomo o restando esposti a manipolazioni dall’esterno. Ciò vuol dire anche introdurre un sistema di verifiche delle prestazioni affidato a esperti indipendenti. In altre parole, Altman ha alencato i punti cruciali di un piano di regolamentazione in grado di fissare le regole del gioco in un settore in velocissima espansione, tanto veloce che non preoccupa soltanto i membri del parlamento americano ma gli stessi protagonisti delle nuove tecnologie.
Altman in compenso si è detto convinto che le nuove tecnologie dell’intelligenza artificiale offriranno all’umanità vantaggi che eccedono ampiamente i rischi e alcuni effetti negativi come la perdita di posti di lavoro automatizzati, ma non ha sottovalutato i pericoli. “È essenziale che l’intelligenza artificiale sia sviluppata con valori democratici. La mia più grande paura è che il campo dell’AI possa fare davvero del male al mondo”, sono state le sue allarmanti parole.