Quelli di OpenAI, Anthropic e Google DeepMind mettono in guardia dai pericoli dell’intelligenza artificiale

Un gruppo di attuali ed ex dipendenti di OpenAI e di altre importanti società di intelligenza artificiale ha avvertito che la tecnologia pone seri rischi per l’umanità in una lettera martedì, invitando le aziende ad attuare cambiamenti radicali per garantire la trasparenza e promuovere una cultura del dibattito pubblico.

La lettera, firmata da 13 persone, tra cui attuali ed ex dipendenti di Anthropic e DeepMind di Google, afferma che l’intelligenza artificiale potrebbe esacerbare la disuguaglianza, aumentare la disinformazione, consentire ai sistemi di intelligenza artificiale di diventare autonomi e causare morti significative. Sebbene questi rischi possano essere mitigati, le aziende che controllano il software hanno “forti incentivi finanziari” per limitare la supervisione, hanno affermato.

Poiché l’intelligenza artificiale non è regolamentata in modo approssimativo, la responsabilità ricade sugli interni dell’azienda, hanno scritto i dipendenti, invitando le aziende a eliminare gli accordi di non divulgazione e a fornire ai lavoratori tutele che consentano loro di sollevare preoccupazioni in modo anonimo.

La mossa arriva mentre OpenAI affronta un esodo di massa di dipendenti. La partenza di alto profilo è stata vista da molti critici – tra cui il co-fondatore di OpenAI Ilya Sutskever e il capo ricercatore Jan Lake – come un rimprovero ai leader dell’azienda, che secondo alcuni dipendenti stanno perseguendo il profitto a scapito di rendere le tecnologie di OpenAI più sicure.

Daniel Kokotaglo, ex dipendente di OpenAI, ha affermato di aver lasciato la startup perché l’azienda ignorava i rischi dell’intelligenza artificiale.

Fatti arrestare

Storie riassuntive per rimanere rapidamente aggiornati

“Ho perso la speranza che agiscano in modo responsabile, soprattutto perché stanno perseguendo l’intelligenza artificiale generale”, ha detto in una nota, riferendosi a un termine controverso che si riferisce a computer che eguagliano la potenza del cervello umano.

READ  La giuria ha scoperto che gli intermediari devono pagare ai venditori di case 1,8 miliardi di dollari per gonfiare le commissioni

“Loro e altri hanno adottato un approccio del tipo “muoviti velocemente e rompi le cose”, che è l’opposto di ciò che è necessario per una tecnologia così potente e poco compresa”.

Liz Bourgeois, portavoce di OpenAI, ha affermato che la società concorda sul fatto che “un’attenta discussione è fondamentale data l’importanza di questa tecnologia”. I rappresentanti di Anthropic e Google non hanno risposto immediatamente a una richiesta di commento.

I dipendenti hanno affermato che, in assenza di supervisione da parte del governo, i lavoratori dell’intelligenza artificiale sono “le poche persone” che possono ritenere le aziende responsabili. Notano che sono ostacolati da “estesi accordi di riservatezza” e che le normali protezioni per gli informatori sono “inadeguate” perché si concentrano su attività illegali e i rischi da cui mettono in guardia non sono ancora regolamentati.

La lettera invita le società di intelligenza artificiale ad aderire a quattro principi per consentire una maggiore trasparenza e proteggere gli informatori. Tra questi principi figura l’obbligo di non stipulare o far rispettare accordi che vietino la critica dei rischi; Un appello a creare un processo anonimo affinché gli attuali ed ex dipendenti possano sollevare preoccupazioni; Sostenere una cultura della critica; E la promessa di non attuare ritorsioni contro gli attuali o ex dipendenti che condividono informazioni riservate per sollevare segnali d’allarme “dopo che altre operazioni hanno fallito”.

Il Washington Post ha riferito a dicembre che i dirigenti senior di OpenAI avevano espresso preoccupazione per ritorsioni contro il CEO Sam Altman, avvertimenti che hanno preceduto il licenziamento temporaneo del presidente. In una recente intervista in podcast, l’ex membro del consiglio di OpenAI Helen Toner ha affermato che parte della decisione dell’organizzazione no-profit di estromettere Altman dalla carica di CEO alla fine dello scorso anno è stata la mancanza di comunicazione esplicita sulla sicurezza.

READ  Gli investitori si scontrano sul pacchetto salariale da 46 miliardi di dollari di Elon Musk: "Il consiglio di amministrazione non ha ancora confermato se Tesla avrà un amministratore delegato a tempo pieno"

“Ci ha fornito informazioni imprecise sul numero limitato di processi formali di sicurezza adottati dall’azienda, il che significa che era impossibile per il consiglio di amministrazione sapere quanto successo avessero questi processi di sicurezza”, ha affermato.Presentazione TED sull’intelligenza artificiale” a maggio.

Il messaggio è stato fatto proprio da personaggi di spicco nel campo dell’intelligenza artificiale, tra cui Yoshua Bengio e Geoffrey Hinton, considerati i “padrini” dell’intelligenza artificiale, e il famoso informatico Stuart Russell.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Torna in alto