La legge sull’intelligenza artificiale della California proteggerebbe non solo gli esseri umani

FCi sono pochi posti al mondo che trarrebbero maggiori benefici dal boom del settore dell’intelligenza artificiale in California. E pochi posti rischiano di perdere di più se la fiducia del pubblico nel settore viene improvvisamente distrutta.

A maggio il Senato della California ha approvato Passaggio Il disegno di legge 1047 del Senato, parte della legislazione sulla sicurezza dell’IA, è stato approvato con un voto di 32 a 1, contribuendo a garantire lo sviluppo sicuro di sistemi di intelligenza artificiale su larga scala attraverso standard di sicurezza chiari, prevedibili e basati sul buon senso. Fattura adesso deciso Il disegno di legge dovrebbe essere votato nella legislatura statale questa settimana e, se convertito in legge dal governatore Gavin Newsom, rappresenterebbe un passo importante nella protezione dei cittadini della California e dell’industria emergente dell’intelligenza artificiale dello stato da un uso dannoso.

Lunedì scorso, Elon Musk ha scioccato molti annunciando il suo sostegno al disegno di legge in un tweet. Inserito su X“Questa è una decisione difficile e sconvolgerà alcune persone, ma dopo aver considerato tutto, penso che la California dovrebbe probabilmente approvare la legge sulla sicurezza AI 1047”, ha scritto. “Da più di 20 anni sono un sostenitore della regolamentazione dell’intelligenza artificiale, proprio come regolamentiamo qualsiasi prodotto/tecnologia che rappresenti un potenziale rischio per il pubblico”.

Il post è arrivato giorni dopo aver parlato con Musk del disegno di legge del Senato 1047. A differenza di altri leader aziendali che spesso esitano, consultando i loro team di PR e avvocati prima di prendere una posizione sulla legislazione sulla sicurezza, Musk era diverso. Dopo che gli ho spiegato l’importanza del progetto di legge, ha chiesto che il suo testo fosse rivisto per garantirne l’integrità e l’assenza di potenziali abusi. Il giorno dopo uscì per sostenerlo. Questo rapido processo decisionale testimonia il sostegno di lunga data di Musk a favore di una regolamentazione responsabile dell’intelligenza artificiale.

Lo scorso inverno, il senatore Scott Wiener, l’ideatore del disegno di legge, ha contattato il fondo d’azione del Center for Artificial Intelligence Safety (CAIS) per suggerimenti tecnici e co-sponsorizzazione. In qualità di fondatore di CAIS, il mio impegno nei confronti delle tecnologie trasformative che influiscono sulla sicurezza pubblica è una pietra angolare della nostra missione. Per sostenere l’innovazione, dobbiamo anticipare le potenziali insidie, perché un grammo di prevenzione vale un chilo di cura. Riconoscendo la natura innovativa del disegno di legge del Senato 1047, siamo stati felici di aiutare e da allora abbiamo sostenuto la sua adozione.

READ  Dove trovare omaggi e sconti

Per saperne di più: ESCLUSIVO: un disegno di legge della California propone di regolamentare l’intelligenza artificiale a livello statale

La misura, rivolta ai modelli di intelligenza artificiale più avanzati, richiederà alle principali aziende di testare i rischi, implementare misure di salvaguardia, garantire capacità di arresto, proteggere gli informatori e gestire i rischi. Queste misure hanno lo scopo di prevenire attacchi informatici a infrastrutture critiche, bioingegneria virale o altre attività dannose che potrebbero causare distruzioni diffuse e vittime di massa.

Antropico Recentemente è stato avvisato I rischi dell’intelligenza artificiale potrebbero diventare evidenti entro “solo uno o tre anni”, il che contraddice i critici che respingono le preoccupazioni sulla sicurezza come mere fantasie. Naturalmente, se questi rischi sono davvero immaginari, gli sviluppatori non dovrebbero temere la responsabilità. Inoltre, gli sviluppatori si sono impegnati ad affrontare questi problemi, in linea con il recente ordine esecutivo del presidente Joe Biden, riaffermato al vertice AI di Seul del 2024.

L’applicazione della legge è semplice per natura, consentendo al Procuratore Generale della California di agire solo in casi estremi. Non ci sono requisiti di licenza per i nuovi modelli e non punisce gli errori onesti né criminalizza l’open source – la pratica di rendere il codice sorgente del software liberamente disponibile. Non è formulato da grandi aziende tecnologiche o da quelle focalizzate su scenari futuri lontani. Il disegno di legge mira a impedire ai laboratori di frontiera di trascurare la cautela critica e le tutele nella fretta di rilasciare i modelli più efficienti.


Come la maggior parte dei ricercatori sulla sicurezza dell’IA, sono in gran parte guidato dalla convinzione del suo enorme potenziale a beneficio della società e da una profonda preoccupazione nel preservare tale potenziale. Dato che la California è un leader globale nel campo dell’intelligenza artificiale, questa preoccupazione condivisa è il motivo per cui i politici statali e i ricercatori sulla sicurezza dell’intelligenza artificiale sono così entusiasti del disegno di legge 1047 del Senato, poiché la storia ci dice che un grave disastro, come il disastro nucleare di Three Mile Island il 28 marzo/marzo 1979, potrebbe riportare indietro di decenni un’industria nascente.

READ  Vincitori e perdenti del mercato settimanale delle criptovalute: HNT, JUP, NOT, BRETT

Le agenzie di regolamentazione hanno risposto alla parziale fusione nucleare riformando gli standard e i protocolli di sicurezza nucleare. Questi cambiamenti hanno aumentato i costi operativi e complicato il funzionamento degli impianti nucleari, poiché gli operatori hanno investito in nuovi sistemi di sicurezza e si sono conformati a rigorosi controlli. Le sfide normative hanno reso l’energia nucleare meno attraente, arrestandone l’espansione nei successivi 30 anni.

Il disastro di Three Mile Island ha aumentato la dipendenza dal carbone, dal petrolio e dal gas naturale. Si dice spesso che questa sia stata un’enorme opportunità mancata per passare a un’infrastruttura energetica globale più sostenibile ed efficiente. Anche se resta incerto se norme più severe avrebbero potuto prevenire un incidente, è chiaro che un singolo evento potrebbe avere un impatto profondo sulla percezione del pubblico, soffocando il potenziale a lungo termine di un intero settore.

Alcune persone vedono con sospetto qualsiasi azione del governo sull’industria, considerandola intrinsecamente dannosa per le imprese, l’innovazione e il vantaggio competitivo di uno stato o di un paese. La storia di Three Mile Island dimostra che questa prospettiva è miope, poiché le misure volte a ridurre le possibilità di disastro sono spesso nell’interesse a lungo termine delle industrie emergenti. Inoltre, non è l’unico avvertimento per l’industria dell’intelligenza artificiale.

Quando sono apparse per la prima volta le piattaforme di social media, sono state accolte con grande entusiasmo e ottimismo. Nel 2010, il Pew Research Center ha condotto un sondaggio sull’impatto delle piattaforme di social media sui consumatori. ricognizione Un recente studio statunitense ha rilevato che il 67% degli adulti americani che hanno utilizzato i social media ritiene che abbiano avuto un impatto prevalentemente positivo. Il futurista Brian Solis ha espresso questo spirito quando ha dichiarato: “I social media sono il nuovo modo di comunicare, il nuovo modo di costruire relazioni, il nuovo modo di costruire imprese e il nuovo modo di costruire un mondo migliore”.

Aveva ragione per tre quarti.

A causa delle preoccupazioni relative alle violazioni della privacy, alla disinformazione e agli impatti sulla salute mentale, la percezione pubblica dei social media è cambiata, con 64% degli americani Vederlo negativamente è comune. Scandali come quello di Cambridge Analytica hanno minato la fiducia, mentre notizie false e contenuti polarizzanti hanno evidenziato il ruolo dei social media nella divisione sociale. Studia Uno studio ha dimostrato che il 70% dei giovani è stato esposto al cyberbullismo e il 91% dei giovani di età compresa tra 16 e 24 anni ha riferito che i social media sono dannosi per la loro salute mentale. Un numero crescente di utenti e politici in tutto il mondo chiedono normative più severe e maggiore responsabilità da parte delle società di social media.

READ  Spiega il CTO di Ripple sull'appello della SEC, evidenziando la complessità del caso

Ciò non accade perché le società di social media sono particolarmente malvagie. Come altri settori emergenti, i primi tempi furono come il “selvaggio West”, in cui le aziende si affrettavano a dominare un mercato fiorente e la regolamentazione governativa era assente. dipendentecontenuti spesso dannosi Ho fioritoAdesso ne paghiamo tutti il ​​prezzo. Comprese le aziende – sempre più diffidate dai consumatori e nel mirino di regolatori, legislatori e tribunali.

L’ottimismo che circonda i social media non era fuori luogo. La tecnologia è stata in grado di abbattere le barriere geografiche, promuovere un senso di comunità globale, democratizzare l’informazione e facilitare movimenti sociali positivi. Come dice l’autore Eric Qualman ha avvertito“Non abbiamo scelta quando si tratta di utilizzare i social media, la domanda è quanto bene lo facciamo.”

Sprecare l’enorme potenziale dei social media e dell’energia nucleare è tragico, ma non è niente in confronto allo sprecare il potenziale dell’intelligenza artificiale. Una legislazione intelligente come la legge 1047 è lo strumento migliore a nostra disposizione per prevenire tutto ciò, tutelando al tempo stesso l’innovazione e la concorrenza.

La storia della regolamentazione tecnologica evidenzia la nostra capacità di lungimiranza e adattamento. Quando le ferrovie trasformarono i trasporti nel XIX secolo, i governi standardizzarono binari, segnali e protocolli di sicurezza. L’avvento dell’elettricità ha portato anche alla definizione di norme e standard che prevengono incendi e folgorazioni. La rivoluzione automobilistica ha reso necessario anche il codice della strada e misure di sicurezza come cinture di sicurezza e airbag. Nel settore dell’aviazione, agenzie come la Federal Aviation Administration hanno stabilito severi standard di sicurezza, rendendo l’aviazione la forma di trasporto più sicura.

La storia può solo offrirci lezioni. Ma sta a noi decidere se prestare ascolto a queste lezioni oppure no.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Torna in alto