O Safe and Secure Innovation for Frontier Artificial Intelligence Models Act, ou SB 1047, é um projeto de lei da Califórnia de 2024 destinado a "mitigar o risco de danos catastróficos de modelos de IA tão avançados que ainda não são conhecidos".[1] Especificamente, o projeto de lei se aplicaria a modelos que custam mais de US$ 100 milhões para serem treinados e foram treinados usando uma quantidade de poder computacional superior a 1026 operações inteiras ou de ponto flutuante.[2] O SB 1047 se aplicaria a todas as empresas de IA que fazem negócios na Califórnia—não importa a localização da empresa.[3] O projeto de lei cria proteções para denunciantes[4] e exige que os desenvolvedores realizem avaliações de risco de seus modelos antes do lançamento, sob a supervisão da Agência de Operações Governamentais da Califórnia. Ele também estabeleceria o CalCompute, um cluster público de computação em nuvem da Universidade da Califórnia para startups, pesquisadores e grupos comunitários.
Contexto
O rápido aumento nas capacidades dos sistemas de IA na década de 2020, incluindo o lançamento do ChatGPT em novembro de 2022, levou alguns pesquisadores e membros do público a expressarem preocupação com os riscos existenciais associados a sistemas de IA cada vez mais poderosos.[5][6] A plausibilidade dessa ameaça é amplamente debatida.[7] A regulamentação da IA também é às vezes defendida para evitar viés e violações de privacidade.[6] No entanto, foi criticada por possivelmente levar à captura regulatória por grandes empresas de IA como a OpenAI, em que a regulamentação avança os interesses de empresas maiores em detrimento da concorrência menor e do público em geral.[6]
Em maio de 2023, centenas de executivos de tecnologia e pesquisadores de IA[8] assinaram uma declaração sobre o risco de extinção da IA, que dizia "Mitigar o risco de extinção pela IA deve ser uma prioridade global ao lado de outros riscos em escala social, como pandemias e guerra nuclear." Ela recebeu assinaturas dos dois pesquisadores de IA mais citados,[9][10][11] Geoffrey Hinton e Yoshua Bengio, junto com figuras da indústria como o CEO da OpenAI Sam Altman, o CEO da Google DeepMind Demis Hassabis e o CEO da Anthropic Dario Amodei.[12][13] Muitos outros especialistas achavam que as preocupações existenciais eram exageradas e irreais, além de uma distração dos danos imediatos da IA, como a tomada de decisões automatizada discriminatória.[14] Famosamente, Sam Altman pediu fortemente regulamentação da IA ao Congresso na mesma época.[6][15] Várias empresas de tecnologia fizeram compromissos voluntários para realizar testes de segurança, por exemplo, no AI Safety Summit e no AI Seoul Summit.[16][17]
O Governador Newsom da Califórnia e o Presidente Biden emitiram ordens executivas sobre inteligência artificial em 2023.[18][19][20] O Senador Estadual Wiener disse que o SB 1047 se baseia fortemente na ordem executiva de Biden, e é motivado pela ausência de uma legislação federal unificada sobre segurança de IA.[21] A Califórnia já legislou anteriormente sobre questões tecnológicas, incluindo privacidade do consumidor e a neutralidade de rede, na ausência de ação pelo Congresso.[22][23]
História
O projeto de lei foi originalmente redigido por Dan Hendrycks, cofundador do Center for AI Safety, que anteriormente argumentou que as pressões evolutivas sobre a IA poderiam levar a "um caminho em direção a sermos substituídos como a espécie dominante na Terra."[24][25] O centro emitiu uma declaração em maio de 2023 co-assinada por Elon Musk e centenas de outros líderes empresariais afirmando que "Mitigar o risco de extinção pela IA deve ser uma prioridade global ao lado de outros riscos em escala social, como pandemias e guerra nuclear."[26]
O Senador Estadual Wiener propôs pela primeira vez uma legislação de IA para a Califórnia por meio de um projeto de intenção chamado SB 294, a Lei de Segurança em Inteligência Artificial, em setembro de 2023.[27][28][29] O SB 1047 foi introduzido por Wiener em 7 de fevereiro de 2024.
Em 21 de maio, o SB 1047 foi aprovado no Senado por 32-1.[30][31] O projeto de lei foi significativamente emendado por Wiener em 15 de agosto de 2024 em resposta ao aconselhamento da indústria.[32] As emendas incluíram a adição de esclarecimentos e a remoção da criação de uma "Divisão de Modelos de Fronteira" e da penalidade de perjúrio.[33][34]
Em 28 de agosto, o projeto foi aprovado na Assembleia Estadual por 48-16. Em seguida, devido às emendas, o projeto foi novamente votado pelo Senado, sendo aprovado por 30-9.[35][36]
Em 29 de setembro, o Governador Gavin Newsom vetou o projeto de lei. É considerado improvável que a legislatura derrube o veto do governador com um voto de dois terços de ambas as casas.[37]
Provisões
Antes do treinamento do modelo, os desenvolvedores dos modelos cobertos e seus derivados são obrigados a apresentar uma certificação, sujeita a auditoria, de mitigação de risco "razoável" de "danos críticos" do modelo coberto e seus derivados, incluindo modificações pós-treinamento. Salvaguardas para reduzir o risco incluem a capacidade de desligar o modelo,[4] que foi descrita de várias maneiras como um "botão de desligar"[38] e um "disjuntor".[39] As disposições de denúncia protegem os funcionários que relatam problemas de segurança e incidentes.[4]
O SB 1047 também criaria um cluster público de computação em nuvem chamado CalCompute, associado à Universidade da Califórnia, para apoiar startups, pesquisadores e grupos comunitários que carecem de grandes recursos de computação.[33]
Modelos cobertos
O SB 1047 cobre modelos de IA com treinamento computacional superior a 1026 operações inteiras ou de ponto flutuante e um custo superior a US$ 100 milhões.[2][40] Se um modelo coberto for ajustado usando mais de US$ 10 milhões, o modelo resultante também é coberto.[34]
Danos críticos
Danos críticos são definidos em relação a quatro categorias:[1][41]
O SB 1047 exigiria que os desenvolvedores, a partir de 1º de janeiro de 2026, contratassem anualmente um auditor terceirizado para realizar uma auditoria independente de conformidade com os requisitos do projeto de lei, conforme estabelecido.[33] A Agência de Operações Governamentais da Califórnia revisaria os resultados dos testes de segurança e incidentes, e emitiria orientações, padrões e melhores práticas.[33] O projeto de lei cria um Conselho de Modelos de Fronteira para supervisionar a aplicação do projeto pela Agência de Operações Governamentais. Ele é composto por 9 membros.[40]
Recepção
Debate
Os defensores do projeto descrevem suas disposições como simples e focadas de maneira restrita, com o Sen. Scott Weiner descrevendo-o como um "projeto de lei básico e de toque leve sobre segurança".[43] Isso foi contestado pelos críticos do projeto, que descrevem a linguagem do projeto como vaga e o criticam por consolidar poder nas maiores empresas de IA em detrimento das menores.[43] Os defensores responderam que o projeto se aplica apenas a modelos treinados com mais de 1026 FLOPS e com mais de US$ 100 milhões, ou ajustados com mais de US$ 10 milhões, e que o limite poderia ser aumentado, se necessário.[44]
A penalidade por perjúrio foi tema de debate e acabou sendo removida por meio de uma emenda. O escopo do requisito de "botão de desligar" também foi reduzido, após preocupações de desenvolvedores de código aberto. Houve também controvérsia sobre o uso do termo "garantia razoável", que foi substituído após a emenda por "cuidado razoável". Críticos argumentaram que o padrão de "cuidado razoável" impõe um fardo excessivo ao exigir confiança de que os modelos não poderiam ser usados para causar danos catastróficos, enquanto os defensores argumentaram que o padrão de "cuidado razoável" não implica certeza e é um padrão legal bem estabelecido que já se aplica aos desenvolvedores de IA sob a legislação existente.[44]
Apoio e oposição
Os apoiadores do projeto incluem os ganhadores do Prêmio Turing Yoshua Bengio[45] e Geoffrey Hinton,[46] Elon Musk,[47] Bill de Blasio,[48] Kevin Esvelt,[49] Dan Hendrycks,[50] Vitalik Buterin,[51] os denunciantes da OpenAI Daniel Kokotajlo[42] e William Saunders,[52] Lawrence Lessig,[53] Sneha Revanur,[54] Stuart Russell,[53] Jan Leike,[55] atores Mark Ruffalo, Sean Astin e Rosie Perez,[56] Scott Aaronson,[57] e Max Tegmark.[58] O Center for AI Safety, o Projeto de Segurança Econômica da Califórnia[59] e a Encode Justice[60] são patrocinadores. Yoshua Bengio escreve que o projeto é um grande passo em direção a medidas de teste e segurança para "sistemas de IA além de um certo nível de capacidade [que] podem representar riscos significativos para as democracias e a segurança pública."[61] Max Tegmark comparou o foco do projeto em responsabilizar as empresas pelos danos causados por seus modelos à exigência do FDA de testes clínicos antes de uma empresa poder lançar um medicamento no mercado. Ele também argumentou que a oposição ao projeto por algumas empresas é "tirada diretamente do manual do Big Tech."[58] O conselho editorial do Los Angeles Times também escreveu em apoio ao projeto.[62] O sindicato SAG-AFTRA e dois grupos de mulheres, a Organização Nacional para Mulheres e o Fund Her, enviaram cartas de apoio ao Governador Newsom.[63] Mais de 120 celebridades de Hollywood, incluindo Mark Hamill, Jane Fonda e J. J. Abrams, assinaram uma declaração em apoio ao projeto.[64]
Andrew Ng, Fei-Fei Li,[65] Ion Stoica, Jeremy Howard, o ganhador do Prêmio Turing Yann LeCun, junto com os congressistas dos EUA Nancy Pelosi, Zoe Lofgren, Anna Eshoo, Ro Khanna, Scott Peters, Tony Cárdenas, Ami Bera, Nanette Barragán e Lou Correa se manifestaram contra a legislação.[6][66][67] Andrew Ng argumenta especificamente que existem abordagens regulatórias mais direcionadas e eficazes, como direcionar a pornografia deepfake, marcar materiais gerados e investir em red teaming e outras medidas de segurança.[61] Pesquisadores da Universidade da Califórnia e do Caltech também escreveram cartas abertas contra o projeto.[66]
Indústria
O projeto de lei é contestado por associações comerciais da indústria, incluindo a California Chamber of Commerce, a Chamber of Progress,[a] a Computer & Communications Industry Association[b] e a TechNet.[c][2] Empresas como a Meta[71] e a OpenAI[72] são contra ou levantaram preocupações sobre o projeto, enquanto Google,[71] Microsoft e Anthropic[58] propuseram emendas substanciais.[3] Vários fundadores de startups e organizações de capital de risco são contra o projeto, por exemplo, Y Combinator,[73][74] Andreessen Horowitz,[75][76][77] Context Fund[78][79] e Alliance for the Future.[80]
Após o projeto ser emendado, o CEO da Anthropic Dario Amodei escreveu que "o novo SB 1047 está substancialmente melhorado, a ponto de acreditarmos que seus benefícios provavelmente superam seus custos. No entanto, não temos certeza disso, e ainda há alguns aspectos do projeto que nos parecem preocupantes ou ambíguos."[81] Amodei também comentou: "Havia algumas empresas falando sobre mudar suas operações para fora da Califórnia. Na verdade, o projeto se aplica a fazer negócios na Califórnia ou implantar modelos na Califórnia... Qualquer coisa sobre 'Ah, estamos mudando nossa sede para fora da Califórnia...' Isso é apenas teatro. Isso é apenas uma alavanca de negociação. Não tem relação com o conteúdo real do projeto."[82] O CEO da xAI Elon Musk escreveu: "Acho que a Califórnia provavelmente deveria aprovar o projeto de lei de segurança de IA SB 1047. Por mais de 20 anos, tenho sido um defensor da regulamentação de IA, assim como regulamentamos qualquer produto/tecnologia que seja um risco potencial para o público."[83]
Em 9 de setembro de 2024, pelo menos 113 funcionários atuais e ex-funcionários de empresas de IA, como OpenAI, Google DeepMind, Anthropic, Meta e xAI, assinaram uma carta ao Governador Newsom em apoio ao SB 1047.[84][85]
Desenvolvedores de código aberto
Críticos expressaram preocupações sobre a responsabilidade sobre software de código aberto imposta pelo projeto, se usarem ou melhorarem modelos existentes disponíveis gratuitamente. Yann LeCun, o Chief AI Officer da Meta, sugeriu que o projeto mataria modelos de IA de código aberto.[61] Atualmente (em julho de 2024), existem preocupações na comunidade de código aberto de que, devido à ameaça de responsabilidade legal, empresas como a Meta podem optar por não disponibilizar modelos (por exemplo, Llama) gratuitamente.[86][87] A AI Alliance escreveu em oposição ao projeto, entre outras organizações de código aberto.[66] Em contraste, o cofundador do Creative Commons Lawrence Lessig escreveu que o SB 1047 tornaria os modelos de IA de código aberto mais seguros e mais populares entre os desenvolvedores, já que tanto o dano quanto a responsabilidade por esse dano seriam menos prováveis.[39]
Pesquisas de opinião pública
O Artificial Intelligence Policy Institute, um think tank de IA pró-regulação,[88] realizou três pesquisas com entrevistados da Califór
nia sobre se apoiavam ou se opunham ao SB 1047.
|
Apoio |
Oposição |
Não tenho certeza |
Margem de erro
|
9 de julho de 2024[89][90] |
59% |
20% |
22% |
±5,2%
|
4–5 de agosto de 2024[91][92] |
65% |
25% |
10% |
±4,9%
|
25–26 de agosto de 2024[93][94]
|
70%
|
13%
|
17%
|
±4,2%
|
Uma pesquisa YouGov encomendada pelo Economic Security Project descobriu que 78% dos eleitores registrados nos Estados Unidos apoiavam o SB 1047 e 80% achavam que o Governador Newsom deveria assinar o projeto.[95]
Uma pesquisa do David Binder Research encomendada pelo Center for AI Safety, um grupo focado na mitigação de risco em escala social e patrocinador do projeto, descobriu que 77% dos californianos apoiam uma proposta para exigir que empresas testem modelos de IA quanto a riscos de segurança, e 86% consideram importante que a Califórnia desenvolva regulamentações de segurança de IA.[96][97][98][99]
Veto do Governador ao SB 1047
O governador Gavin Newsom vetou o SB 1047 em 29 de setembro de 2024, citando preocupações sobre o quadro regulatório do projeto, que visa apenas modelos de IA de grande escala com base em seu tamanho computacional, sem levar em consideração se os modelos são implantados em ambientes de alto risco.[100][101] Newsom enfatizou que essa abordagem poderia criar uma falsa sensação de segurança, negligenciando modelos menores que poderiam apresentar riscos igualmente significativos.[100][102] Ele reconheceu a necessidade de protocolos de segurança de IA[100][103] mas destacou a importância da adaptabilidade na regulamentação à medida que a tecnologia de IA continua a evoluir rapidamente.[100][104]
O governador Newsom também se comprometeu a trabalhar com especialistas em tecnologia, parceiros federais e instituições acadêmicas, incluindo o Instituto de IA Centrada no Humano (HAI) da Universidade de Stanford, liderado pela Dra. Fei-Fei Li. Ele anunciou planos de colaborar com essas entidades para avançar no desenvolvimento responsável da IA, com o objetivo de proteger o público enquanto promove a inovação.[100][105]
Ver também
Notas
Referências
- ↑ a b Bauer-Kahan, Rebecca. «ASSEMBLY COMMITTEE ON PRIVACY AND CONSUMER PROTECTION» (PDF). Assembleia da Califórnia. Estado da Califórnia. Consultado em 1 de agosto de 2024
- ↑ a b c Daniels, Owen J. (17 de junho de 2024). «Projeto de IA da Califórnia se torna um ponto crítico para defensores da segurança e desenvolvedores». Bulletin of the Atomic Scientists
- ↑ a b Rana, Preetika (7 de agosto de 2024). «Empresas de IA lutam para parar as regras de segurança da Califórnia». The Wall Street Journal. Consultado em 8 de agosto de 2024
- ↑ a b c Thibodeau, Patrick (6 de junho de 2024). «Riscos catastróficos da IA destacam a necessidade de leis de proteção a denunciantes». TechTarget. Consultado em 6 de agosto de 2024
- ↑ Henshall, Will (7 de setembro de 2023). «Yoshua Bengio». TIME
- ↑ a b c d e Goldman, Sharon. «É "Sharks vs. Jets" da IA—bem-vindo à luta pelo projeto de lei de segurança de IA da Califórnia». Fortune (em inglês). Consultado em 29 de julho de 2024
- ↑ De Vynck, Gerrit (20 de maio de 2023). «O debate sobre se a IA nos destruirá está dividindo o Vale do Silício». The Washington Post
- ↑ Gregg, Aaron; Lima-Strong, Cristiano; Vynck, Gerrit De (31 de maio de 2023). «A IA representa 'risco de extinção' comparável às armas nucleares, dizem líderes de tecnologia». Washington Post (em inglês). ISSN 0190-8286. Consultado em 3 de julho de 2024
- ↑ Hinton, Geoffrey (17 de abril de 2024). «Yoshua Bengio». TIME. Consultado em 3 de setembro de 2024
- ↑ «Ranking Mundial de Citações de Cientistas 2024». AD Scientific Index. Consultado em 3 de setembro de 2024
- ↑ «Perfis». Google Scholar. Consultado em 2 de setembro de 2024
- ↑ Abdul, Geneva (30 de maio de 2023). «Risco de extinção pela IA deve ser prioridade global, dizem especialistas». The Guardian (em inglês). ISSN 0261-3077. Consultado em 30 de agosto de 2024
- ↑ «Declaração sobre o Risco de IA | CAIS». www.safe.ai (em inglês). Consultado em 30 de agosto de 2024
- ↑ «A inteligência artificial pode levar à extinção, alertam especialistas». BBC News (em inglês). 30 de maio de 2023. Consultado em 30 de agosto de 2024
- ↑ Zorthian, Julia (16 de maio de 2023). «CEO da OpenAI, Sam Altman, concorda que a IA deve ser regulamentada». TIME (em inglês). Consultado em 30 de agosto de 2024
- ↑ Milmo, Dan (3 de novembro de 2023). «Empresas de tecnologia permitirão verificação de ferramentas de IA, enquanto Musk alerta que todos os trabalhos humanos estão ameaçados». The Guardian. Consultado em 12 de agosto de 2024
- ↑ Browne, Ryan (21 de maio de 2024). «Gigantes da tecnologia se comprometem com compromissos de segurança de IA — incluindo um 'botão de desligar' se não conseguirem mitigar riscos». CNBC. Consultado em 12 de agosto de 2024
- ↑ «Governador Newsom Assina Ordem Executiva para Preparar a Califórnia para o Progresso da Inteligência Artificial». Governador Gavin Newsom. 6 de setembro de 2023
- ↑ «Presidente Biden Emite Ordem Executiva sobre Inteligência Artificial Segura, Confiável e Segura». Casa Branca. 30 de outubro de 2023
- ↑ Riquelmy, Alan (8 de fevereiro de 2024). «Legislador da Califórnia busca estabelecer salvaguardas para o desenvolvimento de IA». Courthouse News Service. Consultado em 4 de agosto de 2024
- ↑ Myrow, Rachael (16 de fevereiro de 2024). «Legisladores da Califórnia Assumem a Regulação da IA com uma Série de Projetos de Lei». KQED
- ↑ Piper, Kelsey (29 de agosto de 2024). «Falamos com o arquiteto por trás do notório projeto de lei de segurança de IA». Vox. Consultado em 4 de setembro de 2024
- ↑ Lovely, Garrison (15 de agosto de 2024). «Projeto de Lei de Segurança de IA da Califórnia é um Momento Revelador para a Indústria». The Nation. Consultado em 4 de setembro de 2024
- ↑ Edwards, Benj (29 de julho de 2024). «De ficção científica à lei estadual: o plano da Califórnia para prevenir a catástrofe da IA». Ars Technica (em inglês). Consultado em 30 de agosto de 2024
- ↑ Hendrycks, Dan (31 de maio de 2023). «O Argumento Darwiniano para Preocupar-se com a IA». Time (em inglês). Consultado em 1 de outubro de 2024
- ↑ «Líderes proeminentes de IA alertam sobre 'risco de extinção' da nova tecnologia». Los Angeles Times (em inglês). 31 de maio de 2023. Consultado em 30 de agosto de 2024
- ↑ Perrigo, Billy (13 de setembro de 2023). «Projeto de Lei da Califórnia Propõe Regular a IA a Nível Estadual». TIME. Consultado em 12 de agosto de 2024
- ↑ David, Emilia (14 de setembro de 2023). «Legislador da Califórnia propõe regulamentação de modelos de IA». The Verge. Consultado em 12 de agosto de 2024
- ↑ «Senador Wiener Introduz Estrutura de Segurança em Legislação sobre Inteligência Artificial». Senador Scott Wiener. 13 de setembro de 2023. Consultado em 12 de agosto de 2024
- ↑ Hendrycks, Dan (27 de agosto de 2024). «Lei de IA da Califórnia Protegeria Mais do que Apenas Pessoas». TIME (em inglês). Consultado em 30 de agosto de 2024
- ↑ «California SB1047 | 2023-2024 | Regular Session». LegiScan (em inglês). Consultado em 30 de agosto de 2024
- ↑ Zeff, Maxwell (15 de agosto de 2024). «Califórnia enfraquece projeto de lei para prevenir desastres de IA antes da votação final, aceitando conselhos da Anthropic». TechCrunch. Consultado em 23 de agosto de 2024
- ↑ a b c d Calvin, Nathan (15 de agosto de 2024). «SB 1047 Emendas do Autor de 15 de agosto: Visão Geral». safesecureai.org (em inglês). Consultado em 16 de agosto de 2024
- ↑ a b «Projeto de Lei Pioneiro sobre Inteligência Artificial do Senador Wiener Avança para o Plenário da Assembleia com Emendas Respondendo ao Envolvimento da Indústria». Senador Scott Wiener (em inglês). 16 de agosto de 2024. Consultado em 17 de agosto de 2024
- ↑ escritor, Troy Wolverton | Equipe do Examiner (29 de agosto de 2024). «Legislatura aprova controverso projeto de segurança de IA de Wiener». San Francisco Examiner (em inglês). Consultado em 30 de agosto de 2024
- ↑ «Votações sobre o Projeto - SB-1047 Safe and Secure Innovation for Frontier Artificial Intelligence Models Act». leginfo.legislature.ca.gov. Consultado em 4 de setembro de 2024
- ↑ Lee, Wendy (29 de setembro de 2024). «Governador Gavin Newsom veta projeto de lei de segurança de IA, contestado pelo Vale do Silício». Los Angeles Times. Consultado em 29 de setembro de 2024
- ↑ Times, Financial (7 de junho de 2024). «Reação das grandes empresas de IA ao projeto de lei da Califórnia sobre o "botão de desligar" da IA». Ars Technica (em inglês). Consultado em 30 de agosto de 2024
- ↑ a b Lessig, Lawrence (30 de agosto de 2024). «Big Tech Está Muito Assustada com um Projeto de Lei de Segurança de IA Muito Modesto». The Nation. Consultado em 3 de setembro de 2024
- ↑ a b «Análise do Projeto de Lei da Assembleia 07/01/24». Informações Legislativas da Califórnia
- ↑ «Análise da Revisão 7/3 do SB 1047». Context Fund
- ↑ a b Johnson, Khari (12 de agosto de 2024). «Por que o Vale do Silício está se esforçando tanto para matar este projeto de lei de IA na Califórnia». CalMatters. Consultado em 12 de agosto de 2024
- ↑ a b Goldman, Sharon. «É "Sharks vs. Jets" da IA—bem-vindo à luta pelo projeto de lei de segurança de IA da Califórnia». Fortune (em inglês). Consultado em 29 de julho de 2024
- ↑ a b «Deturpações do projeto de lei de segurança de IA da Califórnia». Brookings (em inglês). Consultado em 2 de outubro de 2024
- ↑ Bengio, Yoshua. «Yoshua Bengio: O projeto de lei de segurança de IA da Califórnia protegerá consumidores e inovação». Fortune (em inglês). Consultado em 17 de agosto de 2024
- ↑ Kokalitcheva, Kia (26 de junho de 2024). «A pressão da Califórnia sobre segurança de IA». Axios
- ↑ Coldewey, Devin (26 de agosto de 2024). «Elon Musk inesperadamente oferece apoio ao projeto de IA da Califórnia». TechCrunch (em inglês). Consultado em 27 de agosto de 2024
- ↑ de Blasio, Bill (24 de agosto de 2024). «Postagem no X». X
- ↑ Riquelmy, Alan (14 de agosto de 2024). «Projeto de lei de regulação de IA da Califórnia segue para audiência decisiva». Courthouse News Service. Consultado em 15 de agosto de 2024
- ↑ Metz, Cade (14 de agosto de 2024). «Projeto de IA da Califórnia Causa Alarme no Vale do Silício». New York Times. Consultado em 22 de agosto de 2024
- ↑ Jamal, Nynu V. (27 de agosto de 2024). «O audacioso projeto de lei de segurança de IA da Califórnia: Buterin, Musk Endossam, OpenAI Cautelosa». Coin Edition (em inglês). Consultado em 27 de agosto de 2024
- ↑ Zeff, Maxwell (23 de agosto de 2024). «'Decepcionados, mas não surpresos': Ex-funcionários falam sobre a oposição da OpenAI ao SB 1047». TechCrunch (em inglês). Consultado em 23 de agosto de 2024
- ↑ a b Pillay, Tharin (7 de agosto de 2024). «Especialistas renomados escrevem em apoio ao projeto de lei histórico de segurança de IA da Califórnia». TIME. Consultado em 8 de agosto de 2024
- ↑ «Comitê Permanente de Privacidade e Proteção ao Consumidor da Assembleia». CalMatters. Consultado em 8 de agosto de 2024
- ↑ «Dezenas de trabalhadores de IA desafiam seus empregadores, assinam carta em apoio ao projeto de IA de Wiener». The San Francisco Standard (em inglês). 9 de setembro de 2024. Consultado em 10 de setembro de 2024
- ↑ Korte, Lara; Gardiner, Dustin (17 de setembro de 2024). «Aja naturalmente». Politico
- ↑ «Call to Lead». Call to Lead (em inglês). Consultado em 10 de setembro de 2024
- ↑ a b c Samuel, Sigal (5 de agosto de 2024). «É praticamente impossível administrar uma grande empresa de IA eticamente». Vox. Consultado em 6 de agosto de 2024
- ↑ DiFeliciantonio, Chase (28 de junho de 2024). «Empresas de IA pediram regulamentação. Agora que está chegando, algumas estão furiosas». San Francisco Chronicle
- ↑ Korte, Lara (12 de fevereiro de 2024). «Uma batalha em desenvolvimento sobre IA». Politico
- ↑ a b c Edwards, Benj (29 de julho de 2024). «De ficção científica à lei estadual: o plano da Califórnia para prevenir a catástrofe da IA». Ars Technica (em inglês). Consultado em 30 de julho de 2024
- ↑ The Times Editorial Board (22 de agosto de 2024). «Editorial: Por que a Califórnia deveria liderar na regulamentação da IA». Los Angeles Times. Consultado em 23 de agosto de 2024
- ↑ Lovely, Garrison (12 de setembro de 2024). «Sindicato de atores e grupos de mulheres pressionam Gavin Newsom a assinar projeto de lei de segurança de IA». The Verge. Consultado em 12 de setembro de 2024
- ↑ Lee, Wendy (24 de setembro de 2024). «Mark Hamill, Jane Fonda, J.J. Abrams instam Gov. Newsom a assinar projeto de lei de segurança de IA». LA Times. Consultado em 24 de setembro de 2024
- ↑ Li, Fei-Fei. «'A Madrinha da IA' diz que o bem-intencionado projeto de lei de IA da Califórnia prejudicará o ecossistema dos EUA». Fortune. Consultado em 8 de agosto de 2024
- ↑ a b c «Análise de Impactos do SB 1047». Context Fund
- ↑ «Comitê Judiciário da Assembleia 2024-07-02». Assembleia Legislativa da Califórnia
- ↑ «Parceiros Corporativos». Chamber of Progress
- ↑ «Membros». Computer & Communications Industry Association
- ↑ «Membros». TechNet
- ↑ a b Korte, Lara (26 de junho de 2024). «Big Tech e os pequenos». Politico
- ↑ Zeff, Maxwell (21 de agosto de 2024). «A oposição da OpenAI ao projeto de lei de IA da Califórnia 'não faz sentido', diz senador estadual». TechCrunch. Consultado em 23 de agosto de 2024
- ↑ «Pequena Tecnologia Mostra sua Força em Sacramento». Politico
- ↑ «Lei proposta na Califórnia busca proteger o público de catástrofes de IA». The Mercury News. 25 de julho de 2024
- ↑ «Projeto de Lei do Senado da Califórnia 1047 - O que você precisa saber». Andreessen Horowitz
- ↑ «Projeto de Lei de IA da Califórnia Prejudica as Conquistas do Setor». Financial Times
- ↑ «Projeto de Lei do Senado 1047 esmagará a inovação de IA na Califórnia». Orange County Register. 10 de julho de 2024
- ↑ «Startups de IA Pressionam para Limitar ou Derrubar Projeto de Lei de Segurança Pública da Califórnia». Bloomberg Law
- ↑ «The Batch: Issue 257». Deeplearning.ai. 10 de julho de 2024
- ↑ «A Névoa da Guerra de Segurança de IA». Politico. 2 de maio de 2024
- ↑ «Anthropic diz que benefícios do projeto de lei de IA da Califórnia provavelmente superam os custos». Reuters. 23 de agosto de 2024. Consultado em 23 de agosto de 2024
- ↑ Smith, Noah (29 de agosto de 2024). «CEO da Anthropic, Dario Amodei, sobre o Moat de IA, Risco e SB 1047». "ECON 102" com Noah Smith e Erik Torenberg (Podcast). Em cena em 55:13. Consultado em 3 de setembro de 2024
- ↑ Coldewey, Devin (26 de agosto de 2024). «Elon Musk inesperadamente oferece apoio ao projeto de IA da Califórnia». TechCrunch. Consultado em 27 de agosto de 2024
- ↑ «Dezenas de trabalhadores de IA desafiam seus empregadores, assinam carta em apoio ao projeto de IA de Wiener». The San Francisco Standard (em inglês). 9 de setembro de 2024. Consultado em 10 de setembro de 2024
- ↑ «Call to Lead». Call to Lead (em inglês). Consultado em 10 de setembro de 2024
- ↑ Piper, Kelsey (19 de julho de 2024). «Dentro da luta pelo novo projeto de lei de IA da Califórnia». Vox (em inglês). Consultado em 29 de julho de 2024
- ↑ Piper, Kelsey (14 de junho de 2024). «O projeto de lei de IA que deixou o Big Tech em pânico». Vox (em inglês). Consultado em 29 de julho de 2024
- ↑ Robertson, Derek (6 de maio de 2024). «Pesquisa exclusiva: Americanos preferem regulamentação de dados de IA». Politico. Consultado em 18 de agosto de 2024
- ↑ Bordelon, Brendan. «O que Kamala Harris significa para a tecnologia». POLITICO Pro (inscrição necessária)
- ↑ «Nova Pesquisa: Eleitores da Califórnia, Incluindo Trabalhadores de Tecnologia, Apoiam Fortemente Projeto de Lei de Regulação de IA SB1047». Artificial Intelligence Policy Institute. 22 de julho de 2024
- ↑ Sullivan, Mark (8 de agosto de 2024). «Chatbot Grok de Elon Musk divulgou desinformação eleitoral». Fast Company. Consultado em 13 de agosto de 2024
- ↑ «Pesquisa: Californianos Apoiam Versão Forte do SB1047, Discordam das Alterações Propostas pela Anthropic». Artificial Intelligence Policy Institute. 7 de agosto de 2024. Consultado em 13 de agosto de 2024
- ↑ Gardiner, Dustin (28 de agosto de 2024). «O papel reduzido de substituto de Newsom». Politico
- ↑ «Pesquisa: 7 em 10 Californianos Apoiam SB1047, Culparão o Governador Newsom por Catástrofe Habilitada por IA se Ele Vetar». Artificial Intelligence Policy Institute. 16 de agosto de 2024. Consultado em 28 de agosto de 2024
- ↑ «Nova Pesquisa Nacional YouGov Mostra 80% de Apoio ao SB 1047 e à Segurança de IA». Economic Security Project Action (em inglês). Consultado em 19 de setembro de 2024
- ↑ «Pesquisa com Prováveis Eleitores da Califórnia: Resumo da Pesquisa de Opinião Pública». David Binder Research
- ↑ Lee, Wendy (19 de junho de 2024). «Legisladores da Califórnia estão tentando regulamentar a IA antes que seja tarde demais. Veja como». Los Angeles Times
- ↑ Piper, Kelsey (19 de julho de 2024). «Dentro da luta pelo novo projeto de lei de IA da Califórnia». Vox (em inglês). Consultado em 22 de julho de 2024
- ↑ «Projeto de Lei Histórico sobre IA do Senador Wiener Aprovado pela Assembleia». Gabinete do Senador Wiener. 29 de agosto de 2024
- ↑ a b c d e «Carta de Veto ao SB 1047 de Gavin Newsom» (PDF). Gabinete do Governador
- ↑ "Adaptabilidade é crítica enquanto corremos para regulamentar uma tecnologia que ainda está em sua infância. Isso
exigirá um equilíbrio delicado. Embora bem-intencionado, o SB 1047 não leva
em consideração se um sistema de IA é implantado em ambientes de alto risco,
envolve tomada de decisão crítica ou o uso de dados sensíveis. Em vez disso, o projeto
aplica padrões rígidos até mesmo às funções mais básicas - desde que um
grande sistema o implante. Não acredito que essa seja a melhor abordagem para proteger
o público contra as ameaças reais apresentadas pela tecnologia"
- ↑ "Ao focar apenas nos modelos mais caros e de grande escala, o SB 1047
estabelece um quadro regulatório que poderia dar ao público uma falsa sensação de
segurança sobre o controle dessa tecnologia em rápida evolução. Modelos menores e especializados
podem surgir como igualmente ou até mais perigosos do que os modelos
alvo do SB 1047 - ao potencial custo de restringir a própria inovação
que impulsiona o avanço em favor do bem público."
- ↑ "Deixe-me ser claro - concordo com o autor - não podemos nos dar ao luxo de esperar por uma grande
catástrofe para agir para proteger o público. A Califórnia não
abandonará sua responsabilidade. Protocolos de segurança devem ser adotados. Salvaguardas proativas
devem ser implementadas e as consequências severas para os maus atores
devem ser claras e aplicáveis."
- ↑ "Adaptabilidade é crítica enquanto corremos para regulamentar uma tecnologia que ainda está em sua infância. Isso
exigirá um equilíbrio delicado. Embora bem-intencionado, o SB 1047 não leva
em consideração se um sistema de IA é implantado em ambientes de alto risco,
envolve tomada de decisão crítica ou o uso de dados sensíveis. Em vez disso, o projeto
aplica padrões rígidos até mesmo às funções mais básicas - desde que um
grande sistema o implante. Não acredito que essa seja a melhor abordagem para proteger
o público contra as ameaças reais apresentadas pela tecnologia"
- ↑ Newsom, Gavin (29 de setembro de 2024). «Governador Newsom anuncia novas iniciativas para avançar com IA segura e responsável, proteger os californianos». Governador Gavin Newsom (em inglês). Consultado em 29 de setembro de 2024
Ligações externas