Lei de Inovação Segura e Protegida para Modelos de Inteligência Artificial de Fronteira

O Safe and Secure Innovation for Frontier Artificial Intelligence Models Act, ou SB 1047, é um projeto de lei da Califórnia de 2024 destinado a "mitigar o risco de danos catastróficos de modelos de IA tão avançados que ainda não são conhecidos".[1] Especificamente, o projeto de lei se aplicaria a modelos que custam mais de US$ 100 milhões para serem treinados e foram treinados usando uma quantidade de poder computacional superior a 1026 operações inteiras ou de ponto flutuante.[2] O SB 1047 se aplicaria a todas as empresas de IA que fazem negócios na Califórnia—não importa a localização da empresa.[3] O projeto de lei cria proteções para denunciantes[4] e exige que os desenvolvedores realizem avaliações de risco de seus modelos antes do lançamento, sob a supervisão da Agência de Operações Governamentais da Califórnia. Ele também estabeleceria o CalCompute, um cluster público de computação em nuvem da Universidade da Califórnia para startups, pesquisadores e grupos comunitários.

Contexto

O rápido aumento nas capacidades dos sistemas de IA na década de 2020, incluindo o lançamento do ChatGPT em novembro de 2022, levou alguns pesquisadores e membros do público a expressarem preocupação com os riscos existenciais associados a sistemas de IA cada vez mais poderosos.[5][6] A plausibilidade dessa ameaça é amplamente debatida.[7] A regulamentação da IA também é às vezes defendida para evitar viés e violações de privacidade.[6] No entanto, foi criticada por possivelmente levar à captura regulatória por grandes empresas de IA como a OpenAI, em que a regulamentação avança os interesses de empresas maiores em detrimento da concorrência menor e do público em geral.[6]

Em maio de 2023, centenas de executivos de tecnologia e pesquisadores de IA[8] assinaram uma declaração sobre o risco de extinção da IA, que dizia "Mitigar o risco de extinção pela IA deve ser uma prioridade global ao lado de outros riscos em escala social, como pandemias e guerra nuclear." Ela recebeu assinaturas dos dois pesquisadores de IA mais citados,[9][10][11] Geoffrey Hinton e Yoshua Bengio, junto com figuras da indústria como o CEO da OpenAI Sam Altman, o CEO da Google DeepMind Demis Hassabis e o CEO da Anthropic Dario Amodei.[12][13] Muitos outros especialistas achavam que as preocupações existenciais eram exageradas e irreais, além de uma distração dos danos imediatos da IA, como a tomada de decisões automatizada discriminatória.[14] Famosamente, Sam Altman pediu fortemente regulamentação da IA ao Congresso na mesma época.[6][15] Várias empresas de tecnologia fizeram compromissos voluntários para realizar testes de segurança, por exemplo, no AI Safety Summit e no AI Seoul Summit.[16][17]

O Governador Newsom da Califórnia e o Presidente Biden emitiram ordens executivas sobre inteligência artificial em 2023.[18][19][20] O Senador Estadual Wiener disse que o SB 1047 se baseia fortemente na ordem executiva de Biden, e é motivado pela ausência de uma legislação federal unificada sobre segurança de IA.[21] A Califórnia já legislou anteriormente sobre questões tecnológicas, incluindo privacidade do consumidor e a neutralidade de rede, na ausência de ação pelo Congresso.[22][23]

História

O projeto de lei foi originalmente redigido por Dan Hendrycks, cofundador do Center for AI Safety, que anteriormente argumentou que as pressões evolutivas sobre a IA poderiam levar a "um caminho em direção a sermos substituídos como a espécie dominante na Terra."[24][25] O centro emitiu uma declaração em maio de 2023 co-assinada por Elon Musk e centenas de outros líderes empresariais afirmando que "Mitigar o risco de extinção pela IA deve ser uma prioridade global ao lado de outros riscos em escala social, como pandemias e guerra nuclear."[26]

O Senador Estadual Wiener propôs pela primeira vez uma legislação de IA para a Califórnia por meio de um projeto de intenção chamado SB 294, a Lei de Segurança em Inteligência Artificial, em setembro de 2023.[27][28][29] O SB 1047 foi introduzido por Wiener em 7 de fevereiro de 2024.

Em 21 de maio, o SB 1047 foi aprovado no Senado por 32-1.[30][31] O projeto de lei foi significativamente emendado por Wiener em 15 de agosto de 2024 em resposta ao aconselhamento da indústria.[32] As emendas incluíram a adição de esclarecimentos e a remoção da criação de uma "Divisão de Modelos de Fronteira" e da penalidade de perjúrio.[33][34]

Em 28 de agosto, o projeto foi aprovado na Assembleia Estadual por 48-16. Em seguida, devido às emendas, o projeto foi novamente votado pelo Senado, sendo aprovado por 30-9.[35][36]

Em 29 de setembro, o Governador Gavin Newsom vetou o projeto de lei. É considerado improvável que a legislatura derrube o veto do governador com um voto de dois terços de ambas as casas.[37]

Provisões

Antes do treinamento do modelo, os desenvolvedores dos modelos cobertos e seus derivados são obrigados a apresentar uma certificação, sujeita a auditoria, de mitigação de risco "razoável" de "danos críticos" do modelo coberto e seus derivados, incluindo modificações pós-treinamento. Salvaguardas para reduzir o risco incluem a capacidade de desligar o modelo,[4] que foi descrita de várias maneiras como um "botão de desligar"[38] e um "disjuntor".[39] As disposições de denúncia protegem os funcionários que relatam problemas de segurança e incidentes.[4]

O SB 1047 também criaria um cluster público de computação em nuvem chamado CalCompute, associado à Universidade da Califórnia, para apoiar startups, pesquisadores e grupos comunitários que carecem de grandes recursos de computação.[33]

Modelos cobertos

O SB 1047 cobre modelos de IA com treinamento computacional superior a 1026 operações inteiras ou de ponto flutuante e um custo superior a US$ 100 milhões.[2][40] Se um modelo coberto for ajustado usando mais de US$ 10 milhões, o modelo resultante também é coberto.[34]

Danos críticos

Danos críticos são definidos em relação a quatro categorias:[1][41]

Conformidade e supervisão

O SB 1047 exigiria que os desenvolvedores, a partir de 1º de janeiro de 2026, contratassem anualmente um auditor terceirizado para realizar uma auditoria independente de conformidade com os requisitos do projeto de lei, conforme estabelecido.[33] A Agência de Operações Governamentais da Califórnia revisaria os resultados dos testes de segurança e incidentes, e emitiria orientações, padrões e melhores práticas.[33] O projeto de lei cria um Conselho de Modelos de Fronteira para supervisionar a aplicação do projeto pela Agência de Operações Governamentais. Ele é composto por 9 membros.[40]

Recepção

Debate

Os defensores do projeto descrevem suas disposições como simples e focadas de maneira restrita, com o Sen. Scott Weiner descrevendo-o como um "projeto de lei básico e de toque leve sobre segurança".[43] Isso foi contestado pelos críticos do projeto, que descrevem a linguagem do projeto como vaga e o criticam por consolidar poder nas maiores empresas de IA em detrimento das menores.[43] Os defensores responderam que o projeto se aplica apenas a modelos treinados com mais de 1026 FLOPS e com mais de US$ 100 milhões, ou ajustados com mais de US$ 10 milhões, e que o limite poderia ser aumentado, se necessário.[44]

A penalidade por perjúrio foi tema de debate e acabou sendo removida por meio de uma emenda. O escopo do requisito de "botão de desligar" também foi reduzido, após preocupações de desenvolvedores de código aberto. Houve também controvérsia sobre o uso do termo "garantia razoável", que foi substituído após a emenda por "cuidado razoável". Críticos argumentaram que o padrão de "cuidado razoável" impõe um fardo excessivo ao exigir confiança de que os modelos não poderiam ser usados para causar danos catastróficos, enquanto os defensores argumentaram que o padrão de "cuidado razoável" não implica certeza e é um padrão legal bem estabelecido que já se aplica aos desenvolvedores de IA sob a legislação existente.[44]

Apoio e oposição

Os apoiadores do projeto incluem os ganhadores do Prêmio Turing Yoshua Bengio[45] e Geoffrey Hinton,[46] Elon Musk,[47] Bill de Blasio,[48] Kevin Esvelt,[49] Dan Hendrycks,[50] Vitalik Buterin,[51] os denunciantes da OpenAI Daniel Kokotajlo[42] e William Saunders,[52] Lawrence Lessig,[53] Sneha Revanur,[54] Stuart Russell,[53] Jan Leike,[55] atores Mark Ruffalo, Sean Astin e Rosie Perez,[56] Scott Aaronson,[57] e Max Tegmark.[58] O Center for AI Safety, o Projeto de Segurança Econômica da Califórnia[59] e a Encode Justice[60] são patrocinadores. Yoshua Bengio escreve que o projeto é um grande passo em direção a medidas de teste e segurança para "sistemas de IA além de um certo nível de capacidade [que] podem representar riscos significativos para as democracias e a segurança pública."[61] Max Tegmark comparou o foco do projeto em responsabilizar as empresas pelos danos causados por seus modelos à exigência do FDA de testes clínicos antes de uma empresa poder lançar um medicamento no mercado. Ele também argumentou que a oposição ao projeto por algumas empresas é "tirada diretamente do manual do Big Tech."[58] O conselho editorial do Los Angeles Times também escreveu em apoio ao projeto.[62] O sindicato SAG-AFTRA e dois grupos de mulheres, a Organização Nacional para Mulheres e o Fund Her, enviaram cartas de apoio ao Governador Newsom.[63] Mais de 120 celebridades de Hollywood, incluindo Mark Hamill, Jane Fonda e J. J. Abrams, assinaram uma declaração em apoio ao projeto.[64]

Andrew Ng, Fei-Fei Li,[65] Ion Stoica, Jeremy Howard, o ganhador do Prêmio Turing Yann LeCun, junto com os congressistas dos EUA Nancy Pelosi, Zoe Lofgren, Anna Eshoo, Ro Khanna, Scott Peters, Tony Cárdenas, Ami Bera, Nanette Barragán e Lou Correa se manifestaram contra a legislação.[6][66][67] Andrew Ng argumenta especificamente que existem abordagens regulatórias mais direcionadas e eficazes, como direcionar a pornografia deepfake, marcar materiais gerados e investir em red teaming e outras medidas de segurança.[61] Pesquisadores da Universidade da Califórnia e do Caltech também escreveram cartas abertas contra o projeto.[66]

Indústria

O projeto de lei é contestado por associações comerciais da indústria, incluindo a California Chamber of Commerce, a Chamber of Progress,[a] a Computer & Communications Industry Association[b] e a TechNet.[c][2] Empresas como a Meta[71] e a OpenAI[72] são contra ou levantaram preocupações sobre o projeto, enquanto Google,[71] Microsoft e Anthropic[58] propuseram emendas substanciais.[3] Vários fundadores de startups e organizações de capital de risco são contra o projeto, por exemplo, Y Combinator,[73][74] Andreessen Horowitz,[75][76][77] Context Fund[78][79] e Alliance for the Future.[80]

Após o projeto ser emendado, o CEO da Anthropic Dario Amodei escreveu que "o novo SB 1047 está substancialmente melhorado, a ponto de acreditarmos que seus benefícios provavelmente superam seus custos. No entanto, não temos certeza disso, e ainda há alguns aspectos do projeto que nos parecem preocupantes ou ambíguos."[81] Amodei também comentou: "Havia algumas empresas falando sobre mudar suas operações para fora da Califórnia. Na verdade, o projeto se aplica a fazer negócios na Califórnia ou implantar modelos na Califórnia... Qualquer coisa sobre 'Ah, estamos mudando nossa sede para fora da Califórnia...' Isso é apenas teatro. Isso é apenas uma alavanca de negociação. Não tem relação com o conteúdo real do projeto."[82] O CEO da xAI Elon Musk escreveu: "Acho que a Califórnia provavelmente deveria aprovar o projeto de lei de segurança de IA SB 1047. Por mais de 20 anos, tenho sido um defensor da regulamentação de IA, assim como regulamentamos qualquer produto/tecnologia que seja um risco potencial para o público."[83]

Em 9 de setembro de 2024, pelo menos 113 funcionários atuais e ex-funcionários de empresas de IA, como OpenAI, Google DeepMind, Anthropic, Meta e xAI, assinaram uma carta ao Governador Newsom em apoio ao SB 1047.[84][85]

Desenvolvedores de código aberto

Críticos expressaram preocupações sobre a responsabilidade sobre software de código aberto imposta pelo projeto, se usarem ou melhorarem modelos existentes disponíveis gratuitamente. Yann LeCun, o Chief AI Officer da Meta, sugeriu que o projeto mataria modelos de IA de código aberto.[61] Atualmente (em julho de 2024), existem preocupações na comunidade de código aberto de que, devido à ameaça de responsabilidade legal, empresas como a Meta podem optar por não disponibilizar modelos (por exemplo, Llama) gratuitamente.[86][87] A AI Alliance escreveu em oposição ao projeto, entre outras organizações de código aberto.[66] Em contraste, o cofundador do Creative Commons Lawrence Lessig escreveu que o SB 1047 tornaria os modelos de IA de código aberto mais seguros e mais populares entre os desenvolvedores, já que tanto o dano quanto a responsabilidade por esse dano seriam menos prováveis.[39]

Pesquisas de opinião pública

O Artificial Intelligence Policy Institute, um think tank de IA pró-regulação,[88] realizou três pesquisas com entrevistados da Califór

nia sobre se apoiavam ou se opunham ao SB 1047.

Apoio Oposição Não tenho certeza Margem de erro
9 de julho de 2024[89][90] 59% 20% 22% ±5,2%
4–5 de agosto de 2024[91][92] 65% 25% 10% ±4,9%
25–26 de agosto de 2024[93][94] 70% 13% 17% ±4,2%

Uma pesquisa YouGov encomendada pelo Economic Security Project descobriu que 78% dos eleitores registrados nos Estados Unidos apoiavam o SB 1047 e 80% achavam que o Governador Newsom deveria assinar o projeto.[95]

Uma pesquisa do David Binder Research encomendada pelo Center for AI Safety, um grupo focado na mitigação de risco em escala social e patrocinador do projeto, descobriu que 77% dos californianos apoiam uma proposta para exigir que empresas testem modelos de IA quanto a riscos de segurança, e 86% consideram importante que a Califórnia desenvolva regulamentações de segurança de IA.[96][97][98][99]

Veto do Governador ao SB 1047

O governador Gavin Newsom vetou o SB 1047 em 29 de setembro de 2024, citando preocupações sobre o quadro regulatório do projeto, que visa apenas modelos de IA de grande escala com base em seu tamanho computacional, sem levar em consideração se os modelos são implantados em ambientes de alto risco.[100][101] Newsom enfatizou que essa abordagem poderia criar uma falsa sensação de segurança, negligenciando modelos menores que poderiam apresentar riscos igualmente significativos.[100][102] Ele reconheceu a necessidade de protocolos de segurança de IA[100][103] mas destacou a importância da adaptabilidade na regulamentação à medida que a tecnologia de IA continua a evoluir rapidamente.[100][104]

O governador Newsom também se comprometeu a trabalhar com especialistas em tecnologia, parceiros federais e instituições acadêmicas, incluindo o Instituto de IA Centrada no Humano (HAI) da Universidade de Stanford, liderado pela Dra. Fei-Fei Li. Ele anunciou planos de colaborar com essas entidades para avançar no desenvolvimento responsável da IA, com o objetivo de proteger o público enquanto promove a inovação.[100][105]

Ver também

Notas

  1. cujos parceiros corporativos incluem Amazon, Apple, Google e Meta[68]
  2. cujos membros incluem Amazon, Apple, Google e Meta[69]
  3. cujos membros incluem Amazon, Anthropic, Apple, Google, Meta e OpenAI[70]

Referências

  1. a b Bauer-Kahan, Rebecca. «ASSEMBLY COMMITTEE ON PRIVACY AND CONSUMER PROTECTION» (PDF). Assembleia da Califórnia. Estado da Califórnia. Consultado em 1 de agosto de 2024 
  2. a b c Daniels, Owen J. (17 de junho de 2024). «Projeto de IA da Califórnia se torna um ponto crítico para defensores da segurança e desenvolvedores». Bulletin of the Atomic Scientists 
  3. a b Rana, Preetika (7 de agosto de 2024). «Empresas de IA lutam para parar as regras de segurança da Califórnia». The Wall Street Journal. Consultado em 8 de agosto de 2024 
  4. a b c Thibodeau, Patrick (6 de junho de 2024). «Riscos catastróficos da IA destacam a necessidade de leis de proteção a denunciantes». TechTarget. Consultado em 6 de agosto de 2024 
  5. Henshall, Will (7 de setembro de 2023). «Yoshua Bengio». TIME 
  6. a b c d e Goldman, Sharon. «É "Sharks vs. Jets" da IA—bem-vindo à luta pelo projeto de lei de segurança de IA da Califórnia». Fortune (em inglês). Consultado em 29 de julho de 2024 
  7. De Vynck, Gerrit (20 de maio de 2023). «O debate sobre se a IA nos destruirá está dividindo o Vale do Silício». The Washington Post 
  8. Gregg, Aaron; Lima-Strong, Cristiano; Vynck, Gerrit De (31 de maio de 2023). «A IA representa 'risco de extinção' comparável às armas nucleares, dizem líderes de tecnologia». Washington Post (em inglês). ISSN 0190-8286. Consultado em 3 de julho de 2024 
  9. Hinton, Geoffrey (17 de abril de 2024). «Yoshua Bengio». TIME. Consultado em 3 de setembro de 2024 
  10. «Ranking Mundial de Citações de Cientistas 2024». AD Scientific Index. Consultado em 3 de setembro de 2024 
  11. «Perfis». Google Scholar. Consultado em 2 de setembro de 2024 
  12. Abdul, Geneva (30 de maio de 2023). «Risco de extinção pela IA deve ser prioridade global, dizem especialistas». The Guardian (em inglês). ISSN 0261-3077. Consultado em 30 de agosto de 2024 
  13. «Declaração sobre o Risco de IA | CAIS». www.safe.ai (em inglês). Consultado em 30 de agosto de 2024 
  14. «A inteligência artificial pode levar à extinção, alertam especialistas». BBC News (em inglês). 30 de maio de 2023. Consultado em 30 de agosto de 2024 
  15. Zorthian, Julia (16 de maio de 2023). «CEO da OpenAI, Sam Altman, concorda que a IA deve ser regulamentada». TIME (em inglês). Consultado em 30 de agosto de 2024 
  16. Milmo, Dan (3 de novembro de 2023). «Empresas de tecnologia permitirão verificação de ferramentas de IA, enquanto Musk alerta que todos os trabalhos humanos estão ameaçados». The Guardian. Consultado em 12 de agosto de 2024 
  17. Browne, Ryan (21 de maio de 2024). «Gigantes da tecnologia se comprometem com compromissos de segurança de IA — incluindo um 'botão de desligar' se não conseguirem mitigar riscos». CNBC. Consultado em 12 de agosto de 2024 
  18. «Governador Newsom Assina Ordem Executiva para Preparar a Califórnia para o Progresso da Inteligência Artificial». Governador Gavin Newsom. 6 de setembro de 2023 
  19. «Presidente Biden Emite Ordem Executiva sobre Inteligência Artificial Segura, Confiável e Segura». Casa Branca. 30 de outubro de 2023 
  20. Riquelmy, Alan (8 de fevereiro de 2024). «Legislador da Califórnia busca estabelecer salvaguardas para o desenvolvimento de IA». Courthouse News Service. Consultado em 4 de agosto de 2024 
  21. Myrow, Rachael (16 de fevereiro de 2024). «Legisladores da Califórnia Assumem a Regulação da IA com uma Série de Projetos de Lei». KQED 
  22. Piper, Kelsey (29 de agosto de 2024). «Falamos com o arquiteto por trás do notório projeto de lei de segurança de IA». Vox. Consultado em 4 de setembro de 2024 
  23. Lovely, Garrison (15 de agosto de 2024). «Projeto de Lei de Segurança de IA da Califórnia é um Momento Revelador para a Indústria». The Nation. Consultado em 4 de setembro de 2024 
  24. Edwards, Benj (29 de julho de 2024). «De ficção científica à lei estadual: o plano da Califórnia para prevenir a catástrofe da IA». Ars Technica (em inglês). Consultado em 30 de agosto de 2024 
  25. Hendrycks, Dan (31 de maio de 2023). «O Argumento Darwiniano para Preocupar-se com a IA». Time (em inglês). Consultado em 1 de outubro de 2024 
  26. «Líderes proeminentes de IA alertam sobre 'risco de extinção' da nova tecnologia». Los Angeles Times (em inglês). 31 de maio de 2023. Consultado em 30 de agosto de 2024 
  27. Perrigo, Billy (13 de setembro de 2023). «Projeto de Lei da Califórnia Propõe Regular a IA a Nível Estadual». TIME. Consultado em 12 de agosto de 2024 
  28. David, Emilia (14 de setembro de 2023). «Legislador da Califórnia propõe regulamentação de modelos de IA». The Verge. Consultado em 12 de agosto de 2024 
  29. «Senador Wiener Introduz Estrutura de Segurança em Legislação sobre Inteligência Artificial». Senador Scott Wiener. 13 de setembro de 2023. Consultado em 12 de agosto de 2024 
  30. Hendrycks, Dan (27 de agosto de 2024). «Lei de IA da Califórnia Protegeria Mais do que Apenas Pessoas». TIME (em inglês). Consultado em 30 de agosto de 2024 
  31. «California SB1047 | 2023-2024 | Regular Session». LegiScan (em inglês). Consultado em 30 de agosto de 2024 
  32. Zeff, Maxwell (15 de agosto de 2024). «Califórnia enfraquece projeto de lei para prevenir desastres de IA antes da votação final, aceitando conselhos da Anthropic». TechCrunch. Consultado em 23 de agosto de 2024 
  33. a b c d Calvin, Nathan (15 de agosto de 2024). «SB 1047 Emendas do Autor de 15 de agosto: Visão Geral». safesecureai.org (em inglês). Consultado em 16 de agosto de 2024 
  34. a b «Projeto de Lei Pioneiro sobre Inteligência Artificial do Senador Wiener Avança para o Plenário da Assembleia com Emendas Respondendo ao Envolvimento da Indústria». Senador Scott Wiener (em inglês). 16 de agosto de 2024. Consultado em 17 de agosto de 2024 
  35. escritor, Troy Wolverton | Equipe do Examiner (29 de agosto de 2024). «Legislatura aprova controverso projeto de segurança de IA de Wiener». San Francisco Examiner (em inglês). Consultado em 30 de agosto de 2024 
  36. «Votações sobre o Projeto - SB-1047 Safe and Secure Innovation for Frontier Artificial Intelligence Models Act». leginfo.legislature.ca.gov. Consultado em 4 de setembro de 2024 
  37. Lee, Wendy (29 de setembro de 2024). «Governador Gavin Newsom veta projeto de lei de segurança de IA, contestado pelo Vale do Silício». Los Angeles Times. Consultado em 29 de setembro de 2024 
  38. Times, Financial (7 de junho de 2024). «Reação das grandes empresas de IA ao projeto de lei da Califórnia sobre o "botão de desligar" da IA». Ars Technica (em inglês). Consultado em 30 de agosto de 2024 
  39. a b Lessig, Lawrence (30 de agosto de 2024). «Big Tech Está Muito Assustada com um Projeto de Lei de Segurança de IA Muito Modesto». The Nation. Consultado em 3 de setembro de 2024 
  40. a b «Análise do Projeto de Lei da Assembleia 07/01/24». Informações Legislativas da Califórnia 
  41. «Análise da Revisão 7/3 do SB 1047». Context Fund 
  42. a b Johnson, Khari (12 de agosto de 2024). «Por que o Vale do Silício está se esforçando tanto para matar este projeto de lei de IA na Califórnia». CalMatters. Consultado em 12 de agosto de 2024 
  43. a b Goldman, Sharon. «É "Sharks vs. Jets" da IA—bem-vindo à luta pelo projeto de lei de segurança de IA da Califórnia». Fortune (em inglês). Consultado em 29 de julho de 2024 
  44. a b «Deturpações do projeto de lei de segurança de IA da Califórnia». Brookings (em inglês). Consultado em 2 de outubro de 2024 
  45. Bengio, Yoshua. «Yoshua Bengio: O projeto de lei de segurança de IA da Califórnia protegerá consumidores e inovação». Fortune (em inglês). Consultado em 17 de agosto de 2024 
  46. Kokalitcheva, Kia (26 de junho de 2024). «A pressão da Califórnia sobre segurança de IA». Axios 
  47. Coldewey, Devin (26 de agosto de 2024). «Elon Musk inesperadamente oferece apoio ao projeto de IA da Califórnia». TechCrunch (em inglês). Consultado em 27 de agosto de 2024 
  48. de Blasio, Bill (24 de agosto de 2024). «Postagem no X». X 
  49. Riquelmy, Alan (14 de agosto de 2024). «Projeto de lei de regulação de IA da Califórnia segue para audiência decisiva». Courthouse News Service. Consultado em 15 de agosto de 2024 
  50. Metz, Cade (14 de agosto de 2024). «Projeto de IA da Califórnia Causa Alarme no Vale do Silício». New York Times. Consultado em 22 de agosto de 2024 
  51. Jamal, Nynu V. (27 de agosto de 2024). «O audacioso projeto de lei de segurança de IA da Califórnia: Buterin, Musk Endossam, OpenAI Cautelosa». Coin Edition (em inglês). Consultado em 27 de agosto de 2024 
  52. Zeff, Maxwell (23 de agosto de 2024). «'Decepcionados, mas não surpresos': Ex-funcionários falam sobre a oposição da OpenAI ao SB 1047». TechCrunch (em inglês). Consultado em 23 de agosto de 2024 
  53. a b Pillay, Tharin (7 de agosto de 2024). «Especialistas renomados escrevem em apoio ao projeto de lei histórico de segurança de IA da Califórnia». TIME. Consultado em 8 de agosto de 2024 
  54. «Comitê Permanente de Privacidade e Proteção ao Consumidor da Assembleia». CalMatters. Consultado em 8 de agosto de 2024 
  55. «Dezenas de trabalhadores de IA desafiam seus empregadores, assinam carta em apoio ao projeto de IA de Wiener». The San Francisco Standard (em inglês). 9 de setembro de 2024. Consultado em 10 de setembro de 2024 
  56. Korte, Lara; Gardiner, Dustin (17 de setembro de 2024). «Aja naturalmente». Politico 
  57. «Call to Lead». Call to Lead (em inglês). Consultado em 10 de setembro de 2024 
  58. a b c Samuel, Sigal (5 de agosto de 2024). «É praticamente impossível administrar uma grande empresa de IA eticamente». Vox. Consultado em 6 de agosto de 2024 
  59. DiFeliciantonio, Chase (28 de junho de 2024). «Empresas de IA pediram regulamentação. Agora que está chegando, algumas estão furiosas». San Francisco Chronicle 
  60. Korte, Lara (12 de fevereiro de 2024). «Uma batalha em desenvolvimento sobre IA». Politico 
  61. a b c Edwards, Benj (29 de julho de 2024). «De ficção científica à lei estadual: o plano da Califórnia para prevenir a catástrofe da IA». Ars Technica (em inglês). Consultado em 30 de julho de 2024 
  62. The Times Editorial Board (22 de agosto de 2024). «Editorial: Por que a Califórnia deveria liderar na regulamentação da IA». Los Angeles Times. Consultado em 23 de agosto de 2024 
  63. Lovely, Garrison (12 de setembro de 2024). «Sindicato de atores e grupos de mulheres pressionam Gavin Newsom a assinar projeto de lei de segurança de IA». The Verge. Consultado em 12 de setembro de 2024 
  64. Lee, Wendy (24 de setembro de 2024). «Mark Hamill, Jane Fonda, J.J. Abrams instam Gov. Newsom a assinar projeto de lei de segurança de IA». LA Times. Consultado em 24 de setembro de 2024 
  65. Li, Fei-Fei. «'A Madrinha da IA' diz que o bem-intencionado projeto de lei de IA da Califórnia prejudicará o ecossistema dos EUA». Fortune. Consultado em 8 de agosto de 2024 
  66. a b c «Análise de Impactos do SB 1047». Context Fund 
  67. «Comitê Judiciário da Assembleia 2024-07-02». Assembleia Legislativa da Califórnia 
  68. «Parceiros Corporativos». Chamber of Progress 
  69. «Membros». Computer & Communications Industry Association 
  70. «Membros». TechNet 
  71. a b Korte, Lara (26 de junho de 2024). «Big Tech e os pequenos». Politico 
  72. Zeff, Maxwell (21 de agosto de 2024). «A oposição da OpenAI ao projeto de lei de IA da Califórnia 'não faz sentido', diz senador estadual». TechCrunch. Consultado em 23 de agosto de 2024 
  73. «Pequena Tecnologia Mostra sua Força em Sacramento». Politico 
  74. «Lei proposta na Califórnia busca proteger o público de catástrofes de IA». The Mercury News. 25 de julho de 2024 
  75. «Projeto de Lei do Senado da Califórnia 1047 - O que você precisa saber». Andreessen Horowitz 
  76. «Projeto de Lei de IA da Califórnia Prejudica as Conquistas do Setor». Financial Times 
  77. «Projeto de Lei do Senado 1047 esmagará a inovação de IA na Califórnia». Orange County Register. 10 de julho de 2024 
  78. «Startups de IA Pressionam para Limitar ou Derrubar Projeto de Lei de Segurança Pública da Califórnia». Bloomberg Law 
  79. «The Batch: Issue 257». Deeplearning.ai. 10 de julho de 2024 
  80. «A Névoa da Guerra de Segurança de IA». Politico. 2 de maio de 2024 
  81. «Anthropic diz que benefícios do projeto de lei de IA da Califórnia provavelmente superam os custos». Reuters. 23 de agosto de 2024. Consultado em 23 de agosto de 2024 
  82. Smith, Noah (29 de agosto de 2024). «CEO da Anthropic, Dario Amodei, sobre o Moat de IA, Risco e SB 1047». "ECON 102" com Noah Smith e Erik Torenberg (Podcast). Em cena em 55:13. Consultado em 3 de setembro de 2024 
  83. Coldewey, Devin (26 de agosto de 2024). «Elon Musk inesperadamente oferece apoio ao projeto de IA da Califórnia». TechCrunch. Consultado em 27 de agosto de 2024 
  84. «Dezenas de trabalhadores de IA desafiam seus empregadores, assinam carta em apoio ao projeto de IA de Wiener». The San Francisco Standard (em inglês). 9 de setembro de 2024. Consultado em 10 de setembro de 2024 
  85. «Call to Lead». Call to Lead (em inglês). Consultado em 10 de setembro de 2024 
  86. Piper, Kelsey (19 de julho de 2024). «Dentro da luta pelo novo projeto de lei de IA da Califórnia». Vox (em inglês). Consultado em 29 de julho de 2024 
  87. Piper, Kelsey (14 de junho de 2024). «O projeto de lei de IA que deixou o Big Tech em pânico». Vox (em inglês). Consultado em 29 de julho de 2024 
  88. Robertson, Derek (6 de maio de 2024). «Pesquisa exclusiva: Americanos preferem regulamentação de dados de IA». Politico. Consultado em 18 de agosto de 2024 
  89. Bordelon, Brendan. «O que Kamala Harris significa para a tecnologia». POLITICO Pro  (inscrição necessária)
  90. «Nova Pesquisa: Eleitores da Califórnia, Incluindo Trabalhadores de Tecnologia, Apoiam Fortemente Projeto de Lei de Regulação de IA SB1047». Artificial Intelligence Policy Institute. 22 de julho de 2024 
  91. Sullivan, Mark (8 de agosto de 2024). «Chatbot Grok de Elon Musk divulgou desinformação eleitoral». Fast Company. Consultado em 13 de agosto de 2024 
  92. «Pesquisa: Californianos Apoiam Versão Forte do SB1047, Discordam das Alterações Propostas pela Anthropic». Artificial Intelligence Policy Institute. 7 de agosto de 2024. Consultado em 13 de agosto de 2024 
  93. Gardiner, Dustin (28 de agosto de 2024). «O papel reduzido de substituto de Newsom». Politico 
  94. «Pesquisa: 7 em 10 Californianos Apoiam SB1047, Culparão o Governador Newsom por Catástrofe Habilitada por IA se Ele Vetar». Artificial Intelligence Policy Institute. 16 de agosto de 2024. Consultado em 28 de agosto de 2024 
  95. «Nova Pesquisa Nacional YouGov Mostra 80% de Apoio ao SB 1047 e à Segurança de IA». Economic Security Project Action (em inglês). Consultado em 19 de setembro de 2024 
  96. «Pesquisa com Prováveis Eleitores da Califórnia: Resumo da Pesquisa de Opinião Pública». David Binder Research 
  97. Lee, Wendy (19 de junho de 2024). «Legisladores da Califórnia estão tentando regulamentar a IA antes que seja tarde demais. Veja como». Los Angeles Times 
  98. Piper, Kelsey (19 de julho de 2024). «Dentro da luta pelo novo projeto de lei de IA da Califórnia». Vox (em inglês). Consultado em 22 de julho de 2024 
  99. «Projeto de Lei Histórico sobre IA do Senador Wiener Aprovado pela Assembleia». Gabinete do Senador Wiener. 29 de agosto de 2024 
  100. a b c d e «Carta de Veto ao SB 1047 de Gavin Newsom» (PDF). Gabinete do Governador 
  101. "Adaptabilidade é crítica enquanto corremos para regulamentar uma tecnologia que ainda está em sua infância. Isso exigirá um equilíbrio delicado. Embora bem-intencionado, o SB 1047 não leva em consideração se um sistema de IA é implantado em ambientes de alto risco, envolve tomada de decisão crítica ou o uso de dados sensíveis. Em vez disso, o projeto aplica padrões rígidos até mesmo às funções mais básicas - desde que um grande sistema o implante. Não acredito que essa seja a melhor abordagem para proteger o público contra as ameaças reais apresentadas pela tecnologia"
  102. "Ao focar apenas nos modelos mais caros e de grande escala, o SB 1047 estabelece um quadro regulatório que poderia dar ao público uma falsa sensação de segurança sobre o controle dessa tecnologia em rápida evolução. Modelos menores e especializados podem surgir como igualmente ou até mais perigosos do que os modelos alvo do SB 1047 - ao potencial custo de restringir a própria inovação que impulsiona o avanço em favor do bem público."
  103. "Deixe-me ser claro - concordo com o autor - não podemos nos dar ao luxo de esperar por uma grande catástrofe para agir para proteger o público. A Califórnia não abandonará sua responsabilidade. Protocolos de segurança devem ser adotados. Salvaguardas proativas devem ser implementadas e as consequências severas para os maus atores devem ser claras e aplicáveis."
  104. "Adaptabilidade é crítica enquanto corremos para regulamentar uma tecnologia que ainda está em sua infância. Isso exigirá um equilíbrio delicado. Embora bem-intencionado, o SB 1047 não leva em consideração se um sistema de IA é implantado em ambientes de alto risco, envolve tomada de decisão crítica ou o uso de dados sensíveis. Em vez disso, o projeto aplica padrões rígidos até mesmo às funções mais básicas - desde que um grande sistema o implante. Não acredito que essa seja a melhor abordagem para proteger o público contra as ameaças reais apresentadas pela tecnologia"
  105. Newsom, Gavin (29 de setembro de 2024). «Governador Newsom anuncia novas iniciativas para avançar com IA segura e responsável, proteger os californianos». Governador Gavin Newsom (em inglês). Consultado em 29 de setembro de 2024 

Ligações externas

Strategi Solo vs Squad di Free Fire: Cara Menang Mudah!