Um grupo de mais de 150 pais enviou uma carta na sexta-feira à governadora de Nova York, Kathy Hochul, instando-a a assinar a Lei de Segurança e Educação de IA Responsável (RAISE) sem alterações. A Lei RAISE é um projeto de lei polêmico isso exigiria desenvolvedores de grandes modelos de IA — como Meta, OpenAI, Deepseek e Google — para criar planos de segurança e seguir regras de transparência sobre como relatar incidentes de segurança.
O projeto foi aprovado no Senado e na Assembleia do Estado de Nova York em junho. Mas esta semana, Hochul supostamente propôs uma reescrita quase total da Lei RAISE que a tornaria mais favorável às empresas de tecnologia, semelhante a alguns dos alterações feitas no SB 53 da Califórnia depois que grandes empresas de IA contribuíram para isso.
Muitas empresas de IA, sem surpresa, são totalmente contra a legislação. A AI Alliance, que conta
Meta, IBM, Intel, Oracle, Snowflake, Uber, AMD, Databricks e Hugging Face entre seus membros enviaram um carta em junho, aos legisladores de Nova York detalhando sua “profunda preocupação” sobre a Lei RAISE, chamando-a de “impraticável”. E Leading the Future, o super PAC pró-IA apoiado pela Perplexity AI, Andreessen Horowitz (a16z), o presidente da OpenAI, Greg Brockman, e o cofundador da Palantir, Joe Lonsdale, tem como alvo Alex Bores, membro da Assembleia do Estado de Nova York, que co-patrocinou a Lei RAISE, com anúncios recentes.
Duas organizações, ParentsTogether Action e Tech Oversight Project, unidas Carta de sexta-feira para Hochulque afirma que alguns dos signatários “perderam filhos devido aos danos dos chatbots de IA e das redes sociais”. Os signatários chamaram a Lei RAISE, tal como está agora, de “proteções minimalistas” que deveriam ser transformadas em lei.
Eles também destacaram que o projeto de lei, aprovado pelo Legislativo do Estado de Nova York, “não regulamenta todos os desenvolvedores de IA – apenas as maiores empresas, aquelas que gastam centenas de milhões de dólares por ano”. Eles seriam obrigados a divulgar incidentes de segurança em grande escala ao procurador-geral e a publicar planos de segurança. Os promotores também seriam proibidos de lançar um modelo de fronteira “se isso criasse um risco irracional de danos críticos”, que é definido como a morte ou ferimentos graves de 100 pessoas ou mais, ou mil milhões de dólares ou mais em danos a direitos em dinheiro ou propriedade decorrentes da criação de uma arma química, biológica, radiológica ou nuclear; ou um modelo de IA que “age sem intervenção humana significativa” e “seria, se cometido por um ser humano”, enquadrado em certos crimes.
“A oposição profunda da Big Tech a essas proteções básicas parece familiar porque temos
já vi esse padrão de evitação e evasão antes”, afirma a carta. “Danos generalizados aos jovens –
incluindo a sua saúde mental, estabilidade emocional e capacidade de funcionamento na escola – tem sido
amplamente documentado desde que as maiores empresas de tecnologia decidiram promover algoritmos
plataformas de mídia social sem transparência, supervisão ou responsabilidade.”
