Jakub Porzycki | Nurfoto | Imagens Getty
OpenAI e Anthropic, as duas startups de inteligência artificial mais valorizadas, concordaram em deixar o Instituto de Segurança de IA dos EUA testar seus novos modelos antes de liberá-los ao público, após o aumento das preocupações da indústria sobre segurança e ética na IA.
O instituto, sediado no Departamento de Comércio do Instituto Nacional de Padrões e Tecnologia (NIST), disse em um Comunicado de imprensa que terá “acesso aos principais novos modelos de cada empresa antes e após seu lançamento público”.
O grupo foi criado depois que a administração Biden-Harris emitiu a primeira ordem executiva do governo dos EUA sobre inteligência artificial em outubro de 2023, exigindo novas avaliações de segurança, orientações sobre equidade e direitos civis e pesquisas sobre o impacto da IA no mercado de trabalho.
“Estamos felizes por ter chegado a um acordo com o Instituto de Segurança de IA dos EUA para testes de pré-lançamento de nossos modelos futuros”, escreveu o CEO da OpenAI, Sam Altman, em um comunicado. publicar no X. OpenAI também confirmou à CNBC na quinta-feira que, no ano passado, a empresa dobrou seu número de usuários ativos semanais para 200 milhões. Eixos foi o primeiro a relatar o número.
A notícia chega um dia depois de surgirem relatos de que a OpenAI está em negociações para levantar uma rodada de financiamento avaliando a empresa em mais de US$ 100 bilhões. A Thrive Capital lidera a rodada e vai investir US$ 1 bilhão, segundo fonte com conhecimento do assunto que pediu para não ser identificada porque os detalhes são confidenciais.
A Anthropic, fundada por ex-executivos e funcionários de pesquisa da OpenAI, foi avaliada recentemente em US$ 18,4 bilhões. Contagens antrópicas Amazônia como um investidor líder, enquanto a OpenAI é fortemente apoiada por Microsoft.
Os acordos entre o governo, OpenAI e Anthropic “permitirão pesquisas colaborativas sobre como avaliar capacidades e riscos de segurança, bem como métodos para mitigar esses riscos”, de acordo com o relatório de quinta-feira. liberar.
Jason Kwon, diretor de estratégia da OpenAI, disse à CNBC em um comunicado que: “Apoiamos fortemente a missão do US AI Safety Institute e esperamos trabalhar juntos para informar as melhores práticas e padrões de segurança para modelos de IA”.
Jack Clark, cofundador da Anthropic, disse que a “colaboração da empresa com o US AI Safety Institute aproveita sua ampla experiência para testar rigorosamente nossos modelos antes da implantação generalizada” e “fortalece nossa capacidade de identificar e mitigar riscos, avançando no desenvolvimento responsável de IA”.
Vários desenvolvedores e pesquisadores de IA expressaram preocupações sobre a segurança e a ética na indústria de IA, cada vez mais lucrativa. Funcionários atuais e antigos da OpenAI publicaram uma carta aberta em 4 de junho, descrevendo possíveis problemas com os rápidos avanços que ocorrem na IA e a falta de supervisão e proteção aos denunciantes.
“As empresas de IA têm fortes incentivos financeiros para evitar uma supervisão eficaz e não acreditamos que estruturas personalizadas de governação corporativa sejam suficientes para mudar esta situação”, escreveram. As empresas de IA, acrescentaram, “atualmente têm apenas obrigações fracas de partilhar algumas destas informações com os governos, e nenhuma com a sociedade civil”, e não se pode “confiar que as partilhem voluntariamente”.
Dias após a publicação da carta, uma fonte familiarizada com o assunto confirmou à CNBC que a FTC e o Departamento de Justiça estavam preparados para abrir investigações antitruste sobre OpenAI, Microsoft e Nvidia. A presidente da FTC, Lina Khan, descreveu a ação de sua agência como uma “investigação de mercado sobre os investimentos e parcerias que estão sendo formadas entre desenvolvedores de IA e os principais provedores de serviços em nuvem”.
Na quarta-feira, os legisladores da Califórnia passou um projeto de lei de segurança de IA urgente, enviando-o para a mesa do governador Gavin Newsom. Newsom, um democrata, decidirá vetar a legislação ou sancioná-la até 30 de setembro. O projeto de lei, que tornaria os testes de segurança e outras salvaguardas obrigatórios para modelos de IA de um determinado custo ou poder de computação, foi contestado por alguns empresas de tecnologia pelo seu potencial para retardar a inovação.
ASSISTIR: Google, OpenAI e outros se opõem ao projeto de lei de segurança de IA da Califórnia