Ilya Sutskever, cientista da computação russo-israelense-canadense, cofundador e cientista-chefe da OpenAI, fala na Universidade de Tel Aviv em Tel Aviv, 5 de junho de 2023.
Jack Guez | AFP | Imagens Getty
O cofundador da OpenAI, Ilya Sutskever, que deixou a startup de inteligência artificial em maio, levantou US$ 1 bilhão de investidores para sua nova empresa de IA, Safe Superintelligence (SSI).
A empresa anunciou em um publicar no X, os investidores incluíam Andreessen Horowitz, Sequoia Capital, DST Global e SV Angel, bem como NFDG, uma parceria de investimento co-gerida pelo executivo da SSI Daniel Gross.
“Buscaremos uma superinteligência segura de uma só vez, com um foco, um objetivo e um produto”, escreveu Sutskever no X em maio para anunciar o novo empreendimento.
Sutskever foi o cientista-chefe da OpenAI e co-liderou a equipe de Superalignment da empresa com Jan Leike, que também saiu em maio para se juntar à empresa rival de IA Anthropic. Pouco depois de suas saídas, a OpenAI dissolveu a equipe, apenas um ano depois de anunciar o grupo. Alguns dos membros da equipe foram transferidos para outras equipes da empresa, disse uma fonte familiarizada com a situação à CNBC na época.
Leike escreveu em um post no X na época que “a cultura e os processos de segurança da OpenAI ficaram em segundo plano em relação aos produtos brilhantes”.
Sutskever iniciou a SSI com Daniel Gross, que supervisionou os esforços de pesquisa e IA da Apple, e o ex-funcionário da OpenAI Daniel Levy. A empresa possui escritórios em Palo Alto, Califórnia, e Tel Aviv, Israel.
“SSI é nossa missão, nosso nome e todo o nosso roteiro de produtos, porque é nosso único foco”, postou a empresa no X. “Nosso foco singular significa nenhuma distração por despesas gerais de gerenciamento ou ciclos de produtos, e nosso modelo de negócios significa segurança, a segurança e o progresso estão todos isolados das pressões comerciais de curto prazo.”
Sutskever foi um dos membros do conselho da OpenAI envolvido na demissão temporária do cofundador e CEO Sam Altman em novembro.
Em novembro, o conselho da OpenAI disse em comunicado que Altman não tinha sido “consistentemente sincero em suas comunicações com o conselho”. A questão rapidamente passou a parecer mais complexa. O Wall Street Journal e outros meios de comunicação relataram que Sutskever treinou seu foco para garantir que a inteligência artificial não prejudicaria os humanos, enquanto outros, incluindo Altman, estavam mais ansiosos para avançar com o fornecimento de novas tecnologias.
Quase todos os funcionários da OpenAI assinaram uma carta aberta dizendo que iriam embora em resposta à ação do conselho. Dias depois, Altman estava de volta à empresa.
Seguindo Altman expulsão repentina e antes de sua rápida reintegração, Sutskever pediu desculpas publicamente por seu papel na provação.
“Lamento profundamente minha participação nas ações do conselho”, escreveu Sutskever em um post no X em 20 de novembro. “Nunca tive a intenção de prejudicar a OpenAI. empresa.”