O CEO da OpenAI, Sam Altman, fala durante a conferência Microsoft Build na sede da Microsoft em Redmond, Washington, em 21 de maio de 2024.
Jason Redmond | AFP | Imagens Getty
A OpenAI voltou atrás na quinta-feira em uma decisão polêmica de, na verdade, fazer com que ex-funcionários escolhessem entre assinar um acordo de não depreciação que nunca expiraria ou manter seu patrimônio adquirido na empresa.
O memorando interno, que foi visto pela CNBC, foi enviado a ex-funcionários e compartilhado com os atuais.
O memorando, dirigido a cada ex-funcionário, dizia que no momento da saída da pessoa da OpenAI, “você pode ter sido informado de que era obrigado a assinar um acordo de liberação geral que incluía uma cláusula de não depreciação, a fim de reter o direito adquirido Unidades [of equity].”
“Independentemente de você ter executado o Contrato, escrevemos para notificá-lo de que a OpenAI não cancelou e não cancelará nenhuma Unidade Adquirida”, afirmou o memorando, que foi visto pela CNBC.
O memorando disse que a OpenAI também não aplicará quaisquer outros itens contratuais de não depreciação ou não solicitação que o funcionário possa ter assinado.
“Conforme compartilhamos com os funcionários, estamos fazendo atualizações importantes em nosso processo de saída”, disse um porta-voz da OpenAI à CNBC em comunicado.
“Não retiramos e nunca retiraremos o patrimônio adquirido, mesmo quando as pessoas não assinaram os documentos de saída. Removeremos as cláusulas de não depreciação de nossa documentação padrão de saída e liberaremos ex-funcionários das obrigações de não depreciação existentes, a menos que a disposição de não depreciação foi mútuo”, afirmou o comunicado, acrescentando que os ex-funcionários também seriam informados disso.
“Lamentamos muito que só estejamos mudando essa linguagem agora; ela não reflete nossos valores ou a empresa que queremos ser”, acrescentou o porta-voz da OpenAI.
Bloomberg relatou pela primeira vez sobre a liberação da disposição de não depreciação. Vox relatou pela primeira vez a existência da disposição NDA.
A notícia surge em meio à crescente controvérsia sobre a OpenAI na última semana.
Na segunda-feira – uma semana depois que a OpenAI estreou uma série de vozes de áudio para ChatGPT – a empresa anunciou que retiraria uma das vozes do chatbot viral chamada “Sky”.
“Sky” gerou polêmica por se assemelhar à voz da atriz Scarlett Johansson em “Her”, filme sobre inteligência artificial. A estrela de Hollywood alegou que a OpenAI roubou sua voz, embora ela tenha se recusado a deixá-los usá-la.
“Ouvimos perguntas sobre como escolhemos as vozes no ChatGPT, especialmente Sky”, disse o Microsoft– empresa apoiada postou no X. “Estamos trabalhando para pausar o uso do Sky enquanto resolvemos isso.”
Também na semana passada, a OpenAI dissolveu sua equipe focada nos riscos de longo prazo da inteligência artificial apenas um ano depois que a empresa anunciou o grupo, confirmou uma pessoa familiarizada com a situação à CNBC na sexta-feira.
A pessoa, que falou à CNBC sob condição de anonimato, disse que alguns dos membros da equipe estão sendo transferidos para várias outras equipes dentro da empresa.
A notícia veio dias depois de os dois líderes de equipe, o cofundador da OpenAI, Ilya Sutskever e Jan Leike, anunciarem suas saídas. Leike escreveu na sexta-feira que “a cultura e os processos de segurança da OpenAI ficaram em segundo plano em relação aos produtos brilhantes”.
OpenAI’s Equipe de superalinhamento, que foi formada no ano passado, concentrou-se em “avanços científicos e técnicos para dirigir e controlar sistemas de IA muito mais inteligentes do que nós”. Na época, a OpenAI disse que dedicaria 20% de seu poder computacional à iniciativa ao longo de quatro anos.
A empresa não forneceu comentários oficiais e, em vez disso, encaminhou a CNBC ao cofundador e CEO Postagem recente de Sam Altmanno X, onde ele compartilhou que estava triste com a saída de Leike e que a empresa tinha mais trabalho a fazer.
No sábado, cofundador da OpenAI Greg Brockman postouuma declaração atribuída a ele e a Altman no X, afirmando que a empresa “aumentou a conscientização sobre os riscos e oportunidades da AGI [artificial general intelligence] para que o mundo possa se preparar melhor para isso.”