Normalmente, quando grandes talentos deixam os gigantes do Vale do Silício, a linguagem de relações públicas é simples: eles estão caminhando para um “novo capítulo” ou “gratos pela jornada” – ou talvez haja algumas dicas vagas sobre uma startup furtiva. No mundo da IA, porém, as saídas recentes parecem mais avisos de denunciantes.
Nas últimas semanas, uma série de pesquisadores seniores e líderes de segurança da OpenAI, Anthropic, xAI e outros renunciaram em público, e não há nada de discreto ou baunilha nisso.
Veja, por exemplo, a pesquisadora da OpenAI Zoë Hitzig. Ela optou por não mudar silenciosamente seu perfil do LinkedIn, mas anunciar sua demissão em um New York Times ensaio de convidado intitulado “OpenAI está cometendo os erros cometidos pelo Facebook. Eu desisto.”
Quem renuncia dessa forma – no Tempos?
O que a irritou foi a decisão da OpenAI de começar a testar anúncios dentro do ChatGPT. Ironicamente, em 2024 Sam Altman, CEO da OpenAI, disse: “Eu odeio anúncios”, argumentando que “anúncios mais IA”… são “excepcionalmente perturbadores” porque as pessoas são forçadas a descobrir quem está pagando para influenciá-las com as respostas. Mas, ei, quando até mesmo os contadores internos da OpenAI esperam que a empresa perder US$ 14 bilhões em 2026 sozinho, Altman conseguiu superar suas dúvidas.
Não é assim, Hitzig. Ela escreveu: “As pessoas contam aos chatbots sobre os seus medos médicos, os seus problemas de relacionamento, as suas crenças sobre Deus e a vida após a morte. A publicidade construída nesse arquivo cria um potencial para manipular os utilizadores de formas que não temos as ferramentas para compreender, muito menos para prevenir”. (Ela está certa, é claro.)
Mas, me desculpe, isso é ingênuo. O Facebook não cometeu um erro. Ganhou bilhões de dólares explorando pessoas que compartilhavam coisas online com familiares e amigos. Tem sido um truísmo nos modelos de negócios da Internet desde o final dos anos 2000 que: “Se você não está pagando pelo serviço, você são o produto.”
Claro, divulgações íntimas casadas com uma empresa de publicidade por meio de IA são uma construção assustadora. O mesmo ocorre com a capacidade do Facebook e do X de lucrar ao fazer com que as pessoas caiam na toca do coelho do engajamento, da indignação e do perfil de comportamento. Mas ninguém os está impedindo. Caramba, em 2016, o Facebook compartilhou seus dados com a Cambridge Analytica, permitindo que a campanha de Trump personalizasse anúncios em um nível quase individual, ajudando Donald Trump a vencer as eleições de 2016.
Isso acabou custando ao Facebook cerca de US$ 6 bilhões em multas e ações judiciais. Isso parece muito dinheiro, até que você considere que a empresa-mãe do Facebook, Meta, teve receitas GAAP em 2025 superiores a US$ 200 bilhões, quase todas provenientes de publicidade.
Tenho a sensação de que Altman superará seu desconforto em relação a esse tipo de receita.
Enquanto isso, na Anthropic, o chefe da equipe de pesquisa de Salvaguardas que estava saindo, Mrinank Sharma, foi ainda mais direto. Em uma carta de demissão compartilhada com o mundo no X, ele escreveu que “o mundo está em perigo.” Ele descreveu, no tipo de linguagem educada, mas contundente que desperta os advogados, como é difícil, na prática, para uma empresa “deixar que nossos valores governem nossas ações” quando o dinheiro, o mercado e o prestígio interno apontam para o envio de modelos mais capazes, mais rápido. Aqui, mais uma vez, vemos a ética ficando em segundo plano em relação aos lucros.
Veja bem, Anthropic é a empresa de IA que se autodenomina “IA constitucional” e implantação cuidadosa. Se os líderes seniores de segurança sentirem que não podem mais colocar a moralidade à frente do dinheiro, isso é um sinal de alerta.
Se se tratasse apenas de dois pesquisadores idealistas tomando posição, você poderia descrevê-la como personalidade e política. Não é. OpenAI recentemente dissolveu sua equipe de “alinhamento de missão”que deveria trabalhar para tornar a IA segura. (Não se esqueça, a OpenAI começou como uma organização sem fins lucrativos financiada por doações e promessas, em vez de investimento de capital, e dedicada a garantir que a inteligência artificial geral (AGI) beneficiaria “toda a humanidade”.)
Hoje, a OpenAI e a Anthropic estão se posicionando para que os IPOs realizem bilhões para seus proprietários e eventuais acionistas. Como qualquer pessoa que presta atenção ao mercado de ações desde que o ChatGPT 3.5 explodiu em cena em 2023 sabe, o mercado é dominado pelos Magnificent Seven, impulsionados pela IA, com seu valor de mercado de US$ 20,2 trilhões. E você se pergunta por que as pessoas estão preocupadas com o estouro de uma bolha de IA!?
Existem outros líderes de IA caminhando para a porta. Na xAI de Elon Musk – agora recentemente incorporada à SpaceX por meio de um acordo com todas as ações – Os cofundadores da xAI, Tony Wu e Jimmy Ba, dirigiram-se aos botes salva-vidas enquanto Musk falou sobre “reorganizações” e como “algumas pessoas são mais adequadas para os estágios iniciais de uma empresa e menos adequadas para os estágios posteriores”. Claro, Elon, claro.
Enquanto isso, Os fundadores e CEO da VERSES AI estão fora à medida que o conselho instala um líder interino e impulsiona um pivô comercial mais nítido. Até A Apple está sofrendo uma “fuga de cérebros de IA”. Lá, o vice-presidente sênior John Giannandrea e o líder da Siri, Robby Walker, partiram para Meta.
Cada história individual é diferente, mas vejo um tópico aqui. O pessoal da IA que estava preocupado com “o que deveríamos construir e como fazê-lo com segurança?” estão saindo. Serão substituídos por pessoas cuja primeira, se não a única, prioridade é “com que rapidez podemos transformar isto num negócio lucrativo?” Ah, e não apenas lucrativo; nem mesmo um unicórnio avaliado em US$ 1 bilhão é suficiente para essas pessoas. Se o negócio não for uma “decacórnio”, uma startup privada avaliada em mais de US$ 10 bilhões, eles não querem ouvir falar disso.
Acho muito revelador que Peter Steinberger, o criador do insanamente – em todos os sentidos da palavra – bot OpenClaw AI, já tenha sido contratado pela OpenAI. Altman o chama de “gênio” e diz que suas ideias “rapidamente se tornarão essenciais para nossas ofertas de produtos”.
Na verdade, o OpenClaw é um desastre de segurança prestes a acontecer. Em breve, algumas pessoas ou empresas imprudentes perderão suas camisas porque confiaram nelas informações valiosas. E seu inventor é quem Altman quer no coração do OpenAI!?
O Gartner precisa refazer seu ciclo de hype. Com a IA, ultrapassamos o “Pico das Expectativas Inflacionadas” e avançamos em direção ao “Pináculo das Fantasias Financeiras Histéricas”.
As pessoas indo embora antes que tudo vá para o inferno? Eles são os sábios.
Fonte: Computer World




