Logo DCM
Logo DCM
Apoie o DCM

Ataque à casa do dono do chatGPT expõe movimento anti-IA e ódio real às big techs

Sam Altman, CEO da OpenAI

No dia 10 de abril de 2026, Sam Altman, CEO da OpenAI e dono do ChatGPT, foi alvo de uma tentativa de ataque à sua residência localizada em San Francisco.

O agressor, identificado como Daniel Moreno-Gama, lançou um coquetel molotov contra a mansão de Altman, mas não causou feridos. O incidente ocorreu em meio ao crescente descontentamento público sobre os impactos da inteligência artificial (IA) e as preocupações sobre seus efeitos a longo prazo na sociedade.

Em uma tentativa de acalmar os ânimos, Altman se posicionou publicamente, compartilhando uma foto de sua família, incluindo sua filha pequena, na esperança de dissuadir outros de replicar o ataque.

Este caso é o mais recente em uma série de ameaças e ações de violência dirigidas aos líderes de empresas de tecnologia, as big techs. Moreno-Gama, que já havia expressado publicamente sua oposição à IA, apontou Altman como um dos principais responsáveis por uma “catástrofe iminente” associada ao desenvolvimento descontrolado da inteligência artificial.

Ele e outros veem a IA como uma ameaça existencial para a humanidade e acusam Altman e seus colegas de acelerarem esse processo de maneira irresponsável.

Embora Altman tenha tentado apaziguar os ânimos com uma postura conciliatória, o ataque reflete a crescente insatisfação com a IA. Os líderes do setor de tecnologia estão cada vez mais expostos, não apenas por suas inovações tecnológicas, mas também pela crescente desconfiança do público em relação aos riscos que esses avanços representam.

Os CEOs dessas companhias do Vale do Silício são vistos como responsáveis por acelerar a criação de sistemas de inteligência artificial sem considerar adequadamente as consequências para a sociedade. A resposta de Altman, ao tentar manter um perfil mais pessoal e menos agressivo, reflete uma tentativa de minimizar o impacto dessa crescente hostilidade.

Elon Musk, da Tesla, é um ser desprezível e financia golpistas mundo afora. Alex Karp, CEO da Palantir, escreveu um manifesto tecno-fascista e se orgulha de fornecer armas para o genocídio em Gaza. Há um movimento secreto entre os líderes dessa indústria, que estão se preparando para cenários de crise.

Muitos deles acreditam que, à medida que a IA continue a evoluir, pode haver um ponto de ruptura social — um colapso provocado pela falta de regulamentação e pelo uso irresponsável da tecnologia.

Este temor está levando os CEOs de empresas de tecnologia a se protegerem cada vez mais, tanto fisicamente quanto em relação às suas posições públicas sobre o futuro da IA. Essa sensação de insegurança tem se espalhado pelo Vale do Silício, onde as empresas estão tomando precauções extras para garantir que suas inovações não resultem em um cenário apocalíptico.

Daniel Moreno-Gama, acusado de lançar um coquetel molotov na casa de Sam Altman e tentar invadir a sede da OpenAI em São Francisco com uma cadeira

Apesar das tentativas de controle de narrativa por parte deles, a sociedade continua dividida quanto aos benefícios e riscos da IA. Para muitos, a tecnologia representa um futuro brilhante e inovador, enquanto para outros, ela é uma bomba-relógio prestes a explodir.

A questão central não é apenas a tecnologia em si, mas como ela está sendo implementada e regulada, e quem será responsabilizado pelas consequências disso. As ameaças e ataques contra figuras de destaque demonstram um mal-estar crescente sobre o papel da IA na sociedade moderna.

O ataque à casa de Sam Altman não é apenas um reflexo de um desentendimento com um líder da tecnologia, mas sim de uma crescente inquietação pública sobre as implicações da inteligência artificial. Enquanto o debate sobre os benefícios e perigos da IA continua, os donos enfrentam um dilema profundo: como equilibrar a inovação tecnológica com a responsabilidade social, sem colocar em risco a estabilidade da sociedade?

Jason Wolfe, membro da equipe técnica da OpenAI trabalhando no campo de alinhamento — uma área dedicada a fazer com que os modelos de IA reflitam as necessidades e valores humanos — disse no X que “nosso trabalho deve ser conquistar confiança, tornando os benefícios reais, sendo honestos sobre os riscos e incertezas, compartilhando o que aprendemos, medindo os impactos no mundo real e apoiando a supervisão pública e a resiliência”.

“E, embora eu, claro, concorde que a violência recente é terrível, injustificável e pode ter sido incentivada por um pequeno número de maus atores, acho ruim para o discurso público juntar todos os críticos da IA como ‘pessimistas’ e sugerir que é inadequado para eles expressarem suas preocupações.”