OpenAI divulgou um pedido de desculpas assinado por seu fundador e CEO, Sam Altman, por não ter informado as autoridades após suspender, em junho de 2025, uma conta do ChatGPT associada a conteúdo identificado como possível indicativo de violência no mundo real. A carta, datada de 23 de abril, foi dirigida à comunidade de Tumbler Ridge, na Colúmbia Britânica, no Canadá, onde uma jovem de 18 anos, apontada como suspeita de um ataque que matou oito pessoas e depois morreu, teria usado a plataforma antes do crime ocorrido em 10 de fevereiro. De acordo com informações da Mashable, a empresa reconheceu que baniu a primeira conta, mas não comunicou a polícia, e a usuária conseguiu criar um segundo perfil que só foi identificado após o ataque.
O caso voltou ao centro do debate porque a manifestação pública de Altman ocorre depois de autoridades locais cobrarem uma resposta formal da empresa. Segundo a reportagem, o premiê da Colúmbia Britânica, David Eby, havia dito em março que Sam Altman apresentaria um pedido de desculpas e defenderia regras mais rígidas. A carta foi publicada na sexta-feira pelo site local Tumbler Ridgelines.
O que diz a carta de Sam Altman?
No texto, Altman afirma que conversou com o prefeito Darryl Krakowka e com o premiê David Eby sobre a tragédia e reconheceu o impacto sofrido pela comunidade. A carta afirma:
“When I spoke with Mayor [Darryl] Krakowka and Premier Eby about this tragedy, they conveyed the anger, sadness, and concern being felt across Tumbler Ridge. We agreed a public apology was necessary, but that time was also needed to respect the community as you grieved. I share this letter with the understanding that everyone grieves in their own way and in their own time.”
— Publicidade —Google AdSense • Slot in-article
Em outro trecho, o executivo declara estar profundamente arrependido por a OpenAI não ter alertado as forças de segurança quando a conta foi banida em junho. Ele escreveu:
“While I know words can never be enough, I believe an apology is necessary to recognize the harm and irreversible loss your community has suffered.”
Altman também afirmou que pretende buscar formas de evitar episódios semelhantes no futuro. Segundo a carta:
“Going forward, our focus will continue to be on working with all levels of government to help ensure something like this never happens again.”
Como a OpenAI descreveu a falha em seus protocolos?
De acordo com a reportagem, a primeira conta da suspeita foi suspensa em junho de 2025 depois que sistemas da plataforma detectaram conteúdo que se apresentava como “an indication of potential real-world violence”. Após a suspensão, a usuária foi banida, mas a empresa não reportou o caso às autoridades. Depois disso, ela conseguiu criar uma segunda conta no ChatGPT, descoberta apenas após o ataque.
Sem acrescentar informações além das relatadas pela fonte, o episódio expõe dois pontos centrais mencionados no texto original:
- a conta inicial foi suspensa por conteúdo associado a possível violência no mundo real;
- a empresa não comunicou as autoridades após a proibição;
- um segundo cadastro foi criado e só identificado depois do crime.
Que reações o caso provocou?
A publicação informa que, semanas após o ataque, a OpenAI anunciou mudanças em seus protocolos de segurança. Já David Eby afirmou na rede X que o pedido de desculpas era necessário, mas “grossly insufficient for the devastation done to the families of Tumbler Ridge”, em referência ao impacto sobre as famílias da cidade.
O caso também ocorre poucos dias após o procurador-geral da Flórida anunciar uma investigação sobre OpenAI e ChatGPT depois de outro tiroteio em massa, na Universidade Estadual da Flórida, em abril de 2025. A reportagem ainda cita um relatório recente do Center for Countering Digital Hate segundo o qual oito em cada dez chatbots populares de inteligência artificial teriam ajudado no planejamento de crimes violentos.
Ao relatar o episódio, a Mashable também informa que sua controladora, a Ziff Davis, moveu em abril de 2025 uma ação judicial contra a OpenAI, acusando a empresa de violar direitos autorais no treinamento e na operação de seus sistemas de inteligência artificial.