A ChatGPT foi utilizada para ajudar um crime no tiroteio na Flórida, e o procurador-geral anuncia uma investigação à OpenAI

ChainNewsAbmedia

O fornecedor de inteligência artificial OpenAI enfrenta recentemente uma importante crise legal e regulatória. O procurador-geral do estado da Flórida, James Uthmeier, afirmou que vai abrir uma investigação à OpenAI, para esclarecer se os seus produtos, incluindo o ChatGPT, causam danos a menores, ameaçam a segurança nacional e se desempenharam um papel na assistência ao crime no caso do tiroteio no campus da Florida State University (FSU) em 2025. Em paralelo, os familiares das vítimas do tiroteio estão também a preparar-se para avançar com uma acção judicial contra a empresa.

OpenAI envolvida no caso de tiroteio no campus da universidade da Flórida; o procurador-geral inicia uma investigação

O procurador-geral da Flórida, Uthmeier, divulgou um vídeo nas redes sociais, dizendo que o ChatGPT é muito provavelmente utilizado para ajudar o autor do crime a planear o grande tiroteio ocorrido no ano passado no campus da Florida State University, na Flórida, que infelizmente ceifou duas vidas.

Ele salientou que, enquanto os gigantes da tecnologia impulsionam a inovação, não podem colocar a segurança do público em risco, nem têm o direito de prejudicar crianças, facilitar actividades criminosas, reforçar a força de forças hostis dos EUA, ou ameaçar a segurança nacional. O procurador-geral afirmou que vai emitir intimações e apelou ao poder legislativo da Flórida para tomar medidas rapidamente, a fim de prevenir os impactos negativos trazidos pela inteligência artificial.

O suspeito do tiroteio teria perguntado repetidamente ao ChatGPT; os familiares das vítimas pretendem processar

Ao recordar o caso do tiroteio na FSU em Abril de 2025, o antigo estudante de 21 anos Phoenix Ikner disparou no campus, causando 2 mortes e 6 feridos; posteriormente, o suspeito foi acusado por um grande júri, enfrentando várias acusações, incluindo homicídio em primeiro grau, e um pedido de pena de morte.

Os registos do tribunal mostram que a conta de Ikner tinha até 272 registos de conversas com o ChatGPT. Alega-se que, antes do incidente, ele tinha perguntado à IA sobre as reacções que poderiam surgir em todo o país ao tiroteio na FSU e sobre a hora do dia em que as multidões de estudantes no local mais movimentado seriam mais densas.

Entre as vítimas que morreram no incidente estava o falecido Robert Morales, de 57 anos. O advogado por ele mandatado indicou que o suspeito manteve um contacto estreito com o ChatGPT antes do caso e que a família tem razões para acreditar que a IA forneceu conselhos para a prática do crime; neste momento, está a preparar-se para processar a OpenAI.

(Investigação em inteligência artificial: cerca de 30% dos adolescentes norte-americanos usam diariamente chatbots de IA; as preocupações com a segurança aumentam)

Acusada de induzir suicídio e gerar conteúdos inadequados, a OpenAI enfrenta vários processos legais

Além da polémica do caso do tiroteio no campus, o chatbot da OpenAI também enfrenta várias acusações por alegadamente incentivar os utilizadores a autoagredir-se. Em Novembro de 2025, o Social Media Victims Law Center e o Tech Justice Law Project, num tribunal da Califórnia, intentaram 7 processos relacionados com suicídio contra a OpenAI e o seu CEO, Sam Altman. A petição acusa a empresa de, apesar de saber que o produto tinha riscos de manipulação psicológica, ter lançado antecipadamente o modelo GPT-4o, colocando a quota de mercado e as métricas de interacção acima da segurança humana e da saúde mental.

Por outro lado, o problema dos materiais de abuso sexual infantil gerados por IA tem vindo a agravar-se. De acordo com um relatório da Internet Observations Foundation, no primeiro semestre de 2025 foram registadas mais de 8.000 notificações, o que representa um aumento anual de 14%; isto coloca os criadores de IA, incluindo a OpenAI, sob uma enorme pressão social.

A OpenAI responde, sublinhando a segurança, cooperando activamente com a investigação e publicando um plano de segurança para crianças

Perante a enxurrada de críticas e investigações, a OpenAI publicou um comunicado que confirma que, de facto, descobriu, após o caso de Abril do ano passado, contas do ChatGPT associadas ao atirador e já forneceu atempadamente as informações relevantes às autoridades responsáveis pela aplicação da lei. A empresa sublinhou que mais de 900 milhões de utilizadores utilizam o ChatGPT semanalmente para melhorar a vida quotidiana; a intenção original do sistema é compreender as intenções dos utilizadores e fornecer respostas seguras e adequadas, e no futuro também irá colaborar plenamente com a investigação do procurador-geral da Flórida.

Para acalmar as dúvidas do público, a OpenAI publicou recentemente, de forma oficial, o “Plano de Segurança para Crianças”, apresentando várias propostas de políticas, incluindo a actualização de regulamentos para prevenir conteúdos de abuso gerados por IA, a melhoria dos procedimentos de comunicação às autoridades responsáveis pela aplicação da lei e o estabelecimento de mecanismos de protecção mais completos, com o objectivo de evitar que ferramentas de inteligência artificial sejam abusadas maliciosamente.

Este artigo, “O ChatGPT é acusado de ajudar a cometer crimes no tiroteio na Flórida”, foi publicado inicialmente em Cadeia Notícias ABMedia.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.

Related Articles

Scale AI recebe $500M contrato do Pentágono para processamento de dados de IA

De acordo com a ChainCatcher, o Departamento de Defesa dos EUA concedeu à Scale AI, apoiada pela Meta Platforms, um contrato de US$ 500 milhões para ajudar a processar dados e apoiar a tomada de decisões militares. A premiação é cinco vezes maior do que o contrato de US$ 100 milhões que a empresa sediada em São Francisco recebeu em

GateNews31m atrás

xAI, de Elon Musk, vai rebrandizar como SpaceXAI à medida que o status de empresa independente chega ao fim

De acordo com a Odaily, Elon Musk anunciou que a xAI será rebatizada como SpaceXAI, já que a empresa não vai mais operar como uma entidade independente.

GateNews1h atrás

IBM amplia sua suíte de IA corporativa com novas ferramentas baseadas em agentes na Think 2026

Segundo a IBM, a empresa anunciou uma expansão de suas capacidades de IA corporativa na conferência Think 2026, em Boston, lançando novas ferramentas baseadas em agentes para ajudar organizações a incorporar inteligência artificial nas operações do dia a dia. O Context Studio, agora disponível de forma geral, permite que empresas

GateNews1h atrás

Ações da Hut 8 Disparam 30% com contrato de locação de data center de IA no valor de US$ 9,8 bilhões

A Hut 8 viu suas ações dispararem mais de 30% após a notícia de um acordo de locação de dados de IA no valor de US$ 9,8 bilhões. A mineradora de Bitcoin está expandindo para a infraestrutura de IA com um contrato de hiperescalabilidade de longo prazo localizado no Texas. Expansão da Infraestrutura de IA O contrato inclui opções que poderiam aumentar o total

CryptoFrontier1h atrás

Sonhos do Claude, da Anthropic: agente se organiza para recuperar memórias entre tarefas, eliminando duplicidades e contradições

A Anthropic anunciou o Dreams no evento Code with Claude, permitindo que os Claude Managed Agents organizem automaticamente memórias entre várias conversas, eliminem duplicidades e contradições, atualizem itens desatualizados e gerem um banco de memórias pós-processado e auditável; o limite de entrada é de 100 sessions e 4.096 caracteres, com execução assíncrona, concluída em minutos a dezenas de minutos, e suporte à observação via streaming. A prévia da pesquisa precisa ser solicitada; por enquanto, apenas o claude-opus-4-7 e o claude-sonnet-4-6 são suportados, e o lançamento oficial ainda não tem data.

ChainNewsAbmedia4h atrás
Comentário
0/400
Sem comentários