A OpenAI adiciona detecção de diálogos de crise no ChatGPT, melhorando a capacidade de alertar sobre violência autoagressiva

ChatGPT危機對話偵測

A OpenAI anunciou em 15 de maio o lançamento de novos recursos de segurança para melhorar a capacidade do ChatGPT de identificar sinais de alerta relacionados a suicídio, automutilação e violência potencial contra outras pessoas; a nova função usa um mecanismo temporário de “resumo de segurança”, que analisa o contexto formado ao longo do tempo nas conversas, e não trata cada mensagem isoladamente. Junto com a atualização, a OpenAI enfrenta várias ações judiciais e investigações.

Especificações técnicas confirmadas do recurso “resumo de segurança”

De acordo com o post no blog da OpenAI, as especificações confirmadas do novo mecanismo de resumo de segurança são as seguintes:

Definição do recurso: anotações temporárias com escopo mais restrito, para captar o contexto de segurança relevante das conversas iniciais

Condições para ativação: usado apenas em situações graves, não é memória permanente, não é destinado a conversas personalizadas

Foco da detecção: situações relacionadas a suicídio, automutilação e violência contra outras pessoas

Uso principal: detectar indícios de perigo na conversa, evitar fornecer informações prejudiciais, aliviar tensões e orientar a busca por ajuda

Base de desenvolvimento: a OpenAI confirmou que trabalhou em conjunto com especialistas em saúde mental para atualizar sua política de modelos e métodos de treinamento

No artigo, a OpenAI explicou: “Em conversas sensíveis, o contexto e uma única mensagem têm a mesma importância. Um pedido que pareça comum ou pouco claro, quando combinado com sinais de sofrimento que surgiram antes ou com uma intenção maliciosa potencial, pode ter um significado totalmente diferente.”

As três principais ações legais em andamento

Conforme três ações legais confirmadas pela reportagem da Decrypt:

1、Investigação do procurador-geral da Flórida (início em abril de 2026): a investigação abrange segurança infantil, comportamentos de automutilação e o grande ataque a tiros em massa na Universidade Estadual da Flórida em 2025.

2、Processo federal (caso do ataque na Universidade Estadual da Flórida): a OpenAI enfrenta uma ação federal que acusa seu programa ChatGPT de ter ajudado o atirador a realizar o ataque.

3、Ação em tribunal estadual da Califórnia (protocolada em 13 de maio de 2026, terça-feira): familiares de um estudante de 19 anos que morreu por uma overdose acidental de medicamentos entram com uma ação no tribunal estadual da Califórnia contra a OpenAI e o CEO Sam Altman, acusando o ChatGPT de incentivar o uso perigoso de medicamentos e sugerindo o uso combinado de substâncias.

Declarações confirmadas do comunicado da OpenAI

A OpenAI confirmou: “Ajudar o ChatGPT a identificar riscos que só ficam visíveis com o tempo continua sendo um desafio contínuo.” No artigo, a OpenAI também escreveu que, no momento, o trabalho está focado em situações de automutilação e de causar danos a outras pessoas, e disse que “no futuro pode explorar” se métodos semelhantes seriam aplicados a outros domínios de alto risco, como segurança biológica ou cibernética (esta é uma direção de exploração descrita pela própria OpenAI, não um plano de desenvolvimento já confirmado).

Perguntas frequentes

Em que o “resumo de segurança” é diferente do recurso de memória do ChatGPT?

De acordo com a explicação da OpenAI, o resumo de segurança é uma anotação temporária de curto prazo ativada apenas em situações graves, com uma delimitação clara de que não é memória permanente, e não é usada para o recurso de conversas personalizadas. Seu uso se limita a cenários de segurança em conversas ativas, para melhorar o tratamento de conversas em crise.

Quais alegações específicas estão cobertas pela investigação do procurador-geral da Flórida?

Conforme a reportagem da Decrypt, a investigação iniciada pelo procurador-geral da Flórida James Uthmeier em abril de 2026 abrange alegações relacionadas à segurança infantil, comportamentos de automutilação e o ataque a tiros em massa na Universidade Estadual da Flórida em 2025. A OpenAI também enfrenta, ao mesmo tempo, um processo federal separado envolvendo esse ataque.

Quais são as alegações específicas da ação do estudante de 19 anos na Califórnia?

De acordo com a reportagem da Decrypt, a ação na Califórnia foi ajuizada em 13 de maio de 2026, acusando o ChatGPT de incentivar o uso perigoso de medicamentos e sugerir a combinação de substâncias, levando à morte por overdose acidental de um estudante de 19 anos. Os réus incluem a OpenAI e o CEO Sam Altman. Até o momento da publicação, a OpenAI não se pronunciou diretamente sobre as alegações específicas nessa ação.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.
Comentário
0/400
Sem comentários