Na sexta-feira, poucas horas depois de apoiar publicamente a rival Anthropic por manter uma posição firme contra as exigências do Pentágono, o CEO da OpenAI, Sam Altman, anunciou que a sua empresa tinha fechado um acordo com o Pentágono. A decisão veio pouco depois de o governo dos EUA ter tomado a medida altamente incomum de designar a Anthropic como um “risco na cadeia de abastecimento”.
A decisão da OpenAI suscitou críticas de muitos investigadores de IA e especialistas em políticas tecnológicas, embora a empresa tenha afirmado que alcançou limitações no seu acordo relativas à vigilância de cidadãos americanos e armas autónomas letais, que a Anthropic queria incluir no seu contrato, mas que o Pentágono recusou.
Vídeo Recomendado
Um dos principais pontos de discórdia foi a vigilância massiva doméstica. Especialistas há muito alertam que a IA avançada é capaz de recolher dados dispersos, que individualmente parecem inofensivos — como a localização de uma pessoa, finanças, histórico de buscas — e combiná-los numa imagem abrangente da vida de qualquer pessoa, de forma automática e em grande escala. O CEO da Anthropic, Dario Amodei, afirmou que este tipo de vigilância massiva impulsionada por IA apresenta riscos graves e novos para as “liberdades fundamentais” das pessoas e que “a lei ainda não acompanhou o rápido crescimento das capacidades da IA”.
Apesar de a OpenAI ter declarado num post no blog que tinha chegado a um acordo com o Pentágono de modo que a sua tecnologia não fosse usada para vigilância massiva doméstica ou sistemas de armas autónomas diretas, os dois limites rígidos que a Anthropic recusou abandonar, alguns especialistas jurídicos e em políticas levantaram questões sobre uma possível lacuna na lei.
Parte da disputa depende da legalidade obscura da análise em grande escala de dados de americanos, que é legal sob as atuais leis dos EUA, mesmo que pareça indistinguível de vigilância massiva.
“Neste momento, sob a lei dos EUA, é legal para as autoridades governamentais comprarem informações disponíveis comercialmente de intermediários de dados e outros terceiros,” disse Samir Jain, vice-presidente de Políticas do Center for Democracy & Technology. “Se comprarem grandes quantidades de dados e permitirem que a IA os analise, podem, na prática, estar a envolver-se em vigilância massiva de americanos através desse processo. Atualmente, isso não é restringido ou proibido por lei.”
A OpenAI afirma que as suas “linhas vermelhas” são aplicadas através de sistemas técnicos que planeja construir, bem como através da linguagem do seu contrato com o Pentágono. Segundo um blog divulgado pela empresa, o contrato permite ao Departamento de Defesa usar a IA “para todos os fins legais, de acordo com a lei aplicável, requisitos operacionais e protocolos de segurança e supervisão bem estabelecidos,” enquanto proíbe explicitamente a monitorização sem restrições das informações privadas dos americanos.
O problema é que o que é considerado “legal” pode mudar. O contrato da OpenAI aponta para leis existentes e políticas do Departamento de Defesa, mas essas políticas podem ser alteradas no futuro. “Nada do que eles divulgaram impediria que essas políticas fossem alteradas no futuro,” disse Jain.
Alguns críticos argumentam que as autoridades de inteligência já permitem formas de vigilância que a OpenAI afirma proibir. Mike Masnick, fundador do Techdirt, escreveu nas redes sociais que o acordo “permite absolutamente a vigilância doméstica,” referindo-se à Ordem Executiva 12333, uma autoridade de longa data que permite às agências de inteligência coletar comunicações fora dos Estados Unidos, o que pode incluir dados de americanos quando adquiridos incidentalmente.
Parte do debate centra-se em certas porções da lei dos EUA que regulam diferentes atividades de segurança nacional. As ações militares dos EUA são geralmente reguladas pelo Título 10 do Código Federal dos EUA. Isso inclui o trabalho da Agência de Inteligência de Defesa e do Comando Cibernético dos EUA para apoiar operações militares. Mas parte do trabalho da DIA está sob uma porção diferente da lei dos EUA, o Título 50 do Código dos EUA, que regula principalmente atividades de inteligência encobertas e ações secretas. O trabalho da Agência Central de Inteligência e da Agência de Segurança Nacional também costuma estar sob o Título 50. Algumas das atividades mais sensíveis do Título 50, especialmente ações encobertas, são conduzidas principalmente nos bastidores e requerem uma decisão presidencial.
Num post no blog publicado no fim de semana, a OpenAI partilhou um relato detalhado do seu acordo com o Pentágono e, segundo uma publicação nas redes sociais de um conhecido investigador da OpenAI, Noam Brown, o chefe de parcerias de segurança nacional da empresa, Katarina Mulligan, disse a Brown que o contrato da OpenAI não cobre trabalhos do Título 50 por parte da comunidade de inteligência, uma das principais preocupações dos críticos. Os representantes da OpenAI não responderam imediatamente a um pedido de comentário da Fortune.
No entanto, académicos jurídicos têm observado que a distinção entre atividades do Título 10 e do Título 50 está a tornar-se cada vez mais difusa. Na prática, as duas podem parecer muito semelhantes, e ambas podem envolver a análise de dados sobre atores estrangeiros ou o rastreamento de padrões. Mas essa sobreposição cria uma zona cinzenta para empresas como a OpenAI: um contrato que proíbe atividades do Título 50 não impede automaticamente que agências do Título 10, como a DIA, usem IA para analisar conjuntos de dados comerciais ou não classificados.
“Se eles dizem que o sistema deles não pode ser usado para qualquer atividade do Título 50, isso reduz o âmbito de atividades para as quais o sistema de IA pode ser utilizado,” disse Jain. “Mas isso não resolve o problema.”
Junte-se a nós na Cimeira de Inovação no Local de Trabalho da Fortune de 19 a 20 de maio de 2026, em Atlanta. A próxima era de inovação no local de trabalho já chegou — e o antigo manual está a ser reescrito. Neste evento exclusivo e de alta energia, os líderes mais inovadores do mundo irão reunir-se para explorar como a IA, a humanidade e a estratégia convergem para redefinir, mais uma vez, o futuro do trabalho. Inscreva-se agora.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
O acordo do Pentágono com a OpenAI levanta novas questões sobre IA e vigilância em massa
Na sexta-feira, poucas horas depois de apoiar publicamente a rival Anthropic por manter uma posição firme contra as exigências do Pentágono, o CEO da OpenAI, Sam Altman, anunciou que a sua empresa tinha fechado um acordo com o Pentágono. A decisão veio pouco depois de o governo dos EUA ter tomado a medida altamente incomum de designar a Anthropic como um “risco na cadeia de abastecimento”.
A decisão da OpenAI suscitou críticas de muitos investigadores de IA e especialistas em políticas tecnológicas, embora a empresa tenha afirmado que alcançou limitações no seu acordo relativas à vigilância de cidadãos americanos e armas autónomas letais, que a Anthropic queria incluir no seu contrato, mas que o Pentágono recusou.
Vídeo Recomendado
Um dos principais pontos de discórdia foi a vigilância massiva doméstica. Especialistas há muito alertam que a IA avançada é capaz de recolher dados dispersos, que individualmente parecem inofensivos — como a localização de uma pessoa, finanças, histórico de buscas — e combiná-los numa imagem abrangente da vida de qualquer pessoa, de forma automática e em grande escala. O CEO da Anthropic, Dario Amodei, afirmou que este tipo de vigilância massiva impulsionada por IA apresenta riscos graves e novos para as “liberdades fundamentais” das pessoas e que “a lei ainda não acompanhou o rápido crescimento das capacidades da IA”.
Apesar de a OpenAI ter declarado num post no blog que tinha chegado a um acordo com o Pentágono de modo que a sua tecnologia não fosse usada para vigilância massiva doméstica ou sistemas de armas autónomas diretas, os dois limites rígidos que a Anthropic recusou abandonar, alguns especialistas jurídicos e em políticas levantaram questões sobre uma possível lacuna na lei.
Parte da disputa depende da legalidade obscura da análise em grande escala de dados de americanos, que é legal sob as atuais leis dos EUA, mesmo que pareça indistinguível de vigilância massiva.
“Neste momento, sob a lei dos EUA, é legal para as autoridades governamentais comprarem informações disponíveis comercialmente de intermediários de dados e outros terceiros,” disse Samir Jain, vice-presidente de Políticas do Center for Democracy & Technology. “Se comprarem grandes quantidades de dados e permitirem que a IA os analise, podem, na prática, estar a envolver-se em vigilância massiva de americanos através desse processo. Atualmente, isso não é restringido ou proibido por lei.”
A OpenAI afirma que as suas “linhas vermelhas” são aplicadas através de sistemas técnicos que planeja construir, bem como através da linguagem do seu contrato com o Pentágono. Segundo um blog divulgado pela empresa, o contrato permite ao Departamento de Defesa usar a IA “para todos os fins legais, de acordo com a lei aplicável, requisitos operacionais e protocolos de segurança e supervisão bem estabelecidos,” enquanto proíbe explicitamente a monitorização sem restrições das informações privadas dos americanos.
O problema é que o que é considerado “legal” pode mudar. O contrato da OpenAI aponta para leis existentes e políticas do Departamento de Defesa, mas essas políticas podem ser alteradas no futuro. “Nada do que eles divulgaram impediria que essas políticas fossem alteradas no futuro,” disse Jain.
Alguns críticos argumentam que as autoridades de inteligência já permitem formas de vigilância que a OpenAI afirma proibir. Mike Masnick, fundador do Techdirt, escreveu nas redes sociais que o acordo “permite absolutamente a vigilância doméstica,” referindo-se à Ordem Executiva 12333, uma autoridade de longa data que permite às agências de inteligência coletar comunicações fora dos Estados Unidos, o que pode incluir dados de americanos quando adquiridos incidentalmente.
Parte do debate centra-se em certas porções da lei dos EUA que regulam diferentes atividades de segurança nacional. As ações militares dos EUA são geralmente reguladas pelo Título 10 do Código Federal dos EUA. Isso inclui o trabalho da Agência de Inteligência de Defesa e do Comando Cibernético dos EUA para apoiar operações militares. Mas parte do trabalho da DIA está sob uma porção diferente da lei dos EUA, o Título 50 do Código dos EUA, que regula principalmente atividades de inteligência encobertas e ações secretas. O trabalho da Agência Central de Inteligência e da Agência de Segurança Nacional também costuma estar sob o Título 50. Algumas das atividades mais sensíveis do Título 50, especialmente ações encobertas, são conduzidas principalmente nos bastidores e requerem uma decisão presidencial.
Num post no blog publicado no fim de semana, a OpenAI partilhou um relato detalhado do seu acordo com o Pentágono e, segundo uma publicação nas redes sociais de um conhecido investigador da OpenAI, Noam Brown, o chefe de parcerias de segurança nacional da empresa, Katarina Mulligan, disse a Brown que o contrato da OpenAI não cobre trabalhos do Título 50 por parte da comunidade de inteligência, uma das principais preocupações dos críticos. Os representantes da OpenAI não responderam imediatamente a um pedido de comentário da Fortune.
No entanto, académicos jurídicos têm observado que a distinção entre atividades do Título 10 e do Título 50 está a tornar-se cada vez mais difusa. Na prática, as duas podem parecer muito semelhantes, e ambas podem envolver a análise de dados sobre atores estrangeiros ou o rastreamento de padrões. Mas essa sobreposição cria uma zona cinzenta para empresas como a OpenAI: um contrato que proíbe atividades do Título 50 não impede automaticamente que agências do Título 10, como a DIA, usem IA para analisar conjuntos de dados comerciais ou não classificados.
“Se eles dizem que o sistema deles não pode ser usado para qualquer atividade do Título 50, isso reduz o âmbito de atividades para as quais o sistema de IA pode ser utilizado,” disse Jain. “Mas isso não resolve o problema.”
Junte-se a nós na Cimeira de Inovação no Local de Trabalho da Fortune de 19 a 20 de maio de 2026, em Atlanta. A próxima era de inovação no local de trabalho já chegou — e o antigo manual está a ser reescrito. Neste evento exclusivo e de alta energia, os líderes mais inovadores do mundo irão reunir-se para explorar como a IA, a humanidade e a estratégia convergem para redefinir, mais uma vez, o futuro do trabalho. Inscreva-se agora.