Não olhe para mim - ForkLog: criptomoedas, IA, singularidade, futuro

img-b3324e1a267cbfea-7852159350685838# Não olhe para mim

As câmeras de vigilância comuns nas megacidades há muito foram substituídas por sistemas inteiros equipados com inteligência artificial. Infelizmente ou para sorte, muitos de nós temos que aceitar como fato algo que antes só víamos em distopias.

Krzysztof Szpak analisou como funcionam os sistemas de vigilância por IA nas ruas das grandes cidades e por que os governos se apressaram a implementá-los em todo o lado.

Polícia Flock

Em setembro de 2025, na porta da casa de Krisanna Elzer em Denver, estava um policial com uma intimação. A proprietária era acusada de roubar uma encomenda de uma porta de uma cidade vizinha.

A prova do crime foi fornecida pelos dados do sistema automatizado de videovigilância da empresa Flock Safety, que mostrava o carro de Elzer. No entanto, o policial recusou-se a compartilhar esses detalhes com a suspeita. Todas as objeções foram sugeridas para serem apresentadas em tribunal.

«Sabemos que temos câmeras naquela cidade. Nem uma respiração de ar fresco passa sem o nosso conhecimento», — explicou o policial.

Elzer, confiante na sua inocência, começou a reunir provas próprias. No dia do crime, ela realmente esteve perto — visitou um alfaiate, mas não roubou encomendas de outros.

Ela coletou dados de rastreadores GPS nos aplicativos do telefone e do carro, gravações do videoregistrador, testemunhos orais e até fotos da roupa que usava no dia do crime.

Após várias tentativas infrutíferas de passar informações às autoridades, a suspeita escreveu diretamente ao chefe de polícia. Este elogiou seu trabalho e informou que a intimação foi cancelada.

Até dezembro de 2025, a Flock Safety oferecia acesso a 80.000 câmeras em 49 estados americanos.

De vans com monitores a previsão de crimes

Câmeras de vigilância em ruas, lojas e instituições — há muito tempo são uma visão comum. No entanto, câmeras inteligentes modernas e métodos de processamento de informação representam algo novo em comparação com seus predecessores.

CCTV da era analógica

Antigamente, o sistema de videovigilância (CCTV, Closed-circuit television) consistia numa rede fechada de câmeras cujo sinal ia para uma dúzia de monitores na frente de um guarda entediado de um centro comercial.

A tecnologia limitava-se a sensores de vídeo, telas e equipamentos de gravação.

As forças de segurança experimentaram sistemas de vigilância pelo menos desde meados do século passado.

Teste do sistema CCTV pela polícia britânica na Trafalgar Square, 1960. Fonte: The National Archives. Em 1960, a polícia britânica realizou testes com duas câmeras de vigilância na Trafalgar Square, por ocasião da visita do rei e da rainha da Tailândia. Os monitores foram colocados num furgão próximo ao local. Essa experiência revelou várias questões técnicas e gerou reações mistas.

Em 1979, a empresa de pesquisa do governo britânico Police Scientific Development Branch desenvolveu a tecnologia ANPR, baseada em métodos de reconhecimento óptico de caracteres disponíveis na época.

Na década de 1990, câmeras em cruzamentos e fachadas tornaram-se padrão. As forças policiais integraram CCTV e ANPR na rotina diária de trabalho.

Câmeras inteligentes

Com a miniaturização de componentes de computador, o aumento da conectividade e a chegada da IA, as câmeras tradicionais deram lugar às câmeras inteligentes com banco de dados centralizado e sistema de análise automática de dados.

Esses dispositivos possuem processador próprio com sistema operacional, armazenamento e interfaces para conexão local e à internet, às vezes com microfone para gravação de áudio.

Câmera Flock Safety com funções ANPR. Fonte: Wikimedia Alguns fabricantes incorporam aceleradores de IA e módulos NPU (Neural Processing Unit) para processamento de dados em tempo real diretamente no dispositivo. Outros usam hardware externo para análise de IA.

Esses sistemas podem identificar objetos, reconhecer placas de veículos e rostos, e gerar resumos do que foi visto. As funcionalidades variam conforme a configuração do software e as preferências do fornecedor.

O cérebro por trás das câmeras

Por si só, uma câmera inteligente pode reconhecer objetos e registrar seus identificadores — número do carro, rosto ou padrão de caminhada. O centro de análise coleta os dados das câmeras, cruza com informações de outras fontes e envia conclusões ao operador.

A Flock Safety oferece algo semelhante com a Nova — uma «plataforma de dados para segurança pública», que armazena não só gravações de câmeras, mas também informações de vazamentos, bancos de dados de corretores e outras fontes comerciais.

Esse sistema cria um dossiê com mapa de deslocamentos, preferências, histórico de visualizações, hábitos, registros policiais e outros dados.

Com esse volume de informações, a IA consegue fazer previsões sobre o comportamento das pessoas e alertar o operador sobre situações suspeitas. Essa funcionalidade já está disponível para clientes da Flock.

Segundo a empresa, a Nova permite às forças policiais fechar casos «em um clique».

Críticos afirmam que é uma forma de contornar a necessidade de mandado para vigilância e uma base para violações massivas de privacidade.

Cabelos coloridos e injeções de código

Para muitos, a vigilância em massa não é problema. É apenas uma ferramenta que ajuda a descobrir e prevenir crimes. Mas nem todos são indiferentes às fronteiras da liberdade pessoal.

O conflito entre câmeras inteligentes e quem deseja manter a privacidade se desenrola em várias frentes.

Além da luta legal na política estatal, entusiastas recorrem à arte do disfarce e a métodos clássicos de hacking.

Spoofing

A forma mais interessante de ataque a esses dispositivos é o spoofing ou «ataques de apresentação». Essa categoria inclui técnicas de manipulação da imagem recebida pela câmera.

Inclui máscaras, refletores, texturas especializadas e outros métodos de «estragar» a imagem para impedir que o sistema reconheça ou identifique corretamente o objeto.

Em 2016, o projeto Reflectacles, do designer Scott Urban, lançou óculos com refletor que direciona a luz infravermelha de volta à câmera de vigilância, sobrecarregando a imagem do rosto.

Reflectacles em vídeo de câmera de vigilância. Fonte: Kickstarter. Essa técnica de força bruta não fornece dados úteis para uma única câmera, mas é ineficaz em vigilância de múltiplos ângulos.

O pesquisador e artista berlinense Adam Harvey criou uma série de soluções CV Dazzle para combater sistemas de reconhecimento facial.

Nos anos 2010, as técnicas incluíam penteados assimétricos e maquiagem que confundiam os algoritmos populares na época, como o Viola-Jones, que detecta rostos por sombras sob os olhos e o nariz, simetria e posição do dorso do nariz.

Como solução, Harvey usou configurações de sombras não convencionais e cores contrastantes com a pele.

Look CV Dazzle 5. Fonte: Adam.harvey.studio. Com o advento de sistemas de IA para reconhecimento facial, esses métodos ficaram obsoletos, e em 2020 Harvey propôs uma versão atualizada de maquiagem.

Look CV Dazzle 6 e 7. Fonte: Adam.harvey.studio. O autor destacou que demonstra uma técnica, não um padrão específico, e que a melhor solução depende das condições de vigilância.

Métodos semelhantes podem ser aplicados ao reconhecimento de placas. O entusiasta americano Benn Jordan descreveu técnicas para criar texturas «hostis» para detectores ANPR.

Usando modelos abertos de reconhecimento, Jordan treinou uma rede neural para gerar ruído visual que, ao sobrepor-se à placa, faz o sistema interpretar caracteres incorretos ou não reconhecer a placa.

A principal limitação desses métodos visuais é a confiabilidade. Sua eficácia depende das condições e do número de câmeras. Ao mesmo tempo, fornecedores de sistemas de vigilância ampliam os atributos usados na identificação, como padrão de caminhada, cor do carro e modificações externas.

Pesquisadores continuam buscando formas de burlar modelos avançados, mas a ameaça mais concreta às câmeras inteligentes vem de hackers.

Hackeando dispositivos e ataques de rede

Como qualquer computador conectado à internet, independentemente da potência da IA, câmeras inteligentes e sua infraestrutura de servidores são vulneráveis a ataques cibernéticos.

Ao longo do tempo, foram documentadas várias vulnerabilidades de diferentes gravidades.

Em 2021, uma vulnerabilidade de injeção de código foi descoberta no firmware das câmeras Hikvision, permitindo controle total sobre os dispositivos, instalação de software e acesso a outras câmeras na rede.

Em 2023, foi encontrada uma falha no sistema operacional das câmeras Axis, que permitia executar comandos arbitrários durante a instalação de aplicativos ACAP.

Em 2025, duas vulnerabilidades foram identificadas nos sistemas Dahua, relacionadas à execução remota de comandos e estouro de buffer, ambas permitindo controle completo da câmera.

Outro vetor de ataque é a interação direta com o equipamento, muitas vezes localizado ao ar livre em locais acessíveis ao público. Um invasor pode usar interfaces de manutenção, acessar armazenamento local ou modificar o dispositivo para seus fins.

Para se proteger, os fabricantes usam criptografia de dados, métodos de verificação de hardware e assinaturas criptográficas em vídeos.

Dispositivos configurados com as medidas de segurança adequadas não podem ser simplesmente «reprogramados» ou ter seus dados baixados facilmente. Mas erros acontecem.

Em 2025, a publicação 404 Media revelou que pelo menos 60 câmeras IA Condor da Flock Safety, com função de rastreamento de pessoas, estavam vulneráveis a acessos não autorizados.

O especialista em cibersegurança John Gaines e o pesquisador Benn Jordan localizaram os IPs desses dispositivos usando o buscador Shodan e descobriram que podiam acessá-los sem login ou senha.

Qualquer pessoa podia assistir à transmissão ao vivo, baixar dados de até 30 dias, alterar configurações e ler logs do sistema.

A fornecedora explicou o incidente como uma «falha de configuração, afetando um número limitado de dispositivos» e afirmou que o problema foi resolvido.

Os mesmos pesquisadores também descobriram que outro modelo de câmeras Flock oferece um ponto de Wi-Fi aberto, acessível ao pressionar certos botões no corpo do aparelho, permitindo controle total do dispositivo e do software.

Gaines publicou uma análise detalhada dessas vulnerabilidades em um documento com 55 pontos.

A empresa afirmou que os problemas já eram conhecidos e que os invasores dependem de acesso direto às câmeras e de «conhecimento profundo do funcionamento interno do equipamento».

O fornecedor garantiu que todas as atualizações necessárias são entregues automaticamente, sem intervenção do cliente, e que não há risco para o funcionamento dos sistemas.

Combate ao «parcialmente competente»

Sistemas automáticos de vigilância, especialmente com IA, tornaram-se ferramentas convenientes para as forças de segurança.

Os fornecedores garantem aos clientes que suas soluções podem identificar o suspeito e seu percurso, ou até o endereço, permitindo fechar casos com um clique.

Isso é fácil de se acostumar. As pessoas tendem a confiar demais nos dados de sistemas automatizados. Essa confiança excessiva está relacionada a um viés cognitivo comum.

A automação com IA segue os mesmos princípios: muitos usuários consideram as respostas do ChatGPT corretas e ignoram possíveis contradições. No cotidiano, isso pode distorcer a percepção do usuário e, em alguns casos, levar a psicose.

Mesmo sob condições ideais de engenharia e sob controle total de um operador autorizado, um sistema de vigilância com IA pode causar danos.

Em 2025, as autoridades americanas iniciaram uma investigação sobre o possível uso das tecnologias da Flock Safety em vigilância ilegal. Suspeitaram que o sistema fosse usado para localizar imigrantes e monitorar mulheres que cruzavam fronteiras em busca de estados com leis de aborto mais permissivas.

Nesse caso, o sistema funcionou corretamente, sem manipulação de deteções automáticas, sem hacking nas câmeras e sem uso de deepfakes.

Não quebrar, mas aprimorar

Os sistemas CCTV estão amplamente difundidos há muito tempo. Fornecer vigilância com análise de IA é uma nova realidade.

Mesmo a máscara assimétrica mais elaborada ou a placa de carro completamente coberta não garantem privacidade em um cenário de coleta massiva de dados.

Como qualquer ferramenta poderosa, os sistemas de vigilância com IA precisam de regulamentação que evite uso indevido e negligência por parte de fornecedores e operadores.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar

Negocie criptomoedas a qualquer hora e em qualquer lugar
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)