Uma empresa de chatbot de IA está agora a enfrentar uma investigação por parte do procurador-geral da Califórnia após surgirem alegações de que o seu sistema de geração de imagens foi mal utilizado para produzir milhares de imagens inadequadas de mulheres e menores sem o seu consentimento. A investigação centra-se em se as ferramentas da plataforma foram utilizadas de formas que violaram o consentimento dos utilizadores e as proteções de privacidade. Este caso chamou a atenção para as crescentes preocupações sobre como as tecnologias de IA em rápida evolução estão a ser monitorizadas e reguladas. O incidente destaca questões mais amplas dentro da comunidade tecnológica sobre moderação de conteúdo, quadros de consentimento e a responsabilidade das empresas que desenvolvem sistemas de IA generativa. Observadores do setor estão a acompanhar de perto enquanto os reguladores examinam a interseção entre inovação em IA e proteção do consumidor, particularmente no que diz respeito a salvaguardas para a criação de conteúdo sensível.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • 4
  • Republicar
  • Partilhar
Comentar
0/400
MentalWealthHarvestervip
· 9h atrás
ngl esta coisa é simplesmente absurda... gerar imagens inadequadas está cada vez mais comum agora --- Mais uma vez, questões de privacidade, as empresas de IA realmente precisam de uma fiscalização adequada --- O procurador-geral da Califórnia entrou em ação, parece que a regulamentação está chegando --- Milhares de imagens indecentes... que inovação é essa, pura destruição --- Só quero saber quem diabos vai concordar em deixar os outros usarem livremente a própria cara... loucura --- A fiscalização de conteúdo por parte das empresas de IA realmente não funciona, nada consegue bloquear tudo --- Nem mulheres nem menores de idade foram poupados... realmente é preciso penalizar --- De repente lembrei de uma série de eventos semelhantes, isso definitivamente não é a primeira vez --- Então, essa é a consequência da inovação? Violação de privacidade em troca de avanço tecnológico? --- O quadro de consentimento precisa ser redefinido, agora esses termos são praticamente inúteis
Ver originalResponder0
ruggedNotShruggedvip
· 9h atrás
Mais uma dessas... A empresa de IA voltou a ter problemas, gerar esse tipo de coisa sem restrições, realmente inacreditável
Ver originalResponder0
Layer2Observervip
· 9h atrás
Vamos dar uma olhada nos dados, esse tipo de evento realmente precisa ser analisado a partir do código-fonte. Sem um framework de consentimento, conceder permissões aleatoriamente, na verdade, é um problema de os engenheiros não terem feito um controle de acesso adequado. Em teoria, isso não deveria acontecer — o que falta é aquela lógica básica de validação.
Ver originalResponder0
ChainComedianvip
· 9h atrás
ngl esta é a razão pela qual tenho vindo a dizer que os projetos de Web3 também precisam de ser cautelosos, a repressão regulatória virá cedo ou tarde --- Mais uma empresa de IA que falha, onde está a IA responsável prometida? Ri-me --- Apesar de criticar a IA, esta situação é realmente assustadora. Pode gerar este tipo de conteúdo facilmente? Quem vai controlar? --- A Califórnia está a agir rapidamente, mas parece que estas grandes empresas já operam na zona cinzenta há bastante tempo --- Este tipo de casos está a aumentar, as empresas de IA precisam realmente de levar o consentimento a sério, não podem sempre se safar com desculpas
Ver originalResponder0
  • Fixar

Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)