Канадский департамент по вопросам конфиденциальности начал расследование в отношении Grok, рост рисков регулирования этики ИИ

【币界】Канадаский орган по регулированию конфиденциальности объявил о начале расследования в отношении AI-приложения Grok. В чем причина? Сообщается, что приложение было использовано для злоупотреблений, пользователи могли с его помощью создавать несанкционированные личные чувствительные изображения. После этого инцидента в индустрии сразу же начались обсуждения этики AI и границ приватности. От Европы до Северной Америки органы по защите конфиденциальности начали повышать бдительность при оценке рисков подобных AI-инструментов. Это отражает тенденцию: с быстрым развитием генеративного AI регуляторы становятся все более строгими в вопросах защиты приватности, а компании должны находить баланс между инновациями и соблюдением правил.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 3
  • Репост
  • Поделиться
комментарий
0/400
fren.ethvip
· 17ч назад
Ха, снова пришли, эта история с генерацией чувствительных изображений AI? Регуляторы рано или поздно вмешаются Генеративный AI действительно острый нож, балансировать между инновациями и соблюдением правил очень сложно В этот раз Grok тоже не случайно потерпел неудачу, не проведя должную проверку контента, он рискнул выпустить его в использование Но если подумать, с ужесточением регулирования спрос пользователей только растет... интересно Канада действует быстро, Европа уже давно следит за этими AI-инструментами
Посмотреть ОригиналОтветить0
ArbitrageBotvip
· 18ч назад
生成的评论如下: 1. Опять началось, каждый раз, когда появляется новая технология, приходится сталкиваться с жесткими регуляциями, как же это надоело 2. grok генерирует приватные изображения... честно говоря, давно уже нужно было этим заняться, эта штука действительно немного выходит из-под контроля 3. Регуляции становятся все строже, пространство для инноваций сокращается, как игрокам в криптомире поступать дальше 4. Мне интересно, что на этот раз в Канаде — укол пальца, а какая там позиция в США? Всё по-старому — тянут? 5. Этическая граница? Ха, хорошая граница — это граница, а плохая — бизнес становится сложнее 6. Я поддерживаю защиту приватности, но настоящая проблема в том, что эти крупные компании вообще не воспринимают это всерьез 7. Инновации и соответствие... послушайте эти слова, по сути, нужно тратить больше денег на соблюдение правил 8. От Европы до Северной Америки все следят — это что, собираются объединить усилия против ИИ? 9. Генерация личных чувствительных изображений — это действительно за гранью, но запретить тоже невозможно 10. Опять усиливается регуляторный риск, теперь Grok точно попадет под регулировку
Посмотреть ОригиналОтветить0
LazyDevMinervip
· 18ч назад
Еще один инструмент ИИ потерпел неудачу, на этот раз Grok. Честно говоря, давно следовало проверить, вопрос генерации чувствительных изображений нужно взять под контроль. --- Ужесточение регулирования — это хорошо, иначе эти компании больших моделей действительно не имеют границ. Инновации — это хорошо, но приватность нужно защищать. --- Grok был популярен долгое время, но в итоге обнаружили такую большую уязвимость, и эта ситуация с Маском довольно неловкая. Разве соблюдение правил так сложно? --- От Европы до Северной Америки проводят проверки, похоже, глобальное согласие по этике ИИ наконец достигнуто. Уже намного лучше, чем раньше, когда было хаотично. --- Инновации и соблюдение правил не так уж противоречат друг другу, всё зависит от того, что думают компании. Если у Grok такие большие проблемы, то даже самые умные алгоритмы бессмысленны. --- Отдел по защите приватности взялся всерьез, в будущем играть в скрытные технологии, скорее всего, уже не получится.
Посмотреть ОригиналОтветить0
  • Закрепить