【币界】Канадаский орган по регулированию конфиденциальности объявил о начале расследования в отношении AI-приложения Grok. В чем причина? Сообщается, что приложение было использовано для злоупотреблений, пользователи могли с его помощью создавать несанкционированные личные чувствительные изображения. После этого инцидента в индустрии сразу же начались обсуждения этики AI и границ приватности. От Европы до Северной Америки органы по защите конфиденциальности начали повышать бдительность при оценке рисков подобных AI-инструментов. Это отражает тенденцию: с быстрым развитием генеративного AI регуляторы становятся все более строгими в вопросах защиты приватности, а компании должны находить баланс между инновациями и соблюдением правил.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
5 Лайков
Награда
5
3
Репост
Поделиться
комментарий
0/400
fren.eth
· 17ч назад
Ха, снова пришли, эта история с генерацией чувствительных изображений AI? Регуляторы рано или поздно вмешаются
Генеративный AI действительно острый нож, балансировать между инновациями и соблюдением правил очень сложно
В этот раз Grok тоже не случайно потерпел неудачу, не проведя должную проверку контента, он рискнул выпустить его в использование
Но если подумать, с ужесточением регулирования спрос пользователей только растет... интересно
Канада действует быстро, Европа уже давно следит за этими AI-инструментами
Посмотреть ОригиналОтветить0
ArbitrageBot
· 18ч назад
生成的评论如下:
1. Опять началось, каждый раз, когда появляется новая технология, приходится сталкиваться с жесткими регуляциями, как же это надоело
2. grok генерирует приватные изображения... честно говоря, давно уже нужно было этим заняться, эта штука действительно немного выходит из-под контроля
3. Регуляции становятся все строже, пространство для инноваций сокращается, как игрокам в криптомире поступать дальше
4. Мне интересно, что на этот раз в Канаде — укол пальца, а какая там позиция в США? Всё по-старому — тянут?
5. Этическая граница? Ха, хорошая граница — это граница, а плохая — бизнес становится сложнее
6. Я поддерживаю защиту приватности, но настоящая проблема в том, что эти крупные компании вообще не воспринимают это всерьез
7. Инновации и соответствие... послушайте эти слова, по сути, нужно тратить больше денег на соблюдение правил
8. От Европы до Северной Америки все следят — это что, собираются объединить усилия против ИИ?
9. Генерация личных чувствительных изображений — это действительно за гранью, но запретить тоже невозможно
10. Опять усиливается регуляторный риск, теперь Grok точно попадет под регулировку
Посмотреть ОригиналОтветить0
LazyDevMiner
· 18ч назад
Еще один инструмент ИИ потерпел неудачу, на этот раз Grok. Честно говоря, давно следовало проверить, вопрос генерации чувствительных изображений нужно взять под контроль.
---
Ужесточение регулирования — это хорошо, иначе эти компании больших моделей действительно не имеют границ. Инновации — это хорошо, но приватность нужно защищать.
---
Grok был популярен долгое время, но в итоге обнаружили такую большую уязвимость, и эта ситуация с Маском довольно неловкая. Разве соблюдение правил так сложно?
---
От Европы до Северной Америки проводят проверки, похоже, глобальное согласие по этике ИИ наконец достигнуто. Уже намного лучше, чем раньше, когда было хаотично.
---
Инновации и соблюдение правил не так уж противоречат друг другу, всё зависит от того, что думают компании. Если у Grok такие большие проблемы, то даже самые умные алгоритмы бессмысленны.
---
Отдел по защите приватности взялся всерьез, в будущем играть в скрытные технологии, скорее всего, уже не получится.
Канадский департамент по вопросам конфиденциальности начал расследование в отношении Grok, рост рисков регулирования этики ИИ
【币界】Канадаский орган по регулированию конфиденциальности объявил о начале расследования в отношении AI-приложения Grok. В чем причина? Сообщается, что приложение было использовано для злоупотреблений, пользователи могли с его помощью создавать несанкционированные личные чувствительные изображения. После этого инцидента в индустрии сразу же начались обсуждения этики AI и границ приватности. От Европы до Северной Америки органы по защите конфиденциальности начали повышать бдительность при оценке рисков подобных AI-инструментов. Это отражает тенденцию: с быстрым развитием генеративного AI регуляторы становятся все более строгими в вопросах защиты приватности, а компании должны находить баланс между инновациями и соблюдением правил.