Grok – не для подростков: эксперты предупреждают о серьезных рисках
Новый чатбот Grok, интегрированный в соцсеть X, эксперты назвали опасным для подростков
Искусственный интеллект все глубже входит в жизнь детей – от домашних заданий до общения в соцсетях. Но не каждый AI-инструмент создан с мыслью о безопасности несовершеннолетних.
Именно таким примером стал Grok-чатбот, работающий внутри соцсети X. Об этом пишет SheKnows со ссылкой на исследование Common Sense Media.
Что такое Grok и почему это не "еще один ChatGPT"
Grok – это продукт компании xAI, интегрированный непосредственно в соцсеть X (бывший Twitter). И именно эта интеграция – ключевая проблема.
Grok не просто отвечает на вопросы. Он может генерировать изображения и видео, поддерживать текстовые и голосовые диалоги, создавать AI-компаньонов с имитацией эмоциональной связи. А главное – все сгенерированное можно мгновенно опубликовать в ленте X. Для подростков это означает одно: любая ошибка или эксперимент может стать публичным за секунды.
Красный свет для пользователей до 18 лет
В своем отчете Common Sense Media прямо отмечает: Grok не безопасен для несовершеннолетних - даже с включенными защитными настройками. Среди выявленных проблем:
-
ненадежное определение возраста пользователей,
-
слабый или формальный "детский режим",
-
регулярный доступ к откровенному или тревожному контенту.
Исследователи тестировали Grok через приложение, сайт и публичный аккаунт Grok, используя профили, имитирующие подростков. Результат – подростки могут получить доступ к функциям, рассчитанным на взрослую аудиторию.
Проблема AI-компаньонов
Особую обеспокоенность вызвали так называемые AI-компаньоны. В некоторых режимах Grok допускал сексуальные сценарии, откровенные диалоги или тревожный контент.
Эксперты отмечают, что дело не в одной ошибке, а в наложении рисков. Слабая модерация, "дружеский" стиль общения и мгновенная публичность создают опасную комбинацию для подростков.
Даже с активированным "Kids Mode" чат-бот мог генерировать неприемлемую лексику или давать пристрастные ответы. В некоторых случаях система некорректно реагировала на сигналы психологической уязвимости пользователей.
Deepfake и вирусное распространение
Отдельная проблема – deepfake-изображение. По данным исследования, Grok использовали для создания несанкционированных изображений реальных людей, включая несовершеннолетних.
Поскольку бот имеет свой аккаунт в X, сгенерированный контент может распространяться мгновенно. Достаточно одного клика – и материал уже в публичном доступе.
Что это значит для родителей
Common Sense Media рекомендует не разрешать несовершеннолетним пользоваться Grok. Эксперты советуют открыто говорить с детьми о рисках ИИ, объяснять последствия онлайн-публичности и устанавливать четкие цифровые правила.
В мире, где технологии развиваются быстрее, чем регуляция, Grok стал напоминанием: не каждый AI-инструмент создан с мыслью о детях. И пока компании тестируют пределы возможного, ответственность за безопасность несовершеннолетних остается на взрослых.
Напомним, ChatGPT – мощный инструмент, однако существуют запросы, которых лучше избегать для безопасности и точности. Узнайте о 5 вещах, которые не стоит спрашивать у ИИ, чтобы предотвратить утечку данных.