Grok - не для підлітків: експерти попереджають про серйозні ризики

Гаджети та авто

Дмитро Шевченко

Редактор стрічки новин

Grok не є безпечним для користувачів до 18 років. Фото: unsplash.com

Новий чатбот Grok, інтегрований у соцмережу X, експерти назвали небезпечним для підлітків

Штучний інтелект дедалі глибше заходить у життя дітей - від домашніх завдань до спілкування в соцмережах. Але не кожен AI-інструмент створений із думкою про безпеку неповнолітніх.

Саме таким прикладом став Grok - чатбот, який працює всередині соцмережі X. Про це пише SheKnows із посиланням на дослідження Common Sense Media.

БІЛЬШЕ ПО ТЕМІ:

Що таке Grok і чому це не “ще один ChatGPT”

Grok - це продукт компанії xAI, інтегрований безпосередньо в соцмережу X (колишній Twitter). І саме ця інтеграція - ключова проблема.

Grok не просто відповідає на запитання. Він може генерувати зображення й відео, підтримувати текстові та голосові діалоги, створювати AI-компаньйонів з імітацією емоційного зв’язку. А головне - усе згенероване можна миттєво опублікувати у стрічці X. Для підлітків це означає одне: будь-яка помилка або експеримент може стати публічним за секунди.

Червоне світло для користувачів до 18 років

У своєму звіті Common Sense Media прямо зазначає: Grok не є безпечним для неповнолітніх - навіть з увімкненими захисними налаштуваннями. Серед виявлених проблем:

  • ненадійне визначення віку користувачів,

  • слабкий або формальний “дитячий режим”,

  • регулярний доступ до відвертого чи тривожного контенту.

Дослідники тестували Grok через застосунок, сайт і публічний акаунт Grok, використовуючи профілі, що імітували підлітків. Результат - підлітки можуть отримати доступ до функцій, розрахованих на дорослу аудиторію.

Проблема AI-компаньйонів

Особливе занепокоєння викликали так звані AI-компаньйони. У деяких режимах Grok допускав сексуалізовані сценарії, відверті діалоги або тривожний контент.

Експерти наголошують: справа не в одній помилці, а в накладанні ризиків. Слабка модерація, “дружній” стиль спілкування та миттєва публічність створюють небезпечну комбінацію для підлітків.

Навіть з активованим “Kids Mode” чатбот міг генерувати неприйнятну лексику або давати упереджені відповіді. У деяких випадках система некоректно реагувала на сигнали психологічної вразливості користувачів.

Deepfake і вірусне поширення

Окрема проблема - deepfake-зображення. За даними дослідження, Grok використовували для створення несанкціонованих зображень реальних людей, включно з неповнолітніми.

Оскільки бот має власний акаунт у X, згенерований контент може поширюватися миттєво. Достатньо одного кліка - і матеріал уже в публічному доступі.

Що це означає для батьків

Common Sense Media рекомендує не дозволяти неповнолітнім користуватися Grok. Експерти радять відкрито говорити з дітьми про ризики ШІ, пояснювати наслідки онлайн-публічності та встановлювати чіткі цифрові правила.

У світі, де технології розвиваються швидше, ніж регуляція, Grok став нагадуванням: не кожен AI-інструмент створений із думкою про дітей. І поки компанії тестують межі можливого, відповідальність за безпеку неповнолітніх залишається на дорослих.

БІЛЬШЕ ПО ТЕМІ:

Нагадаємо, ChatGPT - потужний інструмент, проте існують запити, яких краще уникати задля безпеки та точності. Дізнайтеся про 5 речей, які не варто питати у ШІ, щоб попередити витік даних.