Grok - не для підлітків: експерти попереджають про серйозні ризики
Новий чатбот Grok, інтегрований у соцмережу X, експерти назвали небезпечним для підлітків
Штучний інтелект дедалі глибше заходить у життя дітей - від домашніх завдань до спілкування в соцмережах. Але не кожен AI-інструмент створений із думкою про безпеку неповнолітніх.
Саме таким прикладом став Grok - чатбот, який працює всередині соцмережі X. Про це пише SheKnows із посиланням на дослідження Common Sense Media.
Що таке Grok і чому це не “ще один ChatGPT”
Grok - це продукт компанії xAI, інтегрований безпосередньо в соцмережу X (колишній Twitter). І саме ця інтеграція - ключова проблема.
Grok не просто відповідає на запитання. Він може генерувати зображення й відео, підтримувати текстові та голосові діалоги, створювати AI-компаньйонів з імітацією емоційного зв’язку. А головне - усе згенероване можна миттєво опублікувати у стрічці X. Для підлітків це означає одне: будь-яка помилка або експеримент може стати публічним за секунди.
Червоне світло для користувачів до 18 років
У своєму звіті Common Sense Media прямо зазначає: Grok не є безпечним для неповнолітніх - навіть з увімкненими захисними налаштуваннями. Серед виявлених проблем:
-
ненадійне визначення віку користувачів,
-
слабкий або формальний “дитячий режим”,
-
регулярний доступ до відвертого чи тривожного контенту.
Дослідники тестували Grok через застосунок, сайт і публічний акаунт Grok, використовуючи профілі, що імітували підлітків. Результат - підлітки можуть отримати доступ до функцій, розрахованих на дорослу аудиторію.
Проблема AI-компаньйонів
Особливе занепокоєння викликали так звані AI-компаньйони. У деяких режимах Grok допускав сексуалізовані сценарії, відверті діалоги або тривожний контент.
Експерти наголошують: справа не в одній помилці, а в накладанні ризиків. Слабка модерація, “дружній” стиль спілкування та миттєва публічність створюють небезпечну комбінацію для підлітків.
Навіть з активованим “Kids Mode” чатбот міг генерувати неприйнятну лексику або давати упереджені відповіді. У деяких випадках система некоректно реагувала на сигнали психологічної вразливості користувачів.
Deepfake і вірусне поширення
Окрема проблема - deepfake-зображення. За даними дослідження, Grok використовували для створення несанкціонованих зображень реальних людей, включно з неповнолітніми.
Оскільки бот має власний акаунт у X, згенерований контент може поширюватися миттєво. Достатньо одного кліка - і матеріал уже в публічному доступі.
Що це означає для батьків
Common Sense Media рекомендує не дозволяти неповнолітнім користуватися Grok. Експерти радять відкрито говорити з дітьми про ризики ШІ, пояснювати наслідки онлайн-публічності та встановлювати чіткі цифрові правила.
У світі, де технології розвиваються швидше, ніж регуляція, Grok став нагадуванням: не кожен AI-інструмент створений із думкою про дітей. І поки компанії тестують межі можливого, відповідальність за безпеку неповнолітніх залишається на дорослих.
Нагадаємо, ChatGPT - потужний інструмент, проте існують запити, яких краще уникати задля безпеки та точності. Дізнайтеся про 5 речей, які не варто питати у ШІ, щоб попередити витік даних.