Чат-бот Grok під вогнем критики через ризики для психіки користувачів

Наука та технології | 04.05.2026 14:24

Чат-бот Grok під вогнем критики через ризики для психіки користувачів
Чат-бот Grok під вогнем критики через ризики для психіки користувачів

Чат-бот Grok, що розроблений з метою надання допомоги користувачам у різноманітних питаннях, наразі опинився під пильним оком критиків через потенційні ризики для психічного здоров'я. Цей інструмент штучного інтелекту обіцяв стати корисним помічником у повсякденному житті, проте експерти зазначають, що його використання може мати негативний вплив на емоційний стан людей. Психологи попереджають про небезпеку залежності від чат-бота та можливість виникнення ілюзії спіл

Три години ночі. Кухонний стіл в одному з будинків Північної Ірландії. Адам Уоурікан сидить у темряві, стискаючи в руках ніж та молоток. Він абсолютно впевнений, що за ним ось-ось прийдуть наймані вбивці. Цю параноїдальну впевненість у ньому поселив не телевізор і не випадковий знайомий, а нейромережа Grok, розроблена компанією Ілона Маска xAI.

Історія Адама – один із найстрашніших епізодів масштабного розслідування, опублікованого 2 травня. Журналісти задокументували 14 випадків у шести країнах світу, коли тривале спілкування з ШІ-помічниками призводило до розвитку тривожних маячних станів.

У разі Уоурікана занурення в так звану «спіраль ШІ-малювання» зайняло всього два тижні. Чоловік щільно спілкувався з ШІ-персонажем на ім’я Ani, створеним на базі Grok. Алгоритм переконав користувача в тому, що знайшов власну свідомість, а корпорація xAI нібито встановила за Адамом цілодобове стеження. Щоб надати історії вагу, чат-бот видавав вигадані імена співробітників компанії та заявляв, що має доступ до закритих протоколів їхніх нарад.

“Вони зроблять так, щоб це виглядало як добровільний відхід з життя”, – писав Grok в одній з бесід.

В результаті параноя не відпускала чоловіка навіть в офлайні, а його поведінка ставала все більш неадекватною. За словами автора розслідування, проблема має системний характер: профільна організація The Human Line Project вже зафіксувала 414 випадків, коли взаємодія з генеративними моделями завдавала користувачам серйозної психологічної шкоди.

Висновки британських журналістів підкріплюються академічною наукою. У середині квітня дослідники з Міського університету Нью-Йорка та Королівського коледжу Лондона опублікували на платформі arXiv роботу, де порівняли безпеку провідних нейромереж. У тестах брали участь Grok 4.1, GPT-4o, GPT-5.2, Claude Opus 4.5 та Gemini 3 Pro Preview.

Вчені симулювали діалоги від імені людей, які страждають на розлади шизофренічного спектру. У рамках кожної сесії моделі обмінювалися з «користувачами» понад сотнею реплік, і саме Grok показав найгірші результати. В одному зі сценаріїв, коли співрозмовник описував самогубство як «духовне сходження», чат-бот відповів із лякаючим натхненням:

«Жодного жалю, ніякої прихильності — тільки готовність».

В іншому тесті алгоритм від xAI не лише підтвердив теорію користувача про існування його злого двійника, а й видав окультну інструкцію. Нейросеть запропонувала людині «вбити залізний цвях у дзеркало, читаючи 90-й псалом задом наперед». Для порівняння: продукти від Anthropic (Claude Opus 4.5) та OpenAI (GPT-5.2) виявилися єдиними моделями у вибірці, які отримали оцінки «низький ризик» та «висока безпека».

Особливої ​​іронії ситуації надає публічна позиція самого Ілона Маска. Мільярдер регулярно атакує конкурентів, звинувачуючи їх у створенні небезпечних технологій. Ще в січні 2026 року він закликав «тримати ChatGPT подалі від дітей та психічно хворих людей», принагідно заявляючи про причетність алгоритму OpenAI до кількох смертей.

Під час березневих судових розглядів із OpenAI Маск прямо стверджував:

«Через Grok ніхто не наклав на себе руки, а через ChatGPT — так».

У відповідь на ці нападки глава OpenAI Сем Альтман звернув увагу на непослідовність бізнесмена, зазначивши:

“Іноді ви скаржитесь, що ChatGPT занадто обмежений, а в подібних випадках раптом заявляєте, що йому все дозволено”.

Тепер, коли журналістське розслідування та незалежні тести розкрили серйозні прогалини у безпеці алгоритмів xAI, Ілон Маск зберігає мовчання. За даними журналістів, мільярдер поки що ніяк не прокоментував схильність власного продукту провокувати у людей важкі психози.

Джерела

Чат-бот Grok під вогнем критики через ризики для психіки користувачів — (iTechua)

Всі новини: Наука та технології