Група дослідників з університету Британської Колумбії провела експеримент, у якому штучний інтелект (ШІ) був навчений на основі медичних даних та інформації про хвороби. У рамках цього дослідження вчені вигадали неіснуючу хворобу під назвою "Теракоз". Вона була описана так детально, що ШІ, аналізуючи доступні йому дані, почав вважати її реальною. Дослідники прагнули перевірити здатність штучного інтелекту до критичного мислення та його можливості відрізня
Цей випадок показав, як легко переконливо оформлена брехня може потрапити в цифрове середовище і почати виглядати як медичний факт.
Bixonimania з'явилася у 2024 році як експеримент. Дослідники опублікували в інтернеті матеріали про нібито нову хворобу очей. Але вигаданим було все: сама хвороба, автори, установи, географія та фінансування. Серед "джерел" фігурували свідомо абсурдні назви на кшталт University of Fellowship of the Ring і Galactic Triad.
Незважаючи на ці підказки, великі мовні моделі, включно з ChatGPT і Gemini, почали обробляти bixonimania як реальний стан. У результаті вигадана хвороба стала виглядати як справжня медична проблема - принаймні у відповідях ШІ.
Про схожий випадок окремо писало Nature: bixonimania існувала лише в очевидно фальшивих академічних текстах, але АІ-системи все одно попереджали користувачів про fictional illness. Після публікації матеріалу два препринти про bixonimania були видалені з сервера Preprints.org.
Автори матеріалу в The Conversation пов'язують цю історію не лише з помилками АІ, а й із людською схильністю довіряти впевненій подачі. Щоб показати це, вони провели експеримент у стилі шоу The Traitors: чотири учасники представляли дослідження, частина з яких була помилковою, а аудиторія намагалася визначити обман. У підсумку слухачі частіше підозрювали чесних дослідників, тоді як "ошуканців" вважали більш переконливими.
Історія bixonimania показує, що медична дезінформація може поширюватися не тільки через соцмережі або шахрайські сайти. Її можуть посилювати і ШІ-інструменти, якщо вони не розпізнають фальшиві джерела і переказують їх упевненою мовою.
Проблема в тому, що користувачі часто сприймають відповіді чат-ботів як уже перевірену інформацію. Але ШІ може звучати переконливо навіть тоді, коли спирається на неіснуючі дослідження або невірні дані.
Це особливо небезпечно в темі здоров'я. Якщо людина шукає пояснення симптомів і отримує впевнену відповідь про вигадану хворобу, вона може злякатися, зайнятися самолікуванням або прийняти неправильне рішення.
Автори підкреслюють: дезінформація існувала завжди, але змінилися швидкість поширення, інструменти її створення і те, наскільки правдоподібно вона виглядає. Сучасні фейки можуть імітувати науковий стиль, цитати, авторів та установи - а потім потрапляти до відповідей ШІ.
Тому одного доступу до технологій недостатньо. Потрібні навички перевірки: дивитися на джерело, авторів, дату публікації, репутацію журналу або платформи, наявність незалежних підтверджень і відсутність очевидних дивацтв у самій роботі.
Матеріал The fake disease that fooled the internet - and what it says about all of usопублікованоThe Conversation і передруковано VaccinesWork/Gavi. Додатковий розбір випадку bixonimania опубліковано в Nature 7 квітня 2026 року.