ШІ навчили говорити "я не знаю": як це зменшує галюцинації у відповідях

Наука та технології | 12.05.2026 19:21

ШІ навчили говорити "я не знаю": як це зменшує галюцинації …
ШІ навчили говорити "я не знаю": як це зменшує галюцинації …

Штучний інтелект (ШІ) продовжує еволюціонувати, і однією з нових стратегій його вдосконалення стало навчання моделей говорити "я не знаю" у випадках, коли вони не мають достатньо інформації для надання точної відповіді. Це рішення покликане значно зменшити так звані "галюцинації", які виникають, коли ШІ генерує неправдиву або неперевірену інформацію. Галюцинації в контексті ШІ відбуваються тоді, коли моделі обробки природної мови створюють фактично

Дослідники з KAIST розробили методику, яка вчить нейромережі ідентифікувати незнайому інформацію та знижувати рівень впевненості у сумнівних ситуаціях.

Про це інформуєРБК-Україна, посилаючись на наукове дослідження, опубліковане у фаховому вісникуNature Machine Intelligence.

Група дослідників під керівництвом професора Се-Бума Пайка з'ясувала, щокорінь проблеми захований у методі "випадкової ініціалізації", який використовується майже у всіх моделях глибинного навчання.

Нейромережі ще до початку роботи з реальними даними схильні демонструвати високу впевненість навіть у випадкових сигналах.Ця базова установка зберігається під час тренування і згодом провокує галюцинації у генеративного ШІ.

"Впроваджуючи ключові принципи розвитку мозку, ШІ може розпізнавати стан власних знань у спосіб, подібний до людського. Це важливо, адже допомагає ШІ розуміти, коли він не впевнений або може помилятися, а не просто покращувати частоту правильних відповідей", - зазначає професор Пайк.

Рішення підказала біологія: людський мозок формує нейронні зв'язки через спонтанну активність ще до народження, коли зовнішні подразники відсутні. Науковці перенесли цей досвід у цифрову площину, впровадившифазу warm-up (розминки):

Навчання на шумі: перед роботою з реальними об'єктами алгоритм короткочасно тренують на випадковому наборі даних, що не мають сенсу.

Налаштування невизначеності: під час цього процесу ШІ адаптує рівень своєї впевненості до мінімуму, фактично вивчаючи стан "я поки нічого не знаю".

Коригування бази: після такої підготовки модель починає навчання з чистого аркуша, де її впевненість у відповіді прямо пропорційна якості отриманих знань.

Застосування нової стратегії дозволило ШІ значно краще розпізнавати дані, які відрізняються від навчальної вибірки (out-of-distribution detection). У ситуаціях, де звичайна модель впевнено б помилилася, оновлений алгоритм сигналізує про високий рівень невизначеності.

"Фактично це крок до створення метакогніції у машин - здатності розрізняти "що я знаю" та "чого я не знаю", - вважають науковці.

Дослідники наголошують, що такий підхід не просто підвищує точність відповідей, а й робить поведінку ШІ прогнозованою.

Вчені переконані: технологія може бути застосована до будь-якої архітектури глибокого навчання, і це підвищить загальну надійність систем штучного інтелекту в усьому світі.

Джерела

ШІ навчили говорити "я не знаю": як це зменшує галюцинації у відповідях — (РБК-Україна)

Всі новини: Наука та технології