У останні тижні користувачі ChatGPT помітили зростання кількості згадок про гоблінів у відповідях штучного інтелекту. Це викликало зацікавленість та обговорення серед спільноти, оскільки багато хто задавався питанням, чому саме ця тема стала такою популярною. Представники компанії OpenAI пояснили даний феномен змінами в алгоритмах навчання моделі. Зокрема, вони зазначили, що нова версія системи отримала доступ до більшої кількості текстових матеріалів і фольклорних джерел, де образ гобліна
Компанія OpenAI пояснила, чому її моделі GPT-5 почали частіше згадувати гоблінів, гремлінів та інших істот у відповідях. Про цепишеWired.
Перші ознаки проблеми OpenAI помітила після запуску GPT-5.1. Тоді користувачі почали скаржитися, що модель іноді поводиться занадто фамільярно. Після перевірки з’ясувалося, що використання слова «goblin» у ChatGPT зросло на 175 %, а «gremlin» — на 52 %.
Згодом у компанії встановили, що проблема була пов’язана з Nerdy — одним зі стилів відповідей ChatGPT. Його задумували як грайливий «ботанський» стиль відповідей — із більш вільною мовою, жартами й увагою до дивних деталей. Саме цей стиль давав непропорційно багато згадок про гоблінів: хоча на нього припадало лише 2,5 % відповідей ChatGPT, він генерував 66,7 % усіх згадок слова «goblin».
OpenAI з’ясувала, що під час навчання відповіді з метафорами про істот — зокрема гоблінів і гремлінів — неусвідомлено отримували вищі оцінки. Через це модель почала частіше використовувати такі слова, а згодом ця мовна звичка поширилася й на інші стилі відповідей.
Серед інших проблемних згадок у компанії також назвали єнотів, тролів, огрів і голубів. Водночас більшість згадок про жаб, за результатами аудиту, були доречними.
У березні, після запуску GPT-5.4, OpenAI прибрала стиль відповідей Nerdy і переглянула навчальні дані, через які модель могла надто часто використовувати метафори про істот. Компанія також змінила систему оцінювання відповідей, щоб такі формулювання більше не отримували перевагу під час навчання.
Це мало зменшити кількість недоречних згадок, однак GPT-5.5 почали навчати ще до того, як OpenAI остаточно встановила причину проблеми. Тому під час тестування нової моделі в Codex «гоблінські» метафори з’явилися знову.