Anthropic тестує «моральні принципи» для своїх моделей Claude

Наука та технології | 10.05.2026 14:26

Anthropic тестує «моральні принципи» для своїх моделей Claude
Anthropic тестує «моральні принципи» для своїх моделей Claude

Компанія Anthropic активно працює над вдосконаленням своїх штучних інтелектів, зокрема моделі Claude, впроваджуючи нові підходи до формування моральних принципів. У рамках цього процесу розробники тестують різноманітні сценарії та етичні дилеми, щоб забезпечити більш відповідальну поведінку моделей у взаємодії з користувачами. Цей крок є особливо важливим на фоні глобальних дискусій про безпеку і етику штучного інтелекту. Як зазначають експерти, розвиток технологій вимагає не лише техніч

Спочатку ця історія починається з хибного образу “чорної скриньки”, яка насправді виявляється не штучним інтелектом, а Каабою – чорним кубом у центрі Заповідної мечеті в Мецці. До завоювання Мекки Мухаммедом Кааба виконувала роль своєрідного місця зберігання численних священних символів різних вірувань регіону. Для людей того часу вона була універсальним духовним центром, до якого зверталися за захистом і благословенням у найрізноманітніших життєвих ситуаціях.

Автор проводить паралель із тим, що сьогодні робить Anthropic зі своєю моделлю Claude. Минулого тижня компанія разом із OpenAI брала участь у круглому столі в Нью-Йорку під назвою “Заповіт Віри та ІІ”, де зібралися представники різних релігійних і духовних організацій, включно з юдейськими, індуїстськими, сикхськими, православними та іншими громадами.

Ця зустріч стала продовженням попередніх ініціатив Anthropic, яка вже проводила консультації з християнськими лідерами, намагаючись обговорити можливий “моральний розвиток” своїх моделей. Компанія заявляла, що прагне залучити представників різних віровчень і філософських традицій, щоб краще зрозуміти етичні межі поведінки штучного інтелекту.

За даними Associated Press, сам захід був організований міжнародною неурядовою організацією, яка займається питаннями міжконфесійного діалогу та безпеки спільнот. При цьому OpenAI та Anthropic нібито виступили ініціаторами контактів із релігійними представниками. Водночас залишається незрозумілим, чи ці зустрічі є частиною єдиної довгострокової програми, чи окремими ініціативами різних команд.

У самих обговореннях не було вироблено спільних “релігійних правил” для штучного інтелекту. Натомість ідеться про спробу знайти більш загальні етичні принципи, які могли б допомогти моделі ухвалювати рішення в складних або неоднозначних ситуаціях, де чітких інструкцій просто не існує. Це і є основою так званої “конституції Claude” – набору принципів, які мають формувати поведінку моделі.

Деякі експерти, однак, ставляться до таких підходів скептично. Вони вважають, що ідея “навчити мораль” через консультації з релігійними лідерами може виглядати привабливо, але не гарантує реальної передбачуваності чи безпеки системи. На їхню думку, це радше спроба знайти символічне підґрунтя для складної технічної проблеми, ніж її практичне вирішення.

У підсумку залишається відкритим питання: чи може штучний інтелект справді наблизитися до універсальних моральних принципів через подібні діалоги, чи це лише спосіб компаній показати, що вони максимально серйозно ставляться до етичної сторони розвитку технологій.

Джерела

Anthropic тестує «моральні принципи» для своїх моделей Claude — (iTechua)

Всі новини: Наука та технології