Компанія OpenAI анонсувала впровадження нової функції в ChatGPT, яка має на меті підвищити безпеку користувачів. Відтепер система буде здатна виявляти ознаки ризику самоушкодження у своїх співрозмовників і автоматично попереджати близьких людей про можливу загрозу. Цей крок є частиною ширшої ініціативи з покращення відповідальності технологій штучного інтелекту та забезпечення психічного здоров'я користувачів. Функція працює за допомогою аналізу текстових запитів, які
Механізм «Довірений контакт» (Trusted Contact) дає змогу повнолітнім користувачам призначити у своєму акаунті людину, яка отримає сповіщення у разі потенційно небезпечних розмов про самоушкодження чи суїцид,йдетьсяу анонсі OpenAI.
В компанії пояснили, що якщо система виявить ознаки серйозної загрози, ChatGPT спершу запропонує користувачу самостійно звернутися до свого довіреного контакту.
Паралельно сервіс може автоматично надіслати цій особі повідомлення електронною поштою, SMS або через застосунок, в якому буде прохання зв’язатися з користувачем. При цьому деталі листування не будуть розкриватися для захисту конфіденційності.
Повідомлення. Фото: OpenAI
Запровадження такої функції відбувається не просто так. На компанію масово подають судові позови від родин людей, які вчинили самогубство та іншу шкоду після спілкування з чат-ботом ШІ. Вони стверджують, що саме GPT підштовхує користувачів до подібних дій та допомагає у їх плануванні.