ChatGPT і Claude можуть "зливати" ваші чати: що виявили науковці

Наука та технології | 07.05.2026 18:25

ChatGPT і Claude можуть "зливати" ваші чати: що виявили науковці
ChatGPT і Claude можуть "зливати" ваші чати: що виявили науковці

Дослідження, проведене науковцями, виявило потенційні ризики конфіденційності при використанні штучного інтелекту, зокрема моделей ChatGPT та Claude. Вчені звернули увагу на те, що ці системи можуть мати можливість «зливати» дані користувачів під час обробки запитів. Це означає, що чати і особисті повідомлення можуть бути доступними третім особам або використовуватися для навчання моделей без відома користувачів. Науковці зазначають, що хоча компанії-розробники стверджують про захист даних та їх анонім

Дослідження інституту IMDEA Networks виявило, що популярні ШІ-системи, як-от ChatGPT, Claude та Grok, використовують приховані трекери, що можуть розкривати зміст приватних бесід третім сторонам.

Про це інформуєРБК-Україна, посилаючись на наукове дослідження, опубліковане наGitHub.

Дослідники ідентифікувалитри критичні проблеми:

Деякі системи мають слабкий контроль доступу. Наприклад, наявність прямого посилання на чат дозволяє будь-кому - включно з рекламними трекерами - бачити його вміст.

Так, сервісиGrok та Perplexity передають URL-адреси розмов трекерам Meta Pixel. Ба більше,Grok може розкривати навіть дослівний текст повідомлень через метадані Open Graph, які збирає TikTok.

Як зазначає співавтор дослідження Гільєрмо Суарес-Тангіль, ці практики є продовженням бізнес-моделей, заснованих на зборі даних, але тепер вони перекочували в екосистему генеративного ШІ.

Комбінація файлів cookie, зашифрованих адрес електронної пошти та методів серверного відстеження дозволяє рекламним компаніям ідентифікувати користувача.

Навіть якщо ви не вказуєте своє ім'я у чаті, трекери здатні поєднати активність у ШІ-системі з вашим загальним цифровим профілем.

"Більшість користувачів не має можливості дізнатися, що це відбувається; в інтерфейсі немає нічого видимого, що підказало б їм про це. Відмова від необов’язкових файлів cookie допомагає у деяких випадках, але наше дослідження показує, що цього не завжди достатньо", - зазначає науковець Анікет Гіріш.

Дослідження показало, що наявні елементи керування приватністю в інтерфейсах часто вводять користувачів в оману. Політики конфіденційності визнають обмін даними з "діловими партнерами", однак ніде чітко не сказано, що частиною цієї інформації є самі розмови.

Юрист Хорхе Гарсія Ерреро, який консультував команду науковців, порівнює цю ситуацію з відомими дисклеймерами про помилки ШІ.

"Попередження про те, що наша найчутливіша інформація може потрапити до рекламної індустрії, заслуговує на такий самий рівень уваги, як і всюдисуще застереження "ШІ може помилятися, будь ласка, перевіряйте відповіді", - говорить фахівець.

Наразі автори дослідження називають свої висновки попередніми, проте вони вже сигналізують про необхідність посилення регулювання ШІ з боку держави (зокрема в межах GDPR).

Поки платформи не змінять свої підходи на системному рівні, користувачам радять бути максимально обережними:не вводити персональні дані, не ділитися паролями чи фінансовою інформацією, навіть якщо чатбот здається "дружнім" співрозмовником, що підтверджує повну приватність діалогу.

Джерела

ChatGPT і Claude можуть "зливати" ваші чати: що виявили науковці — (РБК-Україна)

Всі новини: Наука та технології