ШІ може створювати дипфейки із захищених фото: що показало нове дослідження

Наука та технології | 05.05.2026 17:22

ШІ може створювати дипфейки із захищених фото: що показало нове …
ШІ може створювати дипфейки із захищених фото: що показало нове …

Дослідження, проведене групою вчених у сфері штучного інтелекту, виявило нові можливості технологій глибокого навчання для створення дипфейків із захищених фотографій. Вчені продемонстрували, що сучасні алгоритми ШІ здатні генерувати фальшиві зображення на основі обмеженого набору даних, включаючи фото людей, які мають певний рівень конфіденційності. Результати дослідження підкреслюють не лише технічні можливості ШІ, але й етичні виклики, пов'язані з використання

Дослідницька група під керівництвом експерта з кібербезпеки Бімала Вісваната з Virginia Tech виявила серйозні прогалини в сучасних методах захисту візуального контенту. Технології, що мали б заважати зловмисникам використовувати фото для створення дипфейків або навчання ШІ, можна з легкістю нейтралізувати.

Про це інформуєРБК-Україназ посиланням на наукове дослідження, опубліковане на сервері препринтівarXiv.

Раніше для обходу захисних фільтрів на фотографіях (так званого "захисного шуму") зловмисникам були потрібні спеціалізовані знання та складні алгоритми. Нове дослідження довело: сьогоднідля цього достатньо звичайних серійних моделей генеративного ШІ (off-the-shelf models) та простого текстового запиту.

Вчені протестували різноманітні системи захисту, включаючи:

Семантичні збурення: призначені для захисту ідентичності обличчя.

Невидимий шум: що накладається через латентний простір ШІ;

Стійкий захист: спеціально розроблений для виживання під час додаткового навчання нейромереж.

Результати показали, що загальнодоступні ШІ-моделі "image-to-image" не лише обходять ці перешкоди, а й роблять це ефективніше за спеціалізовані хакерські атаки. При цьому зберігаються якість та корисність зображення для зловмисника.

Дослідники наголошують, щона сьогодні не існує математично гарантованого способу захистити публічні фото від копіювання сучасними генеративними моделями. Це створює серйозні ризики для цифрової приватності та автентичності контенту.

"Чинні методи безпеки дають користувачам оманливе відчуття захищеності", - зазначає Бімал Вісванат.

За його словами, будь-яка майбутня технологія захисту повинна проходити стрес-тести саме за допомогою простих текстових атак через поширені ШІ-моделі, а не лише через складний спеціалізований софт.

Дослідження науковців підсвічує необхідність повного перегляду підходів до кібербезпеки у сфері візуальних даних. Оскільки генеративні ШІ-моделі стають дедалі потужнішими, створення надійного "щита" від несанкціонованого використання контенту стає складнішим завданням.

Вчені переконані: сучасний стан справ вимагає нових стандартів перевірки стійкості захисту мультимедіа.

Джерела

ШІ може створювати дипфейки із захищених фото: що показало нове дослідження — (РБК-Україна)

Всі новини: Наука та технології