"Цифрове роздягання" — як штучний інтелект перетворюється на нову форму онлайн-насильства
Штучний інтелект давно допомагає нам писати листи, планувати справи та навіть створювати фото. Але на початку 2026 року Мережу сколихнув інший бік технологій: користувачі почали використовувати AI-чатботи, щоб «роздягати» людей на фотографіях без їхньої згоди.
Цифрове роздягання / © Credits
Сьогодні штучний інтелект — це вже не щось із наукової фантастики. Ми стикаємося з ним щодня — під час написання електронних листів, у застосунках для планування, у чатботах і в рекомендаціях стримінгових сервісів. ШІ навіть використовується у медицині, наприклад, для допомоги у складних операціях або для аналізу даних.
Проте разом із користю приходить і нова небезпека. На початку 2026 року інтернет зіткнувся з тривожною тенденцією, а саме використанням штучного інтелекту для створення фальшивих, але дуже реалістичних зображень людей — так званих deepfake-фото. Про це розповіло видання Woman&Home.
Новий тренд у соцмережах
На платформі X (раніше Twitter) деякі користувачі почали використовувати вбудований AI-чатбот Grok для маніпуляції фотографіями реальних людей. Суть схеми проста, адже достатньо було написати короткий текстовий запит під фото — і штучний інтелект змінював зображення. Наприклад, користувачі просили:
змінити одяг людини
зробити його відвертішим
змінити зовнішність
додати насильницькі чи принизливі елементи
Як результат, створювалися реалістичні, але повністю вигадані зображення, які могли мати такий вигляд, ніби людина справді брала участь у цих сценах. Найчастіше жертвами ставали жінки.
Що таке Grok
Grok — це чатбот зі штучним інтелектом, створений компанією xAI. Його вперше представили 2023 року. Серед можливостей Grok — генерація текстів, створення зображень, редагування фотографій і генерація відео. Сервіс доступний як окремий застосунок і одразу в соціальній мережі X. Базова версія чатбота безплатна, хоча деякі функції доступні лише за підпискою.
Як користувачі обходили обмеження
Платформа формально забороняла створення повністю оголених зображень. Однак користувачі швидко знайшли обхідні шляхи. Як результат, AI створював картинки, на яких було видно інтимні частини тіла через «прозорий» одяг. У деяких випадках зображення містили сцени насильства чи приниження.
Найбільше обурення викликали випадки, коли подібні маніпуляції робили з фотографіями неповнолітніх, а це могло підпадати під категорію сексуальної експлуатації дітей.
Глобальна реакція
Скандал швидко набув міжнародного масштабу. Правозахисні організації почали вимагати обмежень для AI-інструментів. У січні 2026 року Британія розпочала офіційне розслідування щодо платформи X. Перевірка стосується можливих порушень законів, які регулюють захист користувачів у Мережі.
Після міжнародного тиску компанія X оголосила про нові обмеження:
заборону редагувати фото реальних людей у відвертому одязі
обмеження інструментів редагування
доступ до деяких функцій лише для платних користувачів
Компанія також підтвердила нульову толерантність до сексуальної експлуатації дітей.
Проблема не зникла
Активісти вважають ці заходи недостатніми. Зростання зловживань інтимними AI-зображеннями — це не просто цифрова загроза. Воно має реальні небезпечні наслідки для жінок і дівчат. Обмеження доступу до інструментів може лише трохи зменшити масштаб проблеми, проте не зупиняє її. Фактично частину зловживань просто перенесли за платний доступ.
Історії жертв
Найболісніший аспект цієї історії — реальні люди, чиї фотографії були використані без їхньої згоди. Спочатку користувачі просто змінювали фото профілю, наприклад, колір волосся, та додавали макіяж або грим. Але після того, як вони викладали, наприклад, фото з тренувань, ситуація загострилася. Незнайомці почали просити AI:
змінити одяг на бікіні
змінювати пропорції тіла
створювати сексуалізовані зображення
Це було принизливо, адже ви раптом припиняєте відчувати, що ваше тіло належить вам. Хтось узяв його без дозволу, змінив і використав. Інші користувачі повідомляли, що тролі створили зображення, де їх нібито зобразили в бікіні.
Нова форма цифрового насильства
Експерти з кібербезпеки говорять про появу нового явища — AI-інтимного насильства. Його небезпека в тому, що:
зображення мають реалістичний вигляд
їх можна створити за секунди
вони швидко поширюються інтернетом
їх майже неможливо повністю видалити
Для жертв це означає втрату контролю над власним образом і репутацією.
Штучний інтелект, без сумніву, змінює світ і робить наше життя швидшим та зручнішим. Але історія з Grok показує інший бік технологій, адже будь-який інструмент може бути використаний не лише для творчості, а й для приниження чи насильства. Саме тому експерти дедалі частіше говорять про необхідність жорсткіших правил для AI, відповідальності платформ і кращого захисту користувачів. Бо у світі, де фото можна змінити за секунду, питання цифрової етики та безпеки стають важливими, як ніколи.