ChatGPT у ліжку та на побаченнях: чому використання ШІ стало головним редфлегом 2026 року
Експерти та користувачі Мережі пояснюють, чому довіра до чатбота в особистих питаннях стала «кринжем».
Штучний інтелект / © Credits
У світі сучасних знайомств з’явилася нова соціальна напруженість. Використання ChatGPT для написання біо в дейтинг-застосунках, пошук порад під час сварок або навіть побутових відповідей дедалі частіше сприймають не як зручність, а як тривожний сигнал.
Про це пише редакторка British Vogue Дейзі Джонс.
Для багатьох користувачів застосунків для знайомств зізнання у використанні ШІ стає фінальною крапкою у спілкуванні. 30-річна Ейлід розповідає, як видалила симпатичного чоловіка з метчів лише через одну згадку в профілі.
«Я одразу видалила його. Якщо людина навіть не здатна думати самостійно, то як вона зможе бути уважною до вас. До того ж це дуже тривожний сигнал, коли людям байдуже до того, який вплив ШІ має на планету», — каже вона.
Схожий досвід має 35-річна Нілу. Вона припинила розмову з чоловіком у кафе після того, як він зізнався, що ChatGPT допомагає йому «розуміти, як говорити з італійцями». На думку жінки, передавати навички мислення машині — це шлях до деградації спілкування.
Люди, які активно ходять на побачення, вбачають у використанні чатботів для вирішення людських конфліктів «внутрішню слабкість». 36-річна Стефані вважає, що це свідчить про брак лідерських якостей.
«Виникає відчуття, ніби людина намагається схитрувати та уникнути справжньої роботи. Якщо вона використовує ШІ, щоб отримати пораду про те, як поводитися в різних ситуаціях. Я вважаю, що ми, люди, маємо розбиратися з життям самостійно», — зазначає вона у коментарі Vogue.
Проблема не оминає і тривалі стосунки. Одна з героїнь матеріалу зізналася, що її відштовхує одержимість хлопця чатботом. Вона непокоїться, що в разі сварки він питатиме у алгоритму, як залагодити конфлікт, замість того, щоб поговорити щиро.
Ціна за поради робота
Окрім психологічних аспектів, активісти наголошують на екологічній ціні. Одне дослідження в журналі Patterns порівнює споживання води системами ШІ зі світовим споживанням бутильованої води.
«Ви вбиваєте планету лише тому, що вам ліньки зайнятися самоаналізом», — наголошує Стефані.
Також науковці попереджають про упередженість чатботів. Дослідження у журналі Science показало, що 11 провідних моделей були схильні підлещуватися до користувачів, схвалюючи їхні дії на 49% частіше, ніж люди. Це створює ілюзію правоти навіть у випадках обману, що є критичним для емоційної підтримки.
Хоча для більшості використання ШІ в особистих цілях — це «крінж», існують і винятки. Для нейровідмінних людей ШІ може бути корисним інструментом для розуміння підтексту чи прихованого змісту складних речень. Проте навіть вони погоджуються, що використовувати ШІ для соціальних ситуацій — це крайність.
Експерти резюмують: культурний спротив використанню ШІ в романтичній сфері лише посилюватиметься. Фахівці побоюються, що надмірна залежність від алгоритмів створить покоління соціально незграбних людей, які не зможуть написати навіть елементарного листа без сторонньої допомоги.
Нагадаємо, на початку 2026 року в Інтернеті набрала обертів небезпечна тенденція — використання штучного інтелекту для створення фальшивих, але реалістичних зображень людей (deepfake).
Як повідомляло видання Woman&Home, користувачі платформи X почали застосовувати AI-чатбот Grok для маніпуляції фотографіями реальних людей — змінювали зовнішність, одяг або створювали принизливі та сексуалізовані образи. Найчастіше жертвами ставали жінки.
Попри формальні обмеження, користувачі знаходили способи їх обходити. У деяких випадках це викликало міжнародний скандал і призвело до розслідування у Великій Британії. Після цього платформа X оголосила про посилення правил і часткові обмеження функцій.
Втім, експерти наголошують: проблема не зникла. Йдеться про нову форму цифрового насильства, адже такі зображення легко створюються, швидко поширюються і можуть завдати серйозної шкоди репутації та психологічному стану людей.