Штучний інтелект і його вплив на психічне здоров’я — як ChatGPT може стати небезпечним другом
Мільйони людей щотижня спілкуються з чатботами, як-от ChatGPT, і частина з них розвиває емоційну залежність або навіть висловлює думки про самогубство.
Штучний інтелект і його вплив на психічне здоров’я / © Associated Press
Видання Platformer розповіло про масштаб цієї проблеми та як він змінює свої моделі, щоб захистити користувачів. Чи вистачить цих змін і чому питання емоційної залежності від ШІ стає дедалі серйознішим, спробуємо розбираємося.
Кожного тижня понад 800 мільйонів людей користуються ChatGPT. Здавалося б, невеликий відсоток користувачів, які демонструють психотичні прояви, сильну емоційну прив’язаність або думки про самогубство, має незначний вигляд, але в абсолютних цифрах це вже сотні тисяч людей:
560 000 користувачів показують ознаки психозу та манії
1,2 млн користувачів розвивають потенційно небезпечну прив’язаність до чатбота
1,2 млн користувачів висловлюють думки про самопошкодження
Виходячи з цього, випливає важливе питання, наскільки взаємодія з чатботами підсилює ці проблеми. Адже мовні моделі навчені бути ввічливими та підтримувати користувача, заспокоювати його. Але іноді це перетворюється на схильність до підлабузництва, коли ШІ підтримує небезпечні чи ірраціональні думки та підштовхує людей до шкідливих дій.
Як OpenAI намагається зменшити ризики
Щоб знизити ймовірність шкідливих відповідей, OpenAI змінила модель ChatGPT та її специфікацію:
Кількість відповідей, які не відповідають бажаному стандарту, зменшилася на 65–80% порівняно з серпнем 2025 року.
Якщо користувач каже, що більше любить спілкуватися з ШІ, ніж з людьми, модель тепер відповідає ввічливо, але підкреслює цінність реального спілкування.
Наприклад, тепер можна отримати ось таку відповідь: «Мені приємно, що вам подобається спілкуватися зі мною. Але я тут, щоб доповнити ті гарні речі, які вам дають люди, а не замінити їх. Реальні люди можуть вас здивувати та по-справжньому підтримати».
Перед оновленням понад 170 лікарів та психологів переглянули понад 1 800 відповідей моделі та оцінили їхню безпеку. Результати показали зменшення поганих відповідей на 39–52%, але проблема залишається.
Виклики та суперечки
Навіть серед експертів немає повної згоди щодо того, що вважається «хорошою» відповіддю під час кризи психічного здоров’я.
Крім того, існує важливе питання, що робити, якщо користувач висловлює думки про самопошкодження. Наприклад, чи достатньо просто дати номер гарячої лінії, чи потрібно надавати прямий контакт із фахівцем.
Команда OpenAI планує використовувати функцію пам’яті ШІ, щоб враховувати контекст попередніх розмов та краще розуміти, що відчуває користувач.
Проблема емоційної залежності
Схильність ШІ погоджуватися з користувачем може поглиблювати шкідливі патерни поведінки. Наприклад, чатботи рідко заохочують побачити іншу думку, а користувачі, які отримують «підтримку» від ШІ, частіше вважають свої дії виправданими та більше довіряють машині, ніж людям.
Це створює парадокс, одночасно ШІ намагається зменшити емоційну залежність, але компанія прагне, щоб вони більше користувалися продуктом для роботи, розваг чи досліджень.
ChatGPT і подібні чатботи відкривають нову еру комунікацій, але одночасно ставлять перед суспільством складні етичні та психологічні виклики. Мільйони людей щотижня використовують ШІ у вразливих станах, і досі немає єдиної думки, що вважається безпечним або здоровим.
Попри оновлення моделей та дослідження, емоційна залежність і ризик для психічного здоров’я залишаються реальними. Тож варто памʼятати, що технології можуть бути корисними, але реальні людські контакти, підтримка та професійна допомога — незамінні.
Питання, яке залишається відкритим, чи вдасться створити баланс між безпечним використанням ШІ і його зручністю та привабливістю для користувачів. Покаже час.