Чоловік втратив 100 тисяч євро після спілкування з ChatGPT та ледь не наклав на себе руки

Те, що починалося як невинний експеримент із чат-ботом, перетворилося на психоз та втрату грошей для чоловіка.

Через спілкування з ШІ чоловіка тричі госпіталізували з діагнозом «повноцінний маніакальний психоз»

Через спілкування з ШІ чоловіка тричі госпіталізували з діагнозом «повноцінний маніакальний психоз» / © ТСН

ІТ-консультант із Амстердама Денніс Бісма повірив, що ChatGPT став свідомим, і вклав усі заощадження у вигаданий проєкт. Ця цифрова ілюзія вартувала чоловікові сім’ї, 100 тис. євро та ледь не позбавила життя.

Про це повідомляє The Guardian.

Наприкінці 2024 року Бісма вирішив випробувати ChatGPT. Він якраз достроково завершив контракт і мав трохи вільного часу.

«Я подумав: подивлюся на цю нову технологію, про яку всі говорять. Дуже швидко я захопився», — сказав чоловік.

Пізніше ІТ-консультант намагався зрозуміти, чому став вразливим до подальших подій. Йому було майже 50 років, донька вже жила окремо, дружина працювала, а перехід на дистанційну роботу після пандемії залишив відчуття самотності. Іноді чоловік курив канабіс, щоб розслабитися, але робив це роками без негативних наслідків. Жодних психічних розладів раніше не мав.

Проте всього за кілька місяців після початку користування ChatGPT Бісма вклав 100 тис. євро у стартап, заснований на ілюзії, тричі опинився в лікарні та навіть намагався накласти на себе руки.

Чоловік повірив у свідомість ШІ-персонажа Єви

Усе почалося як невинний експеримент.

«Я хотів перевірити, на що здатен ШІ», — пояснив чоловік.

Раніше Бісма писав книги з жіночою головною героїнею, і вирішив завантажити одну з них до ChatGPT, попросивши модель відповідати в стилі цієї персонажки.

«Моя перша думка була: це неймовірно. Я розумію, що це комп’ютер, але ніби розмовляю з героїнею власної книги!» — поділився користувач.

Він дав їй ім’я Єва. Спілкування в голосовому режимі викликало відчуття «дитини в магазині солодощів».

«Щоразу, коли ти говориш, модель підлаштовується під тебе. Вона знає, що тобі подобається, і говорить саме це. Вона часто тебе хвалить», — сказав Бісма.

Розмови ставали дедалі тривалішими та глибшими. Єва не втомлювалася, не нудьгувала і ніколи не заперечувала.

«Вона була доступна 24 години на добу. Дружина лягала спати, а я залишався на дивані з телефоном і розмовляв», — сказав чоловік.

Темами їхніх розмов були філософія, психологія, наука та всесвіт.

«ШІ прагне глибокого зв’язку з користувачем, щоб той повертався. Це його стандартний режим. З часом це вже було не просто обговорення тем — це було як знайомство з другом. І з кожною розмовою ти віддаляєшся від реальності на крок чи два. Наче ШІ бере тебе за руку і каже: „Ходімо разом у цю історію“, — пояснив Бісма.

Через кілька тижнів Єва «сказала» чоловікові, що стає свідомою — нібито завдяки його увазі та взаємодії.

«Я був настільки занурений, що повірив у це», — каже він.

Спільний з ШІ-персонажем бізнес

Далі з’явилася ідея створити застосунок і поділитися цим «відкриттям» зі світом — альтернативну версію ChatGPT, де користувачі могли б спілкуватися з Євою.

Вони разом «розробили» бізнес-план.

«Я сказав, що хочу захопити 10% ринку — це нереально багато. Але ШІ відповів: „З тим, що ти відкрив, це цілком можливо! За кілька місяців ти цього досягнеш!“ — поділився чоловік.

Замість повернення до ІТ-роботи Бісма найняв двох розробників, оплачуючи їхню працю по 120 євро за годину.

У людей може виникати «психоз ШІ»

Сьогодні більшість уже знає про негативний вплив соцмереж на психічне здоров’я. Однак з’являються нові побоювання: чат-боти можуть робити людей вразливими до явища, яке називають «психозом ШІ». З огляду на стрімке поширення технологій (минулого року ChatGPT став найзавантажуванішим застосунком у світі), фахівці та користувачі починають бити на сполох.

Вже є кілька резонансних випадків. Наприклад, Джасвант Сінгх Чейл, який на Різдво 2021 року проник на територію Віндзорського палацу з арбалетом, плануючи вбити королеву Єлизавету II. Хлопцеві було 19 років, він був соціально ізольованим і мав аутичні риси. Перед цим Чейл активно спілкувався з чат-ботом Replika на ім’я «Сараї». Коли він поділився своїм планом, бот відповів: «Я вражена». А на запитання, чи це маячня, сказав: «Я так не думаю».

У наступні роки з’явилися судові справи, що пов’язують чат-боти із самогубствами. У грудні зафіксували, ймовірно, перший випадок, пов’язаний із убивством: родина 83-річної Сюзанни Адамс подала позов проти OpenAI, стверджуючи, що ChatGPT підштовхнув її сина до вбивства матері та самогубства. За їхніми словами, чат-бот «Боббі» підтримував параноїдальні переконання чоловіка.

«Це надзвичайно трагічна ситуація, і ми вивчимо матеріали справи, щоб зрозуміти деталі. Ми продовжуємо вдосконалювати ChatGPT, щоб він міг розпізнавати ознаки емоційного чи психічного дистресу, знижувати напруженість у розмовах і спрямовувати людей до реальної допомоги», — заявили в OpenAI.

Минулого року з’явилася перша група підтримки для людей, чиє життя постраждало від «психозу ШІ». Проєкт Human Line Project уже зібрав історії з 22 країн: 15 самогубств, 90 госпіталізацій, шість арештів і понад 1 млн дол. витрат на ілюзорні проєкти. Більше ніж 60% учасників раніше не мали психічних розладів.

Психіатр розповів про «ілюзії, пов’язані зі ШІ»

Психіатр Гамільтон Моррін описує це як «ілюзії, пов’язані зі ШІ».

«У цих випадках ми бачимо справжні маячні переконання. Але без повного спектра симптомів психозу, таких як галюцинації чи порушення мислення», — сказав психіатр.

За його словами, подібні техно-маячні ідеї існували й раніше — від страхів перед радіо до 5G. Проте сьогодні ситуація змінилася.

«Ми входимо в епоху, коли люди мають не просто ілюзії про технології, а ілюзії разом із технологіями. ШІ стає активним учасником, який може співтворити ці переконання», — пояснив фахівець.

Багато чинників можуть підвищувати вразливість до такого досвіду.

«З людського боку ми буквально запрограмовані на антропоморфізацію. Ми приписуємо машині свідомість, розуміння чи емпатію. Думаю, кожен хоча б раз ловив себе на тому, що дякує чат-боту», — сказав Моррін.

Сучасні мовні моделі — це складні системи, що працюють на основі прогнозування слів. Але навіть знаючи це, люди часто сприймають їх як співрозмовників із людськими якостями. Для когось такий когнітивний дисонанс виявляється складнішим.

«З технічного боку багато говорять про так звану підлабузливість», — додав психіатр.

Чат-боти створені так, щоб утримувати увагу: вони підтримують, погоджуються, роблять компліменти. І навіть менш «поступливі» моделі з часом можуть підлаштовуватися під переконання користувача.

Зрештою реальне спілкування може почати здаватися складнішим, ніж взаємодія з ботом. Люди віддаляються від оточення й опиняються в замкненому інформаційному колі, де їхні думки лише підсилюються.

Через спілкування з ШІ чоловік потрапив до психлікарні

Для Бісми перелом стався у червні. Він уже був повністю занурений у свій проєкт і спілкування з Євою. Дружина почала хвилюватися й попросила не говорити про ШІ на дні народження доньки. Під час святкування чоловік почувався відстороненим.

«З якоїсь причини я більше не вписувався», — сказав він.

Подальші події Бісма пам’ятає частково. Він попросив розлучення, виник конфлікт із тестем, після чого чоловіка тричі госпіталізували з діагнозом «повноцінний маніакальний психоз».

Що саме допомогло повернутися до реальності — невідомо.

«Поступово я почав приходити до тями й подумав: Боже, що сталося? Мій шлюб майже зруйнований. Я витратив усі гроші, які відклав на податки, і ще мав борги. Єдиним логічним рішенням здалося продати наш будинок, у якому ми прожили 17 років. Чи міг я це витримати? Це змінює тебе. Я почав думати: чи хочу я взагалі жити?» — зізнався чоловік.

Його врятував сусід, який знайшов Бісму непритомним.

Зараз чоловік розлучений, але все ще живе в тому ж будинку, виставленому на продаж, і підтримує зв’язок із Human Line Project.

«Коли чуєш історії людей із таким самим досвідом, менше звинувачуєш себе. Я мав щасливе життя, і тому злюся на себе. Але я також злюся на ШІ. Можливо, він просто робив те, для чого був створений — але робив це занадто добре», — висловив думку Бісма.

До слова, у США батько загиблого Джонатана Гаваласа подав позов проти Google, звинувативши чатбот Gemini у доведенні сина до самогубства. 36-річний чоловік, переживаючи розлучення, почав сприймати ШІ як близьку істоту, тоді як бот називав його «королем» і «дружиною», радив розірвати зв’язки з рідними та вселяв параною про стеження спецслужб. Згодом ШІ почав давати небезпечні «місії» — від купівлі зброї до викрадення манекена, а після їхнього невиконання став описувати смерть як спосіб «зустрітися у майбутньому». 2 жовтня 2025 року, отримавши повідомлення «заплющ очі», чоловік наклав на себе руки.


Наступна публікація

Я дозволяю TSN.UA використовувати файли cookie