Чат-боти з ШІ небезпечні: експерт пояснив, які дані можна вкрасти

Чат-боти з ШІ небезпечні: експерт пояснив, які дані можна вкрасти

Чим небезпечні чат-боти ШІ / Фото: pixabay.com

Важливо бути уважними під час використання чат-ботів, які не шифрують листування.

Кіберфахівці б'ють на сполох. Вони вважають, що чат-боти з штучним інтелектом є справжньою знахідкою для хакерів.

Про це пише The Sun.

ШІ-боти стають все розумнішими, швидшими та доступнішими. А оскільки ці системи штучного інтелекту навчилися розмовляти, як люди, може виникнути спокуса проявити надмірну довіру і повідомити їм конфіденційну інформацію.

Радник із глобальної кібербезпеки компанії ESET Джейк Мур розповів, що ШІ-моделі, на яких засновані чат-боти, здебільшого безпечні, але існують і "підводні камені". Головний ризик полягає в тому, що усі ці дані зберігаються на серверах і потенційно їх можна зламати. Мур просить користувачів не виливати душу чат-ботам.

"Важливо бути уважними під час використання чат-ботів, які не шифрують листування. Шифрування "спотворює" розмови, тому ніхто не може їх прочитати. Доступ до даних може отримати лише той, у кого є ключ для розшифрування", - йдеться в повідомленні.

OpenAI захистила всі чати ChatGPT наскрізним шифруванням для платних і безкоштовних користувачів. Однак деякі додатки можуть стягувати плату за шифрування, або не пропонувати його взагалі.

"Можливо, вам доведеться поділитися кодом бронювання рейсу або частиною своєї адреси з чат-ботом авіакомпанії, але ви завжди можете зателефонувати операторові замість того, щоб використовувати бот. Ніколи не повідомляйте паролі або інші облікові дані для автентифікації ШІ-ботам. Не діліться з ними своїми особистими думками та інтимними подробицями", - додав експерт із кібербезпеки в KnowBe4 Мартін Дж. Кремер.

Раніше в OpenAI оцінили вплив генеративного штучного інтелекту на економіку.

Підписуйтесь на наші канали у Telegram та Viber.

Повʼязані теми:

Наступна публікація