У Google відмовились від створення штучного інтелекту з військовою метою

У Google відмовились від створення штучного інтелекту з військовою метою

У Google відмовились від створення штучного інтелекту з військовою метою

Фото: Google

Гендиректор компанії нагадав, що технології ШІ мають велике суспільне значення.

Фахівці компанії Google не будуть займатися розробками у сфері штучного інтелекту у військових цілях, проте продовжуватиме взаємодіяти з урядовими відомствами і військовими. 

Про це повідомив генеральний директор компанії Сундар Пічаї у інтернет-блозі компанії.

Таке рішення було ухвалено після протестів співробітників компанії проти роботи на Пентагон. Компанія планувала брати участь у проекті зі створення штучного інтелекту для військових безпілотників.

“Ми хочемо пояснити, що, хоча ми не розробляємо штучний інтелект для використання в озброєннях, ми продовжуємо нашу роботу з урядами і військовими у багатьох інших областях, — зазначив Пічаї. — Серед них — кібербезпека, навчання, призов на військову службу, охорону здоров’я для ветеранів, а також пошуково-рятувальні операції”.

У міру розвитку технологій створення штучного інтелекту, додав він, компанія має намір “взаємодіяти із зацікавленими сторонами”.

Гендиректор нагадав, що вже зараз технології штучного інтелекту і машинного навчання мають велике суспільне значення. Системи зі ШІ використовуються для прогнозування ризику виникнення пожеж, боротьби з раком, сільськогосподарських робіт і багатьох інших цілей.

“Ми знаємо, що поява такої важливої ​​технології ставить на порядок денний важливі питання щодо її застосування. Те, як буде розвиватися і застосовуватися штучний інтелект, матиме значний вплив на наше суспільство в майбутньому. Будучи лідером в області розробки штучного інтелекту, ми відчуваємо велику відповідальність. Тому сьогодні ми оголошуємо сім принципів, яких будемо дотримуватися в нашій роботі в майбутньому”, — написав він.

Використання штучного інтелекту, підкреслив він, має бути “соціально корисним”, оскільки прогрес у цій області зачіпає охорону здоров’я, безпеку, енергетику, транспорт, промислове виробництв і сферу розваг. Створення штучного інтелекту не повинно сприяти “несправедливим забобонам” у тому, що стосується раси, національної та гендерної ідентичності і політичних або релігійних поглядів, переконаний Пічаї. За його словами, при розробці штучного інтелекту будуть передбачені “надійні засоби забезпечення безпеки”, системи зі штучним інтелектом і зібрані такими системами дані повинні перебувати під контролем людей, при розробці таких систем повинні використовуватися найвищі наукові стандарти і компанія буде прагнути до того, щоб “обмежити шкоду” застосування таких систем.

Як стало відомо в лютому 2018 року, підрозділ Google Cloud займалося розробкою штучного інтелекту в рамках військового проекту Maven, в рамках якого штучний інтелект використовується для обробки відеозображень і може бути застосований для націлювання ударних безпілотників. Фахівці Google займалися питаннями машинного навчання, яке мало б дозволити дронам розрізняти окремі цілі за допомогою аналізу даних з відеокамер.

Керівництво компанії намагалося приховати від громадськості участь в проекті Maven, писала в травні The New York Times. Зокрема, співробітникам було заборонено обговорювати проект електронною поштою, щоб виключити ризик витоку даних.

Після публікації видання Gizmodo про участь Google в дослідженнях Пентагону, близько 4 тис. співробітників компанії, за даними газети, підписали петицію проти цього контакту, а деякі — звільнилися. Зі свого боку керівництво Google заявило, що не буде намагатися продовжити контракт із Пентагоном за даною програмою, термін дії якого закінчується наступного року, і розробить рекомендації щодо застосування систем зі штучним інтелектом.

Повʼязані теми:

Наступна публікація