Вчені бояться, що штучний інтелект може стати небезпечнішим за ядерну зброю

Вчені та інвестори висловили застереження щодо штучного інтелекту і підписали відповідний відкритий лист.

Десятки вчених, підприємців та інвесторів, залучених у сферу дослідження штучного інтелекту, в тому числі Стівен Хокінг та Елон Маск, підписали відкритий лист, у якому вони просять звернути увагу на безпеку ШІ та його користь.

Як пише Financial Times, лист та доповідь Інституту майбутнього життя (Future of Life Institute) з'явилися на тлі зростаючої стурбованості ефектом, який можуть чинити машини на людство.

"Інтелектуальні здібності машин можуть перевершити інтелектуальні здібності людей, які їх створили", - йдеться в статті.

Елон Маск, співзасновник SpaceX і Tesla, поряд з актором Морганом Фріменом і космологом Стівеном Хокінгом, заявив, що, на його думку, неконтрольований штучний інтелект "потенційно більш небезпечний, ніж ядерна зброя".

"Замість нагнітання страху в листі з обережністю приділяється увага як позитивним, так і негативним сторонам штучного інтелекту", - зазначає автор статті Тім Бредшоу.

Як йдеться в статті, позитивні результати дослідження штучного інтелекту, які вже входять до використання, включають в себе розпізнавання мови і зображення і самохідні транспортні засоби.

Залиште свій коментар

Аватар
Залиште свій коментар

Коментарі до посту

Останні Перші Популярні Разом коментарів: