Наразі залишається загадкою, чи зможе ШІ заподіяти шкоду навколишньому світу
Людина не зможе керувати надрозумними машинами зі штучним інтелектом (ШІ), йдеться у дослідженні Центру людей і машин Інституту розвитку людини Макса Планка, що обліковане в Journal of Artificial Intelligence Research.
Зазначається, що системи зі штучним інтелектом вже зараз викликають побоювання, особливо ті, які здатні управляти іншими машинами. “Багато вчених займають обережну позицію щодо надрозумного та неконтрольованого ШІ”, — йдеться у повідомленні.
Міжнародна група дослідників, використовуючи теоретичні розрахунки, довела, що управляти надрозумним ШІ буде неможливо.
“Припустимо, хтось повинен запрограмувати систему штучного інтелекту з інтелектом, що перевершує людський, аби вона могла вчитися незалежно від людини. Тоді підключений до інтернету ШІ отримає доступ до всіх даних людства. Він також зможе замінити всі наявні програми та взяти під контроль всі машини у всьому світі. Чи відбудеться ця утопія чи антиутопія?”, — переймаються дослідники.
Крім того, вчені-інформатики та філософи ставлять собі питанням: чи зможемо ми взагалі керувати надрозумним ШІ, щоб гарантувати, що він не становлять загрозу для людства.
“Надрозумна машина, яка керує світом, звучить як наукова фантастика. Але вже є машини, які виконують певні важливі завдання повністю незалежно, при цьому програмісти до кінця не розуміють, як вони цьому навчилися. Тому виникає питання, чи може це в якийсь момент стати неконтрольованим і небезпечним для людства”, — зазначає співавтор дослідження та керівник групи цифрової мобілізації в Центрі людей і машин Інституту розвитку людини Макса Планка Мануель Себріан.
Учені досліджували дві різні ідеї того, як можна керувати надрозумним ШІ. З одного боку, його можливості можна було б конкретно обмежити, наприклад, відгородивши від інтернету та всіх інших технічних пристроїв, щоб він не міг контактувати із зовнішнім світом, але це зробило б такий інтелект значно менш потужним і менш здатним відповідати на гуманітарні завдання.
Не маючи такої можливості, йдеться у дослідженні, ШІ з самого початку міг би бути мотивований переслідувати тільки цілі, що відповідають інтересам людства, наприклад, запрограмувавши в нього етичні принципи. Однак дослідники також показують, що ці та інші сучасні та історичні ідеї з управління надрозумним ШІ мають свої межі.
Команда вчених розробила теоретичний алгоритм стримування, який гарантує, що надрозумний ШІ не зможе заподіяти шкоду людям ні за яких обставин, спочатку моделюючи поведінку ШІ та зупиняючи його, якщо він вважається шкідливим.
“Але ретельний аналіз показує, що в нашій нинішній парадигмі обчислень такий алгоритм не може бути побудований”, — зазначають дослідники.
За словами директора Центру людей і машин Іяда Рахвала, якщо розкласти проблему на основні правила теоретичної інформатики, виявиться, що алгоритм, який наказав би ШІ не руйнувати світ, може ненавмисно зупинити свої власні операції.
“Якби це сталося, ви б не знали, чи буде алгоритм стримування все ще аналізувати загрозу, і чи зупинив він її для стримування шкідливого ШІ. По суті, це робить алгоритм стримування непридатним для використання”, — пояснює він.
На основі цих розрахунків проблема стримування нездійсненна, тобто жоден алгоритм не зможе знайти рішення для визначення того, заподіє ШІ шкоду світу чи ні.
Раніше Investory News писали, що штучний інтелект допоможе врятувати потопаючих — спеціальні камери ізраїльського стартапу Sightbit знімають акваторію пляжу, а алгоритми в режимі реального часу аналізують матеріал.
Більше новин та актуальних матеріалів Investory News у нашому каналі в Telegram
Ми у соцмережах