Новини
30 Грудня 2020
322

Cпівзасновник Skype назвав три речі, які можуть знищити людство цього століття

Глобальне потепління та зміна клімату до переліку не потрапили

Штучний інтелект, синтетична біологія й так звані “невідомі невідомі” можуть знищити людство до 2100 року, зазначив співзасновник Skype Яан Таллінн в інтерв’ю видання CNBC.

При цьому він не розглядає як найсерйознішу глобальну загрозу зміну клімату, яку ООН назвала “визначальною проблемою нашого часу”. І зазначає, що “важливі переломні моменти, які ведуть до незворотних змін в основних екосистемах і планетарної кліматичної системи, можливо, вже були досягнуті або пройдені”.

“Зміна клімату не стане ризиком для існування, якщо не буде втрачено контролю”, — зазначив він. І пояснив — синтетична біологія займається розробкою та створенням нових біологічних частин, пристроїв і систем, водночас як “невідомі невідомі” — це “речі, які ми, можливо, не можемо уявити прямо зараз”.

Серед трьох загроз, які найбільше турбують Таллінна, він зосереджений на штучному інтелекті та витрачає мільйони доларів, намагаючись надати безпечний розвиток технології. Це включає у себе інвестиції на ранніх стадіях у лабораторії штучного інтелекту, такі як DeepMind і фінансування досліджень безпеки ШІ у таких університетах, як Оксфорд і Кембридж.

Посилаючись на книгу оксфордського професора Тобі Орда, Таллінн наголосив, що ймовірність загибелі людей цього століття становить 1 до 6. “Згідно з книжкою, однією з найбільших потенційних загроз у найближчому майбутньому є саме штучний інтелект, а ймовірність того, що зміна клімату призведе до вимирання людства, становить менше 1%”, — розповів він.

Наразі практично неможливо передбачити, яким буде розвиток штучного інтелекту та наскільки розумними стануть машини наступні 10, 20 або 100 років. “Спроби передбачити майбутнє ШІ ускладнюються тими обставинами, що системи починають створювати інші системи вже без участі людини”, — йдеться у повідомленні.

До речі, про небезпеку, пов’язану з виходом з-під контролю штучного інтелекту не раз говорив і засновник SpaseX і Tesla Ілон Маск.

За словами Таллінна, якщо з’ясується, що ШІ не дуже хороший для створення інших інтелектів, тоді людству не варто надто турбуватися, проте у зворотному випадку “дуже виправдано турбуватися про те, що станеться надалі”.

Загалом дослідники безпеки ШІ розглядають два основних “апокаліптичних” сценарії. Перший — це нещасний випадок у лабораторії, коли дослідницька група залишає ШІ, щоб тренуватися на комп’ютерних серверах ввечері, а “вранці світу більше немає”.

У другому випадку дослідницька група створює прототипну технологію, яка потім застосовується в різних сферах, “де вона у кінцевому підсумку призводить до небажаних наслідків”. Наразі Таллінна більше турбує перший варіант, оскільки менше людей думають про такий сценарій.

“Відповідаючи на запитання, чи непокоїть його проблема суперінтелекту (гіпотетична можливість досягнення машиною інтелекту людського рівня, який вона потім швидко перевершує), він зазначив, “якщо хтось говорить, що це станеться завтра чи цього не станеться у найближчі 50 років, я б сказав, що обидва вони занадто самовпевнені”, — пише видання.

І додає, що найбільші світові технологічні компанії виділяють мільярди доларів на розвиток ШІ. Хоча деякі з їхніх досліджень публікуються відкрито, велика частина — ні.

За словами Таллінна, деякі компанії ставляться до безпеки штучного інтелекту більш серйозно, ніж інші. DeepMind, наприклад, підтримує регулярні контакти з дослідниками безпеки ШІ у таких місцях, як Інститут майбутнього людства в Оксфорді. У ньому також працюють десятки людей, які зосереджені на цій проблемі.

А такі корпоративні центри, як Google, Brain і Facebook AI Research, менше залучені до співтовариства з безпеки штучного інтелекту. “Якщо з’ясується, що ШІ найближчим часом не буде дуже руйнівним, тоді, звичайно, було б корисно, якби компанії дійсно намагалися вирішувати деякі проблеми більш розподіленим чином”, — вважає Таллінн.

Нагадаємо, раніше експерти назвали 15 соціальних проблем, які може вирішити штучний інтелект.

Раніше Investory News писали, шо Оксфорд отримав велике пожертвування на дослідження штучного інтелекту — мільярдер Стівен Шварцман надав $188 млн на вивчення етичних і соціальних проблем ШІ.

Більше новин та актуальних матеріалів Investory News у нашому каналі в Telegram

Контекст

Ми у соцмережах

Слідкуйте за нами у Facebook або ж читайте усе найцікавіше у нашому каналі в Telegram