Новини
25 Травня 2023
679

OpenAI закликають до регулювання ШІ

Засновники турбуються, щоб штучний інтелект не знищив людство

Компанія OpenAI, яка розробляє ChatGPT, закликала до регулювання “надрозумних” штучних інтелектів, щоб захистити людство від ризику випадкового створення чогось, здатного його знищити, пише LIGA.net

У короткій записці, опублікованій на сайті компанії, співзасновники Грег Брокман та Ілля Суцкевер і генеральний директор Сем Альтман закликають міжнародного регулятора почати роботу над тим, як “перевіряти системи, вимагати проведення аудитів, тестувати на відповідність стандартам безпеки, накладати обмеження на ступінь розгортання і рівень безпеки”, щоб знизити “екзистенційний ризик”, який можуть становити такі системи.

У короткостроковій перспективі трійця закликає до “певного рівня координації” між компаніями, що працюють на передовій досліджень у галузі ШІ, щоб забезпечити плавну інтеграцію розробки дедалі потужніших моделей у суспільство, надаючи водночас пріоритет безпеці. Така координація може здійснюватися, наприклад, через проєкт під керівництвом уряду або через колективну угоду про обмеження зростання можливостей ШІ.

Дослідники десятиліттями попереджали про потенційні ризики, пов’язані з суперінтелектом, але з розвитком ШІ ці ризики стали більш конкретними. Американський Центр безпеки штучного інтелекту (CAIS), який працює над тим, щоб “зменшити суспільні ризики від штучного інтелекту”, описує вісім категорій “катастрофічних” та “екзистенційних” ризиків, які може становити розвиток ШІ.

Лідери OpenAI кажуть, що ці ризики означають, що “люди в усьому світі повинні демократично розв’язувати питання про межі та налаштування систем ШІ”, але визнають, що “ми ще не знаємо, як розробити такий механізм”.

Втім, вони зазначають, що подальший розвиток потужних систем вартий ризику.

Раніше Investory News писали, що Tesla вдосконалює своїх роботів-гуманоїдів Optimus.

Більше новин та актуальних матеріалів Investory News у нашому каналі в Telegram

Контекст

Ми у соцмережах

Слідкуйте за нами у Facebook або ж читайте усе найцікавіше у нашому каналі в Telegram