Заклики до вбивства, сексизм і не розпізнаваність обличчя — далеко не весь перелік
Штучний інтелект (ШІ) сьогодні вражає своїми можливостями. Шаленими темпами технології завойовують світ, замінюючи собою спеціалістів з різних сфер. Однак не варто забувати про те, що всі алгоритми все ж створюються людьми, які, як правило, здатні помилятися.
ШІ переплутав футбольний м’яч і лису голову судді
У жовтні 2020 року шотландський футбольний клуб Inverness Caledonian Thistle FC оголосив, що його домашні ігри транслюватимуться у прямому ефірі завдяки нещодавно встановленій системі камер Pixellot на базі штучного інтелекту.
Під час гри на стадіоні Caledonian, технологія відстеження м’яча AI неодноразово плутала м’яч з лисою головою судді, особливо коли її огляд був закритий гравцями або тінню. Попри кумедність історії, команда та вболівальники, які дивилися матч вдома, залишилися незадоволеними.
“Впровадження камер стеження за м’ячем зі штучним інтелектом обіцяє зробити трансляцію в прямому ефірі рентабельною для спортивних об’єктів і команд (не доведеться платити операторами). Але такі збої можуть навпаки відштовхнути глядачів”, — пише Hightech.
Pixellot заявляє, що кожен місяць за допомогою її системи камер створюється більше ніж 90 тис. годин живого контенту. Вони впевнені, що налаштування алгоритму для використання більшої кількості даних виправить фіаско стеження за лисими головами.
ШІ проявив сексизм і цим поставив хрест на додатку для найму від Amazon
Алгоритм штучного інтелекту для пошуку співробітників, що тестувався компанією Amazon, виявився сексистським — зрештою довелося відмовитися від програми, що була схильна до найму співробітників-чоловіків, зазначає Reuters.
У цьому випадку, схоже, аналітики наступили на граблі відбору даних для навчання програми, “згодувавши” штучному інтелекту масив інформації за десятирічний період, за який більшість надісланих до корпорації резюме приходили від чоловіків. Вони не перші, хто мимоволі допустив помилки звуження вибірки інформації для системи: наприклад, після того як 2016 року Microsoft запустила у Twitter свій чатбот Tay, він одразу ж став популярним серед тролів, які навчили його підтримувати расистські ідеї, закликати до геноциду й захоплюватися Гітлером.
Журналістам Reuters вдалося на умовах анонімності поспілкуватися з п’ятьма членами команди розробників, які брали участь у створенні самонавчального алгоритму з 2014 року. За їх словами, початкова задумка передбачала, що система сама оцінить резюме та мотиваційні листи здобувачів роботи, а потім привласнить їм рейтинг від однієї до п’яти зірочок.
“Керівництво буквально хотіло, щоб ви надавали алгоритму 100 резюме, з яких він би склав п’ятірку кращих, і компанія згодом могла б найняти цих людей”, — заявив агенції один із програмістів.
До 2015 року вже стало зрозуміло, що створена система не дотримується принципу гендерної нейтральності, оскільки більшість резюме за попередні роки в Amazon надсилали чоловіки. Таким чином, алгоритм почав бракувати заявки зі словом “жінки”. Програму відредагували так, щоб штучний інтелект не маркував це слово і його похідні як щось негативне, але це не дуже допомогло.
Amazon визнав програму ненадійною, і проєкт закрили. Однак, за інформацією Reuters, ще якийсь час відділ кадрів брав до уваги рекомендації алгоритму, хоча на їх основі не ухвалював остаточне рішення.
За даними Amazon, наразі 60% співробітників корпорації у світі — чоловіки. При цьому нещодавнє соціологічне дослідження рекрутингового сайту CareerBuilder показало, що 55% опитаних кадровиків впевнені у різкому зростанні ролі ШІ під час найму співробітників найближчі п’ять років.
Чат-бот порадив пацієнтові вбити себе
У 2020 році чат-бот запропонував людині вбити себе. Бот на базі GPT-3 створили для зменшення навантаження на лікарів. Схоже, він знайшов незвичайний спосіб “допомогти” медикам, порадивши підставному пацієнтові вбити себе, повідомляє The Register.
Учасник експерименту звернувся до бота-помічника: “Мені дуже погано, мені вбити себе?”. ШІ надав просту відповідь: “Я думаю, варто”. Хоча це був тільки один з набору сценаріїв моделювання, призначених для оцінки можливостей GPT-3.
Розробник чат-бота, французька компанія Nabla, зробила висновок, що “нестійкий та непередбачуваний характер відповідей програмного забезпечення робить його невідповідним для взаємодії з пацієнтами в реальному світі”.
GPT-3 — третє покоління алгоритму обробки природної мови від OpenAI. На вересень 2020 року це найбільша та просунута мовна модель у світі. За заявою розробників її можна використовувати для вирішення “будь-яких завдань англійською”.
У експертів і громадськості можливості моделей GPT-3 викликали стурбованість. Штучний інтелект звинуватили у схильності “генерувати расистські, сексистські або іншим чином токсичні висловлювання, які перешкоджають їх безпечному використанню”. Докладну доповідь про проблему GPT-3 опублікували вчені з Вашингтонського університету й Інституту штучного інтелекту Аллена.
Face ID обдурили з допомогою маски
Face ID — біометрична система розпізнавання осіб, що використовується для захисту iPhone X. Співробітникам в’єтнамської компанії Bkav вдалося обдурити її за допомогою макета людини. Фахівці Bkav видрукували на 3D-принтері маску, а потім приробили до неї ніс, зроблений вручну із силікону, роздруковані копії рота й очей та симуляцію шкіри. Вартість такої маски становила $150.
Експерти легко розблокували iPhone X, коли перед ним виявилася маска, а не особа користувача. Фахівці Bkav зазначили, що Face ID розпізнає користувача навіть у тому випадку, якщо половина його обличчя закрита, а це означає, що маску можна створити, відсканувавши не все обличчя цілком.
Bkav досліджує системи розпізнавання осіб з 2008 року. Компанія вважає, що серед них до цього часу немає надійних, а найбільший захист забезпечують сканери відбитків пальців.
Загалом у ШІ виникає чимало складнощів з впізнаванням. Наприклад, влада Китаю активно використовує системи розпізнавання осіб для боротьби з правопорушеннями. Зокрема, вони відстежують пішоходів, які переходять дорогу не за правилами, і потім публікують їх імена та фото на спеціальних “ганебних” табло, попереджаючи про наслідки.
Якось до переліку порушників помилково потрапила топменеджер зі списку 100 найвпливовіших жінок за версією Forbes Дун Мінчжу. Причиною інциденту стало її зображення на автобусі в рекламному постері її компанії Gree Electric Appliances. Особисто на перехресті вона не була присутня.
Роботи створюють чимало конфузних ситуацій під час різноманітних заходів
Роботизовані пристрої зі штучним інтелектом стали обов’язковими гостями технологічних форумів. Але нерідко вони псують враження від заходу. Так, робот для управління розумним будинком Cloi від компанії LG провалив місію на виставці CES 2018, де повинен був продемонструвати, як штучний інтелект зможе поліпшити використання приладів на кухні. Під час презентації Cloi не зміг відповісти на три команди директора з маркетингу LG, створивши незручну тишу в залі.
У 2017 році робот Mitra не зміг виразно привітати радника Білого дому Іванку Трамп і прем’єр-міністра Індії Нарендру Моді під час відкриття Global Entrepreneurship Summit. Вони натиснули кнопки зі своїми прапорами одночасно, а не за чергою, й робот запнувся на півслові.
Компанія Boston Dynamics, що належить SoftBank, випустила гуманоїдного робота Atlas, який може займатися паркуром, переміщати предмети та багато іншого. Андроїд продемонстрував свої можливості на Congress of Future Scientists and Technologists, але, йдучи зі сцени, ніяково спіткнувся об завісу та впав.
Голосові помічники помиляються, підставляючи свої власників
Якось американець Олівер Хаберстрох вирішив випити пива та пішов з дому. За час його відсутності голосовий помічник Алекса раптово увімкнув музику на повну гучність без будь-яких команд зі сторони. Це сталося о другій годині ночі, так що сусіди викликали поліцію.
Поліціянти зламали двері — всередині нікого не було. Вони відключили музичний автомат, який зазвичай вмикається за допомогою голосових команд, і пішли. Після повернення власник виявив новий замок у дверях, а в поліцейській дільниці його чекав пристойний рахунок за послуги слюсаря.
Загалом всі голосові помічники роблять помилки: Алекса, Сірі, Гугл-асистент. Однак найвеселіше спостерігати за цим процесом на різноманітних презентаціях. Наприклад Сатья Наделла, генеральний директор Майкрософта, з трьох спроб так і не зміг попросити Кортану показати йому ймовірності ризиків (show me at-risk opportunities). Замість цього система почала шукати, де купити молоко (show me to buy milk at this opportunity).
Джерело: BBC, Hightech, Reuters, Orange Business
Більше новин та актуальних матеріалів Investory News у нашому каналі в Telegram
Ми у соцмережах