Про такі порушення заявила сама компанія-розробниця OpenAI
Компанія OpenAI виявила випадки використання своїх моделей штучного інтелекту (ШІ) для створення та поширення дезінформації пов’язану з росією, Китаєм, Іраном та Ізраїлем, пише Financial Times.
Зазначається, що можливості моделей ШІ OpenAI були використаними принаймні у п’яти операцій прихованого впливу для генерації тексту і зображень у великих обсягах, з меншою кількістю мовних помилок, ніж раніше, а також для генерації коментарів або відповідей на свої власні пости.
“Контент був зосереджений на питаннях, вторгнення росії в Україну, конфлікту в Газі, виборів в Індії, політики в Європі та США, а також критику китайського уряду з боку китайських дисидентів та іноземних урядів”, — йдеться у повідомленні.
Крім того, ШІ використовували для підвищення власної продуктивності, застосовуючи його для таких завдань, як налагодження коду або дослідження активності користувачів у соціальних мережах.
Головний дослідник з питань розвідки та розслідувань OpenAI Бен Німмо заявив, що використання моделей OpenAI не призвело до значного підвищення рівня залученості або охоплення в результаті кампаній.
У OpenAI додали, що прагнуть викривати такі дезінформаційні кампанії і працюють над власними інструментами на основі ШІ, щоб зробити виявлення та аналіз більш ефективними.
Нагадаємо, Exeger презентувала вічні сонячні батареї Powerfoyle.
Більше новин та актуальних матеріалів Investory News у нашому каналі в Telegram
Ми у соцмережах