Компанія OpenAI виявила та видалила облікові записи, які використовувалися в п’ятьох інформаційних операціях. Під час цих операцій штучний інтелект допомагав маніпулювати громадською думкою.
У новому звіті OpenAI детально описує, про які групи йде мова: деякі з яких пов’язані з відомими пропагандистськими кампаніями.
Шахрайські дії включали в себе:
- створення коментарів у соціальних мережах;
- статті та зображення кількома мовами;
- створення імен і біографій для підроблених облікових записів;
- налагодження коду;
- переклад і вичитка текстів.
Ці мережі зосереджувалися на низці питань, зокрема на війни в Газі та вторгненні Росії в Україну, критиці китайських дисидентів і коментуванні політики в Індії, Європі та США в їхніх спробах вплинути на громадську думку.
Операції впливу були націлені на широкий спектр онлайн-платформ, включаючи X (раніше відомий як Twitter), Telegram, Facebook, Medium, Blogspot та інші сайти. Втім, за словами аналітиків OpenAI, «жодному не вдалося залучити значну аудиторію».
Звіт, перший у своєму роді, опублікований компанією, з’явився на тлі глобальної стурбованості щодо потенційного впливу інструментів ШІ на вибори, які відбудуться по всьому світу цього року, включаючи вибори президента США в листопаді.
В одному прикладі, наведеному у звіті, допис російської групи в Telegram звучав так: «Я втомився від цих дурнів із пошкодженим мозком, які грають в ігри, а американці страждають. Вашингтону потрібно чітко розставити пріоритети, інакше вони відчують всю силу Техасу!»
Одна з російських кампаній впливу, яка була закрита OpenAI, мала назву «Bad Grammar». Вона використовувала свої моделі ШІ для налагодження коду для запуску бота Telegram, який створював короткі політичні коментарі англійською та російською мовами. Операція була спрямована на Україну, Молдову, США та країни Балтії.
Інша російська операція, відома як «Двійник», яку Міністерство фінансів США пов’язує з Кремлем, використовувала моделі OpenAI для створення заголовків і конвертації новинних статей у публікації у Facebook, а також створення коментарів англійською, французькою, німецькою, італійською та польською мовами.
Відома китайська мережа Spamouflage також використовувала інструменти OpenAI для дослідження активності в соціальних мережах і створення тексту китайською, англійською, японською та корейською мовами, який публікувався на кількох платформах, включаючи X, Medium і Blogspot.
OpenAI заявляє, що використовує власні інструменти на основі штучного інтелекту для більш ефективного розслідування та переривання цих операцій іноземного впливу. «Завдяки нашим інструментам розслідування, описані в супровідному звіті, тривали дні, а не тижні чи місяці», — заявили в компанії в четвер.
Підпишись на нас в Google НОВИНИ, та отримуй більше свіжих новин!