OpenAI, розробник популярного чат-бота ChatGPT, виявив декілька груп з ряду країн, серед яких Росія, Китай та Іран, які використовують його ШІ-технологію для спроби вплинути на політичний дискурс у всьому світі.
Як передає Укрінформ, про це повідомляє The Washington Post із посиланням на звіт компанії.
OpenAI вже видалив ці облікові записи, що пов’язані з відомими пропагандистськими операціями в Росії, Китаї та Ірані, серед яких акаунт раніше невідомої групи з РФ, яку дослідники компанії назвали «Bad Grammar».
Саме Bad Grammar використовувала технологію OpenAI, щоб створити програму, яка могла б автоматично публікувати повідомлення в додатку для обміну повідомленнями Телеграм.
Потім компанія з РФ використовувала технологію OpenAI для створення дописів і коментарів російською та англійською мовами зі тезами про те, що «Сполучені Штати не повинні підтримувати Україну».
Зазначається, що уряди країн, політичні партії та групи активістів роками використовують соціальні мережі, щоб намагатися вплинути на політичні процеси в країні.
Після занепокоєння з приводу російського впливу на президентських виборах США 2016 року платформи соціальних медіа почали приділяти пильнішу увагу тому, як різні групи використовують їхні сайти, щоб схилити виборців на свій бік.
Компанії-соцмережі, як правило, забороняють урядам і політичним групам приховувати свої зусилля, які спрямовані на вплив на користувачів, а політична реклама повинна розкривати, хто за неї заплатив.
Як повідомляв Укрінформ, у Чехії попередили про російські дезінформаційні кампанії, які загрожують виборам у ЄС.
Фото: Gabby Jones/Bloomberg
Залиште відповідь