Перейти до змісту

Блінкен попередив про загрози, які штучний інтелект несе демократичним виборам у світі

Від Board.News,19.03.24


Про це він заявив у понеділок, 18 березня, під час виступу на третьому саміті за демократію в Сеулі, пише "Голос Америки". "Цього року на вибори піде майже половина населення світу. Це незвичайний рік виборів у країні за країною. Але громадяни та кандидати зіштовхнуться із потоком брехні, який задушить серйозні громадянські дискусії", - застеріг Блінкен. Він зазначив, що використання цифрових технологій - соцмереж і штучного інтелекту - різко прискорило темпи поширення дезінформації: "Фейкові новини та дезінформація, засновані на штучному інтелекті та цифрових технологіях, не тільки порушують особисту свободу та права людини, але й загрожують демократичним системам", - сказав держсек США. Блінкен наголосив, що вороги демократичних країн використовують це, щоб скористатися розбіжностями всередині демократій, "просуваючи недовіру, цинізм, нестабільність, налаштовуючи одну групу проти іншої, дискредитуючи інституції". "Люди в наших суспільствах посилюють цю динаміку, іноді навмисно, іноді під впливом ботів та алгоритмів, навчених упередженій інформації", - сказав Блінкен. Він також підкреслив, що боротьба з дезінформацією та створення стійкого інформаційного середовища є нагальним пріоритетом для американської дипломатії та в інтересах національної безпеки США. "Ми продовжуємо викривати, зупиняти та стримувати дезінформацію", - запевнив Блінкен. Як приклад він навів викриті дезінформаційні кампанії Китаю та Росії. Зокрема, Блінкен вказав на звіт Держдепартаменту за 2023 рік, у якому йдеться, що Китай витратив мільярди доларів на поширення пропаганди та придушення західних ЗМІ. Нещодавно повідомлялося, що провідні компанії в галузі штучного інтелекту, зокрема Google, Microsoft, OpenAI, Meta, TikTok і Adobe, планують підписати угоду, щоб виявляти та маркувати створений штучним інтелектом контент під час цьогорічних виборів у країнах світу.

Читати повністю

  • 16 Views


×
×
  • Створити...