Спеціальні потреби

Вибори-2024: експерти застерігають від “голосування” за “дипфейки”


Поширення так званих клонів чи “дипфейків”, коли штучний інтелект копіює зовнішність і мову будь-якої особи, створює ризик на виборах: люди ризикують проголосувати на основі почутої дезінформації від “підроблених кандидатів”. Фото: Adobe Stock
Поширення так званих клонів чи “дипфейків”, коли штучний інтелект копіює зовнішність і мову будь-якої особи, створює ризик на виборах: люди ризикують проголосувати на основі почутої дезінформації від “підроблених кандидатів”. Фото: Adobe Stock

Вибори 2024 року стануть першими в еру штучного інтелекту (ШІ). Зважаючи на поширення так званих клонів чи “дипфейків”, коли штучний інтелект копіює зовнішність і мову будь-якої особи, експерти застерігають: виборці ризикують проголосувати на основі почутої дезінформації від “підроблених кандидатів”.

Вибори 2024 року - перший досвід голосування в еру штучного інтелекту

Виклики, пов'язані із зловживаннями штучним розумом, потенційно стосуються 83 виборів у 78 країнах світу та понад 4 мільярдів людей сукупно.

Такі дані про “вибухонебезпечний для демократій рік” наводить газета The New York Times, публікуючи “глобальний календар виборів” на основі даних, зібраних фахівцями компанії Anchor Change.

Еволюція впливу на виборця: від пропаганди, ботів і гумористичних серіалів до “дипфейків”

Якщо раніше вплив на думку виборців здійснювали через класичну пропаганду і дезінформацію, згодом через соціальні мережі, ботоферми і навіть гумористичні серіали, як на президентських виборах в Україні, то зараз у світі побоюються “втручання” штучного інтелекту.

У США вже на етапі праймеріз стартували недобросовісні приклади застосування ШІ

У США вже на етапі праймеріз стартували недобросовісні приклади застосування ШІ. Так, у штаті Нью-Гемпшир виборці отримували дзвінки від бота з голосом, що імітував Джо Байдена.

Фейкове звернення закликало людей не голосувати на місцевих праймеріз. Генеральний прокурор штату припустив, що аудіо було згенероване саме за допомогою штучного інтелекту, писало видання NBC News.

Такі аудіозаписи, а також популярні останнім часом “дипфейки” можуть набути поширення під час виборчої кампанії і навіть вплинути на результати голосування, попереджають експерти.

Республіканець Рон Десантіс уже вибув із виборчих перегонів, але на їх початку відзначився поширенням трьох зображень свого тодішнього конкурента-однопартійця, експрезидента Дональда Трампа, які були оцінені судовими експертами, пише NYT, як “майже напевно дипфейками, створеними за допомогою штучного інтелекту”.

Демократична партія США своєю чергою тестувала ШІ для написання перших чернеток деяких повідомлень про збір коштів, повідомляє видання і зазначає, що такі звернення часто виявляються ефективнішими, ніж ті, що написані людьми. Однак, швидкий розвиток штучного інтелекту в політиці вже стирає межі між фактом і фейком, наголошує газета.

У кількох штатах США вже розроблено законопроєкти для регулювання політичного контенту, створеного штучним інтелектом, щоб запобігти введенню виборців в оману.

А Європейський Союз минулого місяця ухвалив найперший у світі комплексний закон щодо регулювання штучного інтелекту, який може запровадити світовий стандарт для класифікації ризиків, пов’язаних з ШІ, а також забезпечення прозорості розробок у цій сфері й визначення заходів фінансового покарання для компаній-порушників.

Перед тим президент США Джо Байден також видав указ про “безпечний, захищений і надійний штучний інтелект”.

Західні виборці більш вразливі, ніж... українці

Разом з тим, мешканці західних країн можуть повчитися стійкості до дезінформації від українців, розповіла у коментарі Голосу Америки експертка Ольга Токарюк, дослідниця Chatham House Ukraine Forum.

Досвід протистояння російській дезінформації зробив українців більш обізнаними та обережними у споживанні інформації, каже експертка. Допомагають і роки війни, боротьби з пропагандою та освітні кампанії про фактчекінг.

Мешканці західних країн просто не живуть у ситуації постійних інформаційних загроз, як українці.
Ольга Токарюк

“Українці вже добре знають, що Росія може намагатися втручатися у наш інформаційний простір, вона поширює пропаганду і дезінформацію. Не можемо узагальнювати, але значна частина українців однозначно вже виробила в собі цю стійкість до інформаційних загроз. Натомість не завжди це можна сказати про мешканців багатьох західних країн, які в принципі, по-перше, звикли більше довіряти інформації та й, по-друге, рівень довіри у їхньому суспільстві загалом вищий.

Вони просто не живуть у ситуації постійних інформаційних загроз, як українці сьогодні та упродовж щонайменше останніх 10 років”, – пояснює Токарюк.

За її словами, український досвід, “уроки з України” – популярна тема аналітичних звітів та доповідей на міжнародних конференціях сьогодні.

ШІ може виявляти пропаганду та інші зловживання на виборах – експертка

“Штучний інтелект уже досить широко застосовується в комунікаційних кампаніях. Власне його застосування не є чимось однозначно хорошим чи поганим. Це просто вже відбувається, – наголошує експертка. – Питання більше у тому, хто його використовує і для чого”.

Ризик у виборчий період, каже Токарюк, полягає у тому, що певні організації або навіть держави можуть використовувати штучний інтелект у власних кампаніях впливу чи дезінформації компаніях пропаганди, включно, щоб вплинути на хід виборів.

Варто уникати надмірної демонізації штучного інтелекту і страху, що “людство під загрозою”
Ольга Токарюк

Але так само штучний інтелект може застосовуватися і для протидії цим злим намірам, наголошує експертка:

“Тобто штучний інтелект – це лише інструмент. А далі вже залежить, у чиї руки він потрапить і як його застосовуватимуть”.

Тому варто уникати надмірної демонізації штучного інтелекту і страху того, “що цей інструмент все кардинально змінить” або що “людство під загрозою”, закликає Ольга Токарюк.

ШІ – зброя

Водночас експертка нагадує, що, наприклад, Росія включила можливості штучного інтелекту і кібератак до зброї, котрою веде війну, на рівні із традиційними військовими засобами.

І не лише проти України, а й, наприклад, як елемент зменшення єдності західних країн у їхньому намірі допомагати Україні.

“Як бачимо, в Україні вже були неодноразові спроби вкидання аудіофейків у інформаційний простір – від перших досить недолугих спроб до досить якісно зроблених”, – каже Токарюк. Усе це навчило українців бути достатньо настороженими та перевіряти інформацію.

Проте експертка не погоджується із колегами, які прогнозують тотальну еру недовіри:

“Я вважаю шкідливими поради не довіряти в принципі жодній інформації. Варто просто сприймати критично те, що чуємо і бачимо, задумуватися, наскільки ймовірно, що мені особисто подзвонить президент чи якийсь інший політик, а також бути в курсі останніх технологічних новинок та їх можливостей загалом щодо потенційної дезінформації”.

Експеримент із дипфейком: експерта “клонували” прямо під час дискусії

Небезпеки ШІ для виборчого процесу розглянули у ході дискусії в американському правничому інституті Brennan Center for Justice.

Експерти виокремили кілька рівнів потенційної небезпеки. Насамперед це “імітаційна загроза” – використання “дипфейків” або чатів на зразок GPT для написання текстів.

Крім того, поширеним залишаються “фішингові атаки”, коли, наприклад, працівник отримує листа від ніби-то свого менеджера з проханням надати пароль або іншу конфіденційну інформацію чи доступу до певних файлів.

Перешкоджати роботі посадовців або членів виборчих комісій можуть і зливи штучно згенерованих звернень чи емейлів. Ще гірші наслідки мають кібератаки, які останнім часом активно застосовують такі країни, як Росія і Китай.

Ризики ШІ: виборці обиратимуть на основі неправдивої інформації. При цьому вважатимуть, що почули її з достовірного джерела чи навіть від першої особи

Але чи найбільше експерти побоюються того, що виборці обиратимуть на основі неправдивої інформації. При цьому вважатимуть, що почули її з достовірного джерела чи навіть від першої особи.

До слова, безпосередньо під час експертної дискусії організатори запропонували послухати “секретного гостя” – сюрпризом для учасників став “виступ” дипфейка одного з них. Згенерований за допомогою ШІ відеозапис містив не лише обличчя експерта, говорив його голосом, але й ШІ згенерував навіть відповідь на запитання, яке реальний експерт перед тим отримав у ході дискусії.

Для цього організатори експерименту використали попередні виступи експерта та написані ним самим матеріали – усе, що було опубліковано у публічному доступі.

Далі “клонували” голос на основі його попередніх інтерв'ю та синхронізували рухи губ зі згенерованим аудіо.

“Дипфейки та інші методи штучного інтелекту створювати фальшиві, але реалістичні кадри можуть ввести громадськість в оману та підірвати довіру до демократії”, – “сказав” згенерований клон експерта.

“Я не думаю, що я наразі цілком готовий бути заміненим [штучним інтелектом]. Але це насправді виглядає дуже вражаюче”, – прокоментував експеримент Ларрі Норден, старший директор програми виборів і уряду Центру Бреннана.

Він також застеріг, що використання ШІ може впливати на безпеку та основні права людей, як і демократичні норми, які так само потерпатимуть, якщо регулювання штучного інтелекту стане суворішим.

Норден вважає, що частина можливостей ШІ буде визнана “неприйнятним ризиком” і заборонена, як, наприклад, потужності із розпізнавання облич у публічному просторі, що у демократичних країнах вважається досить сильним посяганням на громадянські права і демократичні свободи.

Він також припускає, що у сучасній реальності важливішим буде спроможність підтвердити автентичність того чи іншого відео чи аудіо матеріалу, аніж спростувати засилля фейків від ШІ.

  • 16x9 Image

    Ганна Твердохліб

    Знімаю соцмережеві відео для Голосу Америки про українців у США та Європі, пишу новини, найбільше люблю розповідати історії людей, які живуть цікаве і насичене життя, а також людські історії війни і особливо – збирати зворушливі розповіді української діаспори, а також висвітлювати досягнення, за які Україну шанують у світі. 

XS
SM
MD
LG