Спеціальні потреби

“40 тисяч акаунтів намагалися використати моє обличчя”. Як за допомогою ШІ зображення українки прославляли Китай і Росію


Українка Оля Лоєк запустила свій блог у YouTube, а за тиждень побачила десятки акаунтів зі своїм обличчям і голосом в китайських соцмережах. З її зображень зробили діпфейк і пропагували відносини між Росією та Китаєм.
Українка Оля Лоєк запустила свій блог у YouTube, а за тиждень побачила десятки акаунтів зі своїм обличчям і голосом в китайських соцмережах. З її зображень зробили діпфейк і пропагували відносини між Росією та Китаєм.

Абревіатура ШІ — штучний інтелект — найпопулярніше слово 2023-го за версією онлайн-словника англійської Collins. І чим більш популярним у світі стає штучний інтелект, тим більше несподіванок він приносить. Уявіть, що одного дня ви прокидаєтеся й бачите в мережі своє обличчя, яке говорить вашим голосом, але китайською мовою — це сталося з українкою Олею Лоєк. Як кажуть експерти, таке може статися з кожним.

Генеровані штучним інтелектом відео з обличчям українки з’явилися в китайських соцмережах.

"Моє обличчя моїм голосом говорить іншою мовою"

Олі двадцять. Вона — з України, вивчає когнітивні науки в університеті у США, стажується в Німеччині та ділиться роздумами про вивчене у своєму ютюб-блозі.

Вона запустила блог в листопаді 2023-го, і вже за місяць побачила своє ж обличчя в китайських соцмережах. Щоправда, там вона — Наташа чи Ейпріл і говорить китайською!

Я була шокована, бо побачила, як моє обличчя моїм голосом говорить іншою мовою.

"Я була шокована, моє обличчя моїм голосом говорить іншою мовою", — дивується українка.

Про фіктивні відео Оля дізналася від своїх підписників, які, почувши китайську з вуст дівчини на цих платформах, почали їй надсилати ці діпфейки — відео, створені штучним інтелектом, з використанням її зображення. Яким же було здивування дівчини, коли вона почала з'ясовувати ситуацію.

"Я почала підписуватися й архівувати всі відео, які я бачу. Спочатку п'ять акаунтів, потім десять, потім тридцять. Мені почали попадатися інші акаунти з моїм обличчям", — розповідає блогерка.

Прославляння Росії та Китаю — найпопулярніша тема

Дівчина знайшла понад 40 клонів на найбільшому відеосайті Китаю Bilibili та на платформі Little Red Book, альтернативі Instagram. Та найбільше Олю здивували теми, про які йдеться в цих роликах.

"Дуже багато акаунтів намагається мене позиціювати як росіянку. Усі вони пропагують теплі стосунки між Китаєм та Росією. Говорить мій клон, наприклад: “Лише Китай нам допомагає, лише Китай купує російські продукти. Тому підтримуймо одне одного, бо ми такі чудові”, — розповідає Оля Лоєк.

YouTube Screenshot / Olga Loiek
YouTube Screenshot / Olga Loiek

Щобільше, деякі з цих сторінок налічували близько пів мільйона підписників і вже, вочевидь, заробляли кошти з продажу цих російських продуктів, використовуючи обличчя й голос Олі.

"Це дуже цікавий момент, тому що і тоді, і зараз, якщо чесно, я нічого не заробила з YouTube. З такими сотнями тисяч підписників шанс того, що хтось вирішить купити ці продукти, досить великий. Тому мені було трохи неприємно звісно ж", — ділиться Оля.

Дівчина також знайшла клони й багатьох інших дівчат, серед яких — відома блогерка зі Швеції Лана Блейклі. Обурена побаченим, Оля записала про сотні своїх клонів відеоролик на YouTube.

"Мене, як українку це, очевидно, обурило, адже моя сім'я змушена ховатися під час повітряної тривоги в Україні", — розповіла вона.

"Близько 40 тисяч акаунтів намагалися використати моє обличчя"

Завдяки розголосу й допомозі підписників Оля заблокувала принаймні 15 фейкових акаунтів і навіть зв’язалась з компанією-виробником цих діпфейків, адже на деяких роликах був їхній логотип.

Оля Лоєк: "Вони повідомили, що було створено 5 тисяч відео з моїм обличчям на їхній платформі".

Помітивши підозрілу активність, платформа заблокувала доступ усім акаунтам використовувати зображення Олі, так дівчині відповіли представники компанії.

"26 грудня вони заблокували моє обличчя. Відтоді й дотепер (дата розмови — 18 березня — ред.) приблизно 40 тисяч акаунтів намагалися використати моє обличчя і створити діпфейки", — каже українка.

Виявляється, компанія-виробник цих роликів не запитувала дозволу на використання зображення людини, якщо діпфейки створювали не вручну, а автоматизовано. Тепер вони запевняють, що виправили цю помилку.

Як діяти в таких ситуаціях?

Ріджул Ґупта, очільник компанії, яка займається створенням діпфейкових відео та перевіркою роликів на використання штучного інтелекту, пояснює: подібні ролики — легкий та дешевий спосіб просувати свої наративи й впливати на людей.

"Більше не потрібно наймати людину, яка б виступила проти своєї власної країни", — розповідає він.

Найчастіше виробники подібних відео шукають людей, які відповідають певним критеріям, припускає Ріджул: "Популярні люди, ймовірно, жінки. Ймовірно, привабливі жінки, початківці в мережі".

Та Ріджул наголошує: жертвою подібних сфабрикованих відео може стати кожен.

Якщо у вас є навіть одне 15-секундне відео в Інтернеті, ваше обличчя та голос тепер доступні будь-кому для створення діпфейку.

Ріджул переконаний: аби захиститися від подібних випадків, держустанови повинні співпрацювати з технологічними компаніями. А поки найкраще, що можна зробити в цій ситуації, критично ставитися до будь-яких відео в мережі. Та розповідати про те, що кожен може стати жертвою діпфейку, як і робить Оля, яка, попри цю історію, продовжує свій блог.

"Я цього не боюся, ця історія вже сталася зі мною. Я хочу, щоб люди знали, які в мене справді цінності, а не ті цінності, які пропагують всякі Наташі, всякі Анни на китайських соціальних мережах. Мені б дуже хотілося, щоб люди знали справжню мене".

XS
SM
MD
LG