Детальніше. Компанія Deeptrace, яка займається кібербезпекою, дослідила поширеність діпфейків у мережі. За останні 9 місяців кількість таких роликів у мережі подвоїлося. Є дані, що виробництво цих відеороликів стає вигідною справою.
Більшість роликів має порнографічний характер або політичне забарвлення. 96% діпфейків — порнографія, в якій обличчя порноакторів у відео замінюють на інші з використанням штучного інтелекту.
Технології глибоких фейків можуть використовувати і в політичних кампаніях. Однак наразі реальна небезпека наразі полягає у використанні технології для помсти знайомим та кібербулінгу.
Довідка. Що таке діпфейк? «Діпфейк» складається із двох англійських слів: «deep» – глибокий, та «fake» – фальшивка». Діпфейк – це керований штучним інтелектом механізм, який заміщуєобличчя людини на відео обличчям іншої людини. Фото чи відео, які створені таким чином, виглядають дуже правдоподібно, але зображують те, чого насправді не було.
⟶ Facebook планує виділити $10 млн на розробку технології розпізнавання діпфейків. Для цього мають створити спеціальний фонд Deepfake Detection Challenge. Учасники конкурсу отримуватимуть від фонду гранти на розробку технології розпізнавання діпфейків. Під час конкурсу учасники використовуватимуть публічну базу відео з акторами.
Facebook пообіцяв не використовувати особисті дані користувачів соцмережі. Конкурс планують розпочати в грудні цього року, він триватиме до березня 2020 року. Взяти участь можуть усі охочі. Переможця оберуть завдяки механізму, що оцінить та порівняє ефективність алгоритмів різних учасників.
⟶ Чи існує позитив від появи діпфейків? Насправді — так. Наприклад, історію у школі дітям може розповідати не вчитель, а сам Богдан Хмельницький із екранів моніторів – і при цьому взаємодіяти з аудиторією. Це сприятиме підвищенню інтересу дітей до навчання.
Неурядова організація ALS Association у співпраці з компанією Lyrebird хочуть використовувати технологію копіювання голосів, яку застосовують для створення діпфейків, щоб допомогти людям, які хворі на бічний аміотрофічний склероз — це допоможе відтворити їхні голоси.
Дізнайтеся більше про діпфейки:
Фото: radiosvoboda.org