Сегодня искусственный интеллект может приносить не только пользу, но и вводить людей в заблуждение и быть использованным во время информационной войны. В частности, речь идет и о дипфейке - технологии, которая способна размывать линию между реальностью и чем-то фантастическим.
Что же такое дипфейк?
Это технология, которая применяет искусственный интеллект для создания фальшивых изображений или видеороликов с "реальными" людьми, благодаря наложению и сочетанию отдельных фрагментов на другие изображения и видеоролики.
Впервые технология стала популярной еще в 2017 году, когда ее применяли для мести другим людям, или же для воспроизведения порнографических роликов.
В конце концов, ее начали использовать и в поддельных новостях, или же в злонамеренных заблуждениях.
Например:
- бывшего президента Аргентины Маурисио Макри в свое время "подменили" Гитлером;
- актер Джордан Пил создал фейковое видео с бывшим президентом США Бараком Обамой с целью предупреждения об опасности технологии.
Приведенные примеры были созданы еще в 2018-м году. За последние годы технология успела развиться еще дальше, в связи с чем иногда выявить качественно воспроизведенную фальсификацию становится все труднее.
В то же время большинство платформ, таких как Twitter, Reddit, Discord уже давно начали бороться с технологией, удаляя любой контент, содержащий в себе дипфейк и блокируя пользователей, которые его опубликовали.
Эксперты считают, что подобные сфабрикованные видео могут стать настоящим оружием во время информационной войны.
Как отличить дипфейк?
Сегодня же немало ученых работают над уникальными алгоритмами, которые должны выявлять сфабрикованные видеоролики. Однако почти ни один из них не обладает 100% точностью работы.
К сожалению, надежных способов отличить дипфейк нет. В большинстве случаев приходится полагаться на свои же глаза. Однако не все так и плохо.
Например, во время покадрового просмотра можно увидеть плохие признаки генерирования и наложения изображения на видеоролик. Особое внимание стоит обратить на:
- лицо не всегда может пропорционально "накладываться" на тело;
- в области бровей и глаз могут быть неестественные тени;
- очки или же аксессуары могут иметь странные блики, а особенно это заметно на фотографиях;
- искусственный интеллект плохо работает с волосами, которые на видео не выглядят естественно. Они могут быть "размытыми", или же иметь неправильную линию роста;
- иногда же брак могут выдавать и глаза, речь идет об их движении, бликах света и прочем;
- мимика и движение в целом могут казаться неестественными.
Важно добавить, что технологию дипфейка почти всегда используют с подменой голоса.
Попробовать распознавать дипфейки можно на сайте энтузиастов Массачусетского технологического института.
Может ли Россия прибегнуть к использованию технологии?
Ответ: да.
Как сообщает Центр стратегических коммуникаций и информационной безопасности, сегодня агрессор может прибегнуть ко всем попыткам дезориентировать наших граждан, или же заставить их упасть духом.
В том числе речь идет и об использовании технологии дипфейк в якобы "официальных заявлениях" президента Украины Владимира Зеленского о, например, капитуляции.
"Знайте - это фейк! Его цель - дезориентировать, посеять панику, сломить граждан и склонить наши войска к сдаче. Будьте уверены - Украина не будет капитулировать", - пишет пресс-служба центра.
Помните, важно получать информацию исключительно из проверенных источников, особенно сегодня. Не дайте врагу ввести вас в заблуждение.
Почему вы можете доверять vesti-ua.net →
Читайте vesti-ua.net в Google News