Атака дипфейков: количество нейросетевых фальшивок в РФ выросло в четыре раза

4

Сегодня, 17:20 Общество Эфирная новость

Атака дипфейков: количество нейросетевых фальшивок в РФ выросло в четыре раза

18 0

Качество работ ИИ растет, чаще всего подделывают видео с губернаторами и артистами. ВКонтакте TelegramОдноклассникиTwitter

Фото, видео: ИЗВЕСТИЯ/Анна Селина; 5-tv.ru

Количество дипфейков в России выросло в четыре раза за полгода

Россию захлестнула эпидемия цифровых двойников. Только за последние полгода количество дипфейков увеличилось в рекордные четыре раза. Причем чаще всего мошенники подделывают видео с губернаторами, госслужащими и артистами российской эстрады.

При этом качество нейросетевых фальшивок становится практически неотличимым. Есть ли способы распознать обман и как защитить свои данные — разобрался корреспондент «Известий» Илья Аникеев.

Трамп красит пасхальные яйца, Гарри Поттер в форме красноармейца, а Сталлоне — за рулем асфальтоукладчика. Нейросеть на выдумки хитра.

Все это дипфейки — реалистичные изображения, по воле человека созданные искусственным интеллектом. Одни смешные, другие намеренно вводят в заблуждение.

Визуально отличить псевдогубернатора Саратовской области от настоящего невозможно. Изображение и голос фейкового главы Камчатского края должны были вызвать народный гнев.

Конечно, никто из глав регионов никакие тарифы повышать не собирался. За полгода количество дипфейков с госслужащими увеличилось в четыре раза. До того, как официально опровергли, видеоподделки успели посмотреть 122,5 миллиона человек.

«В этом году мы отмечаем уже четырехкратный рост уникальных дипфейков. Больше 300 случаев в российском сегменте мы зафиксировали», — подчеркнул начальник управления по противодействию распространению недостоверной информации АНО «Диалог регионы» Сергей Маклаков.

И если видео с лжечиновниками быстро разоблачают, то дипфейки с простыми людьми, которые мошенники рассылают в мессенджерах, успевают нанести россиянам финансовый урон.

«Сама по себе дипфейк-технология, она не является какой-то вредоносной или опасной, но то, как ее применяют периодически в связке с какими-то другими ухищрениями, создает действительно серьезные риски», — заявил эксперт по кибербезопасности Павел Мясоедов.

Так голосовой дипфейк предпринимателя Михаила Токовинина призывал инвестировать. Мошенники, используя лицо и голос бизнесмена, обманули десятки людей.

«Крайне неприятно и обидно, что есть реально пострадавшие. Это настолько примитивно, и просто, и доступно, что тебе даже не нужно подделывать Майкла Джексона. Ты же можешь подделывать и обманывать сотни людей. Ты можешь подделать бабушку и обмануть внука», — рассказал Токовинин.

Найти автора дипфейка практически невозможно. В сети полно готовых платформ, создающих такие видео за секунды. В России разрабатывают приложение, способное распознавать сгенерированный голос.

«Задача этой системы — создать очень простой продукт, который был бы ориентирован именно на выявление голосовых дипфейков, у него был бы очень простой программный интерфейс, то есть любой разработчик очень легко мог бы его подключить к своему проекту», — рассказал доцент кафедры криптологии и кибербезопасности НИЯУ «МИФИ» Дмитрий Фанов.

Интернет-пользователи оставляют цифровые следы в мессенджерах и соцсетях: фотографии, видео, голосовые сообщения. С их помощью и создаются кибердвойники. Даже умерших людей.

«Основными целями становятся люди, переживающие утрату. При этом круг жертв не ограничивается пожилыми людьми», — подчеркнул руководитель центра цифровой экспертизы Роскачества Сергей Кузьменко.

В российском законодательстве уже задумались о введении юридического термина «дипфейк».

«Это персональные данные фактически используются человека, его изображение, его голос, иные данные без его согласия. И, если это используется в преступных посягательствах, очевидно, что требуется отдельная квалификация в сфере уголовного права», — отметил замглавы Росфинмониторинга Герман Негляд.

Подделать можно кого угодно. Сгенерировали же клип на сгенерированную песню лидера группы «Кино», словно подтверждая — Цой жив. И, судя по тому, как развиваются нейросетевые технологии, дипфейки станут еще реалистичнее.

Еще больше новостей — у Пятого канала в мессенджере MAX.

Видео новости Искусственный интеллект Россия

Читайте также

+5° 755 мм рт. ст.
87% 80.85
-0.34 93.92
-0.13 🧙‍♀ Гороскоп на сегодня, 14 октября, для всех знаков зодиака

Нашли ошибку?

Укажите ваш email:

Отправить

Спасибо! Мы получили Ваше сообщение.

Закрыть