Ждите...
Спасибо.
Закрыть

Нейросесть научили генерировать видеофальшивки

12.12.2019 17:14

-  555
Нейросесть научили генерировать видеофальшивки

Чтобы создать для любого из нас "индивидуальную" новостную картину и фальсифицировать подобранные в ней сообщения СМИ, сегодня достаточно усилий одного программиста.

Об этом "Известиям" рассказали специалисты по искусственному интеллекту и кибербезопасности.

Совсем недавно, по их оценкам, для этого требовалась работа нескольких команд. Подобное ускорение стало возможным с развитием технологий атак на нейросети и генерации звуковых и видеофальшивок с помощью программ для создания "глубоких фейков" (deepfake).

Подобной атаке недавно подверглась газета "Известия", когда сразу три ливийских новостных портала опубликовали сообщение, якобы вышедшее в одном из номеров.

Читайте также: Нейросети научились «раскалывать» капчу

По словам специалистов, в течение 3-5 лет можно ожидать нашествия ботов-манипуляторов, которые автоматически смогут создавать множество фейков.

Дивный новый мир

Проектов, которые подстраивают информационную картину под восприятие конкретных пользователей, в последнее время появляется всё больше. Одним из примеров их работы стала недавняя акция трех ливийских порталов, которые опубликовали новость, якобы напечатанную в номере "Известий" от 20 ноября. Создатели фейка видоизменили первую полосу газеты, разместив на ней сообщение о переговорах фельдмаршала Халифы Хафтара и премьера правительства национального согласия (ПНС) Файеза Сарраджа. Фальшивку, выполненную шрифтом "Известий", сопровождало фото двух лидеров, сделанное в мае 2017 года. Плашка с логотипом издания была вырезана из реально вышедшего в печать номера от 20 ноября, а все остальные тексты на полосе из выпуска от 23 октября. 

С точки зрения специалистов, в обозримом будущем такие фальсификации можно будет делать в автоматическом режиме.

— Технологии искусственного интеллекта сегодня полностью открыты, а устройства для получения и обработки данных миниатюризируются и дешевеют, — сообщил "Известиям" доктор физико-математических наук, профессор РАН, начальник подразделения ФГУП "ГосНИИАС" Юрий Вильзитер. — Поэтому велика вероятность, что в скором будущем подслушивать и подсматривать за нами, а также манипулировать реальностью смогут даже не государство и крупные корпорации, а просто частные лица. В течение ближайших лет появится возможность, анализируя предпочтения пользователя, воздействовать на него посредством подборок новостей и очень искусных фейков.

По мнению Юрия Вильзитера, технологии, которые могут быть задействованы для подобного вмешательства в ментальную среду, существуют уже сейчас. Теоретически нашествия ботов-манипуляторов можно ожидать уже через несколько лет, отметил он. Сдерживающим моментом здесь может стать необходимость сбора больших баз примеров реакций реальных людей на искусственные стимулы с отслеживанием долгосрочных последствий. Такое отслеживание, вероятно, потребует ещё несколько лет исследований до получения стабильных результатов таргетированных атак.

Атака на зрение

С Юрием Вильзитером согласен и руководитель отдела аналитики компании "СёрчИнформ" Алексей Парфентьев. По его словам, специалисты уже прогнозируют атаки на нейросети, хотя сейчас подобных примеров практически нет.

— Исследователи из Gartner считают, что к 2022 году 30% всех кибератак будут нацелены на порчу данных, на которых тренируется нейросеть, и кражу готовых моделей машинного обучения. Тогда, например, беспилотные автомобили неожиданно могут начать принимать пешеходов за другие объекты. И речь будет идти не о финансовом или репутационном риске, а о жизни и здоровье простых людей, — считает эксперт.

Атаки на системы компьютерного зрения осуществляются в рамках исследований уже сейчас. Цель таких атак — заставить нейросеть обнаружить на изображении то, чего там нет. Или, наоборот, не увидеть того, что планировалось.

— Одна из активно развивающихся тем в сфере обучения нейронных сетей — так называемые adversarial-атаки ("состязательные атаки". — "Известия"), — пояснил веб-аналитик "Лаборатории Касперского" Владислав Тушканов. — В большинстве случаев они направлены на системы компьютерного зрения. Для проведения такой атаки в большинстве случаев требуется иметь полный доступ к нейросети (так называемые white-box-атаки) или результатам её работы (black-box-атаки). Методов, которые позволяют обмануть любую систему компьютерного зрения в 100% случаев, не существует. Кроме того, уже созданы инструменты, которые позволяют тестировать нейросети на устойчивость к adversarial-атакам и повышать их устойчивость.

В ходе такой атаки злоумышленник пытается каким-то образом изменить распознаваемое изображение так, чтобы нейросеть не сработала. Часто на фото накладывается шум, схожий с тем, который возникает при фотографировании в плохо освещаемом помещении. Человек обычно плохо замечает такие помехи, а вот нейросеть начинает сбоить. Но для того чтобы провернуть такую атаку, злоумышленнику нужен доступ к алгоритму.

По словам генерального директора компании "Нейросети Ашманова" Станислава Ашманова, на данный момент методов борьбы с этой проблемой не существует. Кроме того, эта технология доступна любому желающему: программист средней квалификации может ею воспользоваться, скачав необходимое открытое программное обеспечение с сервиса Github.

— Атака на нейросети — это методика и алгоритмы обмана нейронной сети, которые заставляют её выдавать ложные результаты, а по сути, взламывают ее, как дверной замок, — считает Ашманов. — Например, сейчас довольно легко можно заставить систему распознавания лиц думать, что перед ней не вы, а Арнольд Шварценеггер — это делается путем подмешивания незаметных человеческому глазу добавок в данные, поступающие к нейросети. Такие же атаки возможны и для систем распознавания и анализа речи.

Эксперт уверен, что дальше будет только хуже — эти технологии пошли в массы, мошенники уже сейчас их используют, а средств защиты от них нет. Как нет защиты и от автоматизированного создания подделок видео и аудио.

Глубокие фейки

Технологии deepfake, основанные на Deep Learning (технологии глубокого обучения нейросетей. — "Известия"), уже сейчас представляют реальную угрозу. Видео- или аудиофальшивки создаются с помощью монтажа или наложения лиц известных людей, которые якобы произносят необходимый текст и играют нужную роль в сюжете.

— Deepfake позволяет заменить движения губ и речь человека на видео, что создает ощущение реалистичности происходящего, — рассказывает директор департамента инновационной защиты бренда и интеллектуальной собственности Group-IB Андрей Бусаргин. — Фейковые знаменитости "предлагают" в социальных сетях пользователям поучаствовать в розыгрыше ценных призов (смартфонов, автомобилей, денежных сумм) и т.д. Ссылки из таких видеопубликаций часто ведут на мошеннические и фишинговые сайты, где пользователей просят ввести личные данные, включая данные банковских карт. Подобные схемы представляют собой угрозу как для обычных пользователей, так и для публичных лиц, которые упоминаются в рекламных роликах. Из-за махинаций такого рода образы знаменитостей начинают ассоциироваться с мошенничеством или рекламируемыми товарами, и здесь мы сталкиваемся с ущербом личному бренду, — говорит он.

Еще одна угроза связана с использованием "фейковых голосов" для телефонного мошенничества. Например, в Германии злоумышленники использовали голосовой deepfake, чтобы в телефонном разговоре, выдавая себя за руководителя компании, заставить руководителя дочерней фирмы из Великобритании срочно перевести 220 тыс. на счет некоего венгерского поставщика. Глава британской фирмы заподозрил подвох, когда его "босс" попросил о втором денежном переводе, но звонок при этом исходил с австрийского номера. К этому моменту первый транш уже поступил на счет в Венгрии, откуда деньги были выведены в Мексику.

Получается, что ныне существующие технологии позволяют создать индивидуальную новостную картину, наполненную фейковыми новостями. Причем отличить подделки от реального видео и аудио скоро можно будет только аппаратными средствами. По словам специалистов, меры, запрещающие развитие нейросетей, вряд ли будут эффективными. Поэтому скоро мы будем жить в мире, в котором нужно будет постоянно всё перепроверять.

— К этому нужно готовиться, и это нужно принять, — подчеркнул Юрий Вильзитер. — Человечество не впервые переходит из одной реальности в другую. Наш мир, способ жизни и ценности радикально отличаются от мира, в котором жили наши предки 60 000 лет назад, 5000 лет назад, 2000 лет назад и даже 200-100 лет назад. Человек в скором будущем в значительной степени будет лишен приватности и потому принужден ничего не скрывать и поступать честно. В то же время ничего в окружающей реальности и собственной личности нельзя будет принимать на веру, всё придется подвергать сомнению и постоянно перепроверять. Но будет ли эта будущая реальность ужасной? Нет. Она просто будет совершенно иной.


Источник

0
Уважаемые, гости, если Вам понравилась или наоборот не понравилась новость, оставьте, пожалуйста, Ваш комментарий. Регистрация не займет у Вас времени, Ваше мнение важно для нас. Большое спасибо за Ваше внимание!
Добавить комментарий
Причина жалобы:   

Комментарии к новости (0)

Пока нет комментариев к новости. Вы можете быть первым




Популярные новости

10.06.2013 8:24 - Wiki

Израильтянам ставят на лоб метки

Источник: Мы уже неоднократно публиковали материалы, касающиеся темы нанесения антихристовых начертаний на людей. Некоторые специалисты и эксперты считают, что наносить штрих-код (клеймо, печать) на лоб человека будут при фотографировании на новые биометрические электронные документы (паспорта-карточки).

26.01.2014 17:22 - Сокол

Как работает Государственная Дума в России. Даже нам стыдно…

Источник: Практикант рассказал, как депутаты проводят время в Госдуме. Орфография и пунктуация автора сохранены. “Подошла к концу первая неделя моей практике в одной из святынь российской государственности — Государственной Думе РФ, — пишет блоггер yeenzo.

27.08.2013 7:45 - солдат

Русский художник Виктор Васнецов "осуждён" посмертно по ст. 282 УКРФ

Источник: Ленинский районный суд в городе Кирове признал картину замечательного русского художника В.М. Васнецова "экстремистской"... Наконец-то "длинные руки" правоохранительной системы дотянулись до главного. Вступило в законную силу решение Ленинского районного суда города Кирова

14.11.2019 19:28 - НСМБЖ

Свой среди чужих, или чужой среди своих?

Источник: Зимой 2019 года в блогосферу Гомельщины ворвалось никому ранее неизвестное упитанное бородатое лицо, и практически сходу, с колес начало строить у нас "Страну для жизни".

15.09.2012 9:22 - 555

Говорят, что Путин не настоящий

Источник: Как говорится, факт налицо. Что с внешностью президента? Договорились до того, что Путин, которого мы видим, уже не Путин, а его двойник.

23.06.2014 9:33 - 555

Что пророчила Ванга про Украину

Источник: Интересно, что в свое время в предсказаниях Ванги был катрен, который все считали фантазией болгарской бабушки: "Крым оторвется от одного берега и прирастет к другому". Ну и впрямь — как может Крым оторваться? Теперь мы увидели, как...

06.04.2012 17:29 - свобода

Кто должен платить долги и кредиты за тех, кто умер

Источник: В середине марта банк "Восточный экспресс" выставил на продажу просроченные кредиты своих умерших заемщиков.

12.08.2014 8:33 - prokrust

Кто сбил малазийский «Боинг» - анализ военного летчика

Источник: Валентин Василеску (Valentin Vasilescu), румынский военный эксперт, пилот и бывший заместитель командующего военным аэропортом "Отопень" изложил свою версию трагедии с малайзийским "Боингом" в небе над Украиной.

21.11.2012 7:33 - Sergey2013

Вертикаль гламурного фашизма

Источник: Новая советница Шойгу Мария Китаева. Групповуха с переодеваниями. Такими кадрами нельзя разбрасываться в Московской области. Надо немедленно тащить ее в Министерство обороны. Там столько вакансий освободилось после сердюковских девок.

02.04.2012 15:28 - свобода

Крупнейшие авиакатастрофы в России за последние 10 лет

Источник: Сегодня пассажирский лайнер ATR-72 разбился при взлете в аэропорту Тюмени. Самолет разрушился при падении и загорелся.

10.06.2014 18:42 - prokrust

Садальский рассказал где живут дети российских чиновник

Источник: Известный актер и блоггер Станислав Садальский 8 июня опубликовал в своем "Живом Журнале" пост "Они любят Россию и российский народ как источник дохода, но видят будущее свое и своих детей на западе". Он активно обсуждается

11.05.2014 22:04 - 555

Как это быть "ватником"

Источник: Недавно в прокате шел фильм А.Германа , по повести Стругацких , "Трудно быть богом" , я его не смотрел. Глядя на всю мою жизнь, мне почему-то захотелось написать, как трудно быть ватником. Почему трудно быть ватником и признаки ватника

02.07.2020 9:31 - next

Виниловые и нитриловые перчатки: плюсы и минусы

Источник: Во многих областях деятельности большое внимание уделяют индивидуальной защите рук, поэтому в них большим спросом пользуются синтетические перчатки.

02.02.2013 14:44 - frend

Рейтинг надежности автомобилей TÜV Report 2013 года

Источник: Ежегодно в Германии проводится оценка миллионов автомобилей на предмет надежности, по результатам которой составляется рейтинг TÜV В нынешнем году эксперты оценили

30.04.2014 7:08 - 555

Как укрСМИ оболгали Дюжева

Источник: Украинские СМД (средства массовой дезинформации) продолжают упражнения, связанные с тем, кто опубликует самый нелепый материал, "раскрывающий суть кровавого российского вмешательства" на востоке незалежной. "Пресса Украины" на днях решила внести

09.06.2014 7:35 - 555

Задорнов про "особый" украинский народ

Источник: Я уже не раз ранее писал о том, что у античных летописцев первых веков нашей эры существуют записи о том, как древние греки не могли отличить кельтов от венедов: выглядели эти народы одинаково, говорили на очень похожих языках, да и боги их были

Вход

Заполните поле
Заполните поле
закрыть