Комитет США по разведке Палаты на прошлой неделе заслушал показания экспертов о растущей угрозе «deepfakes» — измененное видео и другие
искусственный интеллект-создается ложная информация … и что это может означать для
всеобщие выборы в 2020 году, а также национальной безопасности страны в целом.
Технологии коллективно известный как «deepfakes» может использоваться для объединения или
наложить имеющиеся изображения и видео с другими изображениями или видео
использование искусственного интеллекта или машинного обучения «генеративный состязательности сети» методов.
Эти возможности позволили
создание фейк видео знаменитостей, включая порнографию …
а также за распространение фейковых новостей и других вредоносных подделок.
Слушание с последующим широкого распространения поддельной видео спикер Палаты представителей Нэнси Пелоси, Д-Калифорния., который сделал ей появляться нарушения. Видео
обошел в социальных медиа и был просмотрен более 2,5 миллионов раз на
Facebook.
Deepfakes стала межпартийная проблема, с
и демократы, и республиканцы выражают озабоченность по поводу использования манипулировать
видео как инструмент дезинформации.
Комитет по разведке Палаты заслушали показания четырех различных
эксперты в Аи и дезинформации о потенциальных рисках в США
правительство даже и от демократии deepfakes. Тем не менее, один из экспертов также
о предупредил deepfakes угрозу может представлять для частного
секторе. Один такой сценарий может включать видео deepfake показывая генерального директора в совершении
преступление. Положить, что типа они в обороте могут повлиять на цену акций компании.
Будь то в политике или бизнесе, даже если видео развенчаны повреждение могло быть прочным.
История Глубокая
Фраза «deepfakes» был впервые введен в 2017 году, а в умении
изменять и манипулировать видео идет обратно к видео
Программа рерайт, который был опубликован в 1997 году. Это позволило пользователям
изменить видео человек говорит, чтобы изобразить этого человека
произнести слова с совершенно другой звуковой дорожки.
Методика комбинирования видео и изменить то, что было сказано и
использовался в Голливуде даже больше, но это, как правило, является дорогостоящим и
трудоемкая деятельность. Фильм Форрест Гамп, например, требуется
команда художников для отрисовки персонажа, которого играет Том Хэнкс, в исторические кадры.
Теперь, более 20 лет спустя, результаты не так хороши, как то, что
сегодня это программное обеспечение может сделать.
Простые программы, такие как FakeApp — который был выпущен в январе 2018 года
— позвольте пользователям легко манипулировать видео, граней.
Приложение использует искусственные нейронные сети и только 4 ГБ
для создания видео.
Качество и детализация базируется видео
на количество наглядного материала, который может быть предоставлен, но, учитывая, что
сегодняшние политические деятели появляются в сотни часов записей, это
легко достаточно сделать очень интересное видео.
Борется с фейками
Технологии для борьбы с deepfakes находится в разработке. ОСК
Институт информационных наук разработали инструмент, который может обнаружить фейки
с 96-процентной точностью. Он умеет обнаружить тонкие грани и
движения головы, а также уникальное видео «артефактов» — в
заметное искажение СМИ, что вызвано сжатия, что также
может указывать на манипуляции видео.
Предыдущие методы для обнаружения deepfakes покадровый требуется
анализ видео, но исследователи УСЦ МГС разработали инструмент
которая была протестирована на более чем 1000 видео и доказала
быть менее ресурсоемкой.
Это может иметь потенциал для масштабирования и использоваться, чтобы автоматически …
и что еще более важно — быстро обнаружить подделки, как видео загрузил
на Facebook и других социальных медиа-платформ. Это позволяет практически в режиме реального времени обнаружения, то, что будет держать такие видео с
идет вирусная.
Исследователи ОСК ИСИ опираться на два этапа. Это первый
требует, чтобы сотни примеров, подтвержденных видео человека
загружен. Глубокий алгоритм обучения, известный как «сверточные нейронные
сеть» позволяет в исследователям определить особенности и закономерности
лицо индивида. Затем инструменты могут определить, если они есть
манипулируют, сравнивая движения и черты лица.
Результаты схожи с биометрическим считывателем, который может признать
лица, сканирование сетчатки глаза или отпечатков пальцев, но только как с этими технологиями, базовые показатели для сравнения. Что может быть легким для известных личностей
например, спикер Пелоси или актера Тома Хэнкса, но для
средний человек это, вероятно, не будет легко так же, как
база данных существующих видео кадры могут быть ограничены или вовсе отсутствуют.
Потенциал, чтобы стать оружием
Deepfakes есть потенциал, чтобы быть далеко
хуже и делать гораздо больше вреда, чем «фотошопить» снимки-как на индивидуальном, так и даже национальном уровне.
«Есть огромная разница между «фотошоп» и
Ай автоматизированного видео, и люди должны быть обеспокоены, потому что deepfakes
их повышенный реализм потенциал и оружия», — предупредил
Усман Рахим, цифровой безопасности и менеджером по
СМИ Доверять.
Одна из причин заключается в том, что сегодня люди принимают, что фотографии могут быть изменены, так
так что заслужили они прозвище «cheapfakes». Видео
это новый рубеж.
«Гораздо меньше известно о том, насколько реально фейк видео стали, как и
они легко могут быть сделаны для того, чтобы распространять дезинформацию, уничтожать
репутации или подорвать демократические процессы», — рассказал Рахим в электронной коммерции
«В чужих руках, deepfakes распространяется через Интернет, особенно
социальные медиа могут иметь большое влияние на людей — и больше
в целом, общество и экономику», — добавил он.
«Помимо национальной угрозой безопасности-например, глубокий фейк видео
мировой лидер, используемые для подстрекательства к террористической деятельности — политические риски
особенно высокая в конкурентной национальных выборов, таких как 2020, с
несколько кандидатов, которые стремятся свергнуть спорный действующий,»
доцент Ларри Парнелл отметил, стратегическим связям с общественностью директор программы в
Высшей школой политического менеджмента Университета Джорджа Вашингтона.
«Обе стороны могут поддаться соблазну и вовлечься в эту деятельность, что и
сделали бы «старой школы» пакости показаться обычным и странным,» он
рассказали электронной коммерции. «Мы уже видели, как социальные медиа могут быть использованы
влияние национальных выборах в 2016 году. Это будет выглядеть как ребенок
играть против насколько продвинута эта технология стала в последние
два-три года».
Вне политики и риски безопасности
Deepfakes может представлять проблему на гораздо более личные и
индивидуальном уровне. Технология уже была использована для создания
месть порно видео, и есть потенциал, чтобы использовать его для других
зловещий или неблаговидных целях.
«В руках детей без присмотра, deepfakes может поднять киберзапугивание
на новый уровень», — сказал СМИ доверять Рахим.
«Представьте себе, что произойдет, если использовать образы наших собственных или наших детей и
распространяемые в интернете», — добавил он.
«Мы могли бы даже увидеть поддельные видео и посты в социальных медиа используются в судопроизводстве в качестве доказательств против противоречивая фигура в
заставить их замолчать или уничтожить их доверие», — предупредил ГВ по Парнелл.
Там уже были призывы провести ИТ-индустрии
ответственность за создание deepfakes.
«Если вы создаете программное обеспечение, которое позволяет пользователю создавать deepfakes, ну
тогда вы будете нести ответственность за существенный ущерб, может быть, даже
к уголовной ответственности», — аргументировал Anirudh Ruhil, профессор
Школа Войновича лидерства и связей с общественностью в Университете штата Огайо.
«Вы должны быть социальные медиа или другие технологические платформы, которая распространяет
deepfakes, вы будете нести ответственность и возместить ущерб, возможно, даже кутузку
время,» он сказал в электронной коммерции.
«Это единственные варианты политики, потому что в противном случае вы будете иметь
социальных медиа-платформ и сайтов будет безнаказанным для толкания
глубокий фейки для массовой публики,» Ruhil добавил.
Возможно, авторы таких отвратительных видео не может быть
легко нашли, в некоторых случаях и может быть мир, сделав преследования
не-стартер.
«В некотором смысле, эта политика похожа на то, что кто-то может возразить
о контроле за оружием: целевой продавцы оружия, способного причинить
огромный ущерб», — пояснил Ruhil. «Если мы позволим ИТ-индустрии в
скейт бесплатно, вы увидите повторы тех же проблемах, которые мы имели
полицейские Facebook, Ютуб, Твиттер и тому подобное.»
Отпор
Хорошие новости о deepfakes заключается в том, что во многих случаях технологии
еще не идеальный, есть и много признаков, что
видео было манипулировать.
Кроме того, есть уже инструменты, которые могут помочь исследователям и СМИ отличить факт от вымысла.
«Социальные медиа и платформ, а также традиционные средства массовой информации могут использовать эти инструменты
для определения deepfakes и либо удалить их или пометить их как таковые, так
пользователи не обманешь», — сказал Рахим.
Другим решением может быть как простой, как добавление «цифрового шума» в
изображений и файлов, делая это тяжелее, чтобы использовать их для производства
deepfakes.
Однако, как и в мире кибербезопасности, то, скорее всего, плохие актеры останутся
на шаг впереди-так что сегодняшние решения не может решить методами завтра
для производства deepfakes.
Это может быть необходимо прикладывать больше усилий для решения этой проблемы, прежде чем она станет столь велика, что она не разрешима.
«Хотя это может быть постоянный и дорогостоящий процесс — основных технологических
компании должны инвестировать в новые технологии, чтобы определить глубокий фейк
видео», предложил Парнеллу.
«Программное обеспечение разрабатывается агентством DARPA и другие государственные и частные
компаний, которые могут быть использованы, как альтернатива должна быть
застигнуты врасплох и подвергаться критике за то, что не делают так … и
понести серьезный ущерб репутации, что будет результат», — добавил он.
Сейчас самое лучшее, что может произойти, это для издателей и социальной
медиа-платформ, чтобы вызвать и deepfakes искоренить, который поможет
восстановить доверие.
«Если этого нет, то их авторитет будет продолжать нырять, и они будут
есть силы в упадок собственного бизнеса», — сказал Рахим.
«Недоверие к социальных медиа-платформ, в частности растет, и они
не видно почти так же опасен, как хакеры», — предупредил он.
«В данных клиентских приоритетов Эра монетизации
уступает счет сохранения или восстановления потребительского доверия
новая эра, где онлайн доверия работает рука об руку с ростом
нижняя линия,» Рахим указал. «Социальные и традиционные медиа также может быть
Сила добра, раскрыв плохие актеры и повышение уровня информированности потребителей
распространенности и угрозы deepfakes».