Разное

Топ-10 возмутительных дипфейк-скандалов

Невозможно отрицать: искусственный интеллект меняет мир, каким мы его знаем. Но к лучшему ли эти изменения? В последние годы мы стали свидетелями роста фальсификаций. Ловкие алгоритмы позволяют пользователям подделывать фотографии и видео, заменяя лицо одного человека на лицо другого.

Технология глубокой подделки нашла широкое применение, причем многие из них положительные. Фанаты “Звездных войн” изменили кадры из фильма “Соло” 2018 года так, что исполнитель главной роли Олден Эренрайх стал похож на молодого Харрисона Форда. Только на прошлое Рождество британский телеканал Channel 4 показал измененную в цифровом формате версию речи королевы. Вместо обычного послания доброй воли Ее Величество была замечена за ехидными шутками о событиях года, а затем запрыгнула на свой стол для праздничного буги.

Но даже по меркам современных технологий у искусственного интеллекта есть пагубная подоплека. Ревнивые пользователи теперь могут создавать фальшивое порно из мести всего в несколько кликов. Политики используют глубокие подделки, чтобы усугубить рост фальшивых новостей и дезинформации. Киберпреступники используют алгоритмы для кражи сотен тысяч долларов у руководителей компаний. Вот десять самых странных и ужасных случаев использования этой манипулятивной новой технологии.

10 Ревнивая мать подделывает откровенные снимки соперников своей дочери по черлидингу

Родители могут стать кошмаром в подростковом возрасте, но лишь немногие из них настолько плохи, как Раффаэла Споун. Мать из Пенсильвании создала ложные уличающие фотографии соперниц своей дочери по группе поддержки в злонамеренной попытке добиться их исключения из команды. Используя изображения из социальных сетей, она смогла сфабриковать кадры, на которых члены Victory Vipers “голые, пьют и курят”.

Споун был пойман после того, как несколько семей девочек обратились в полицию. Они рассказали полицейским, что они и их дочери получали текстовые сообщения с угрозами с неизвестного номера. Полиция смогла отследить номер телефона таинственного злоумышленника. Это привело их на сайт по продаже телефонных номеров. Через этот сайт полиция обнаружила IP-адрес, который показал, что киберзлоумышленником был Споун. Они не верят, что ее дочь была в курсе ее предполагаемых действий.

После этого Споун был обвинен в домогательствах и отправке оскорбительных сообщений членам команды, их родителям и владельцам спортзала.

9 Глубокие подделки на выборах в Дели

Политики известны своими двуличными действиями. В эпоху фальшивых новостей и постправды один политик обратился к фальшивкам, чтобы усилить свою избирательную кампанию.

В феврале 2020 года, когда жители Дели готовились к выборам, в WhatsApp начали распространяться два видеоролика. В них, как оказалось, один из высокопоставленных политиков критикует правительство Дели. Президент BJP Манодж Тивари нападал на своего соперника Арвинда Кеджривала на двух языках. На первом видео он говорил по-английски. Во втором он говорил на популярном диалекте хинди – харьянви. Но только один из них был настоящим.

Тивари объединился с коммуникационной компанией для создания политически мотивированных фейков. Он произнес короткую речь на английском языке и попросил технических специалистов подделать кадры так, чтобы казалось, что он говорит на харьянви. Поддельный ролик посмотрели около 15 миллионов человек. Понятно, что многие из них посчитали, что их обманули.

После этого инцидента эксперты предупредили, что мы, возможно, движемся к ситуации, когда люди не могут доверять ничему, что они видят в Интернете. Распространение фальшивых новостей в Индии уже настолько серьезно, что его назвали “кризисом общественного здоровья”.

8 Tom Cruise TikTok Trip

В 2021 году на TikTok было загружено фейковое видео, на котором Том Круз спотыкается во время прогулки по своему роскошному дому. Появились и другие ролики, на которых голливудская звезда играет в гольф, сосет леденец и показывает фокус.

Ни один из них не был настоящим. К счастью, в этом не было никакого мошенничества. Аккаунт, ответственный за эти ролики, DeepTomCruise, открыто заявил, что они не являются подлинными. Но кадры выглядели настолько реалистично, что некоторые пользователи отказывались верить в их фальшивость. Некоторые предположили, что это был настоящий Том Круз, выдававший себя за подделку в рамках блефа в социальных сетях.

На момент написания статьи у аккаунта DeepTomCruise гораздо больше подписчиков, чем у реального аккаунта Круза, хотя актер никогда не публиковал видео. У настоящего Тома Круза около 35 000 поклонников в приложении, в то время как фальшивый аккаунт может похвастаться почти миллионом.

7Киберпреступники украли 240 000 долларов у генерального директора

В марте 2019 года мошенники позвонили генеральному директору британской энергетической компании, выдавая себя за его немецкого начальника. Они использовали алгоритмы для имитации мягкого немецкого акцента босса по телефону. У британского генерального директора не было причин подозревать нечестную игру. Преступники попросили его перевести 240 000 долларов венгерскому поставщику, утверждая, что это срочный перевод, который необходимо выполнить в течение часа. Только когда они позвонили снова и потребовали повторного платежа, у него возникли подозрения.

Эксперты утверждают, что это заявление может быть первым случаем, когда преступники использовали искусственный интеллект при ограблении. Любые предыдущие инциденты были либо не зарегистрированы, либо не распознаны. Однако эксперты в области технологий уже давно знают о возможности атак с использованием искусственного интеллекта. Подобные аферы представляют собой новую угрозу для корпораций, и компании, занимающиеся кибербезопасностью, разрабатывают новое программное обеспечение для защиты от этих атак с использованием искусственного интеллекта.

6 Avatarify, Deepfake Zoom Filter

Такие приложения для видеоконференций, как Zoom и Skype, стали невероятно популярными во время пандемии. Но для многих из нас бесконечные звонки в Zoom могут оказаться скучными. Чтобы немного развеять эту скуку, программисты создали фильтр глубокой фальши для видеозвонков. Avatarify позволяет пользователям брать на себя чужую личность. Умелое программное обеспечение может наложить другое лицо на ваше собственное. Али Алиев, создатель Avatarify, притворился Элоном Маском во время рабочего звонка Zoom, к радости своих коллег.

Хотя Avatarify впечатляет, он не особенно убедителен. Очень важно, что она не влияет на голос пользователя. Но со временем эта технология может стать только лучше. Несколько компаний уверенно продвигаются в разработке аудиоподделок. Кто знает, может быть, в скором времени можно будет убедительно выдавать себя за VIP-персону во время звонка в Zoom. И, если подумать, это может иметь весьма плачевные последствия для знаменитостей, за которых себя выдают.

5 Видео пьяной Нэнси Пелоси

В мае 2019 года видео с Нэнси Пелоси стало вирусным. В ролике была показана измененная искусственным интеллектом версия спикера Палаты представителей, которая пьяно болтала на официальном мероприятии. Видно, как она обвиняет бывшего президента США в “покрывательстве” на мероприятии Центра американского прогресса. Ее речь была заметно замедлена.

Адвокат президента Трампа и бывший мэр Нью-Йорка Руди Джулиани был среди тех, кто поделился видео в социальных сетях. Ролик набрал миллионы просмотров. Неясно, откуда взялся этот фейк, но он появился на фоне шквала попыток очернить Пелоси как психически неуравновешенную или страдающую серьезной алкогольной зависимостью. Несколькими днями ранее президент поделился другим видео, на котором было видно, как спикер спотыкается о свои слова во время выступления.

4Студент из Мумбаи редактирует лицо девочки-подростка для порнографического видео

Девушка сообщила о случившемся в полицейский участок Локманья Тилак Марг. Полиция успешно разыскала и арестовала преступника.

Еще одна причина того, что социальные сети – это яд.

3Британские активисты атакованы несуществующим журналистом

В статье для еврейской газеты The Algemeiner он обвинил супружескую пару Мазен Масри и Рывку Барнард в том, что они “известные сторонники терроризма”. Масри является преподавателем Лондонской городской юридической школы. В 2018 году он помог подать в суд на израильскую технологическую фирму NSO за ее роль в скандале с взломом телефонов в Мексике. Он и его жена были поражены неожиданными обвинениями и недоумевали, почему они стали мишенью для студента.

Дело вот в чем: Оливера Тейлора не существует. В его университете нет данных о том, что он когда-либо там учился. Экспертиза показала, что фотография профиля Тейлора – глубокая подделка. Никто понятия не имеет, кто этот писатель, а поддельные изображения невозможно отследить. Издание Algemeiner утверждает, что Тейлор связался с ними по электронной почте и никогда не требовал оплаты. Позднее они, а также газета Times of Israel удалили его работы. Но несколько его статей остаются в сети, включая материалы, написанные им для The Jerusalem Post и Arutz Sheva.

2 Киберпреступники пытаются украсть деньги у технологической компании

В июне 2020 года киберпреступники использовали аудиоподделку, пытаясь обманом заставить сотрудника технологической компании отправить им деньги. Сотрудник получил странное голосовое сообщение от человека, похожего на генерального директора. Голос в трубке утверждал, что ему требуется “немедленная помощь для завершения срочной деловой сделки”.

К счастью, сотрудник не купился на это. Они поняли, что в сообщении что-то не так. Позже выяснилось, что это был глубокий аудиофейк. Аналитики обнаружили, что голосовое сообщение было создано с помощью программного обеспечения искусственного интеллекта, чтобы обманом заставить получателя отправить деньги. Голос не совсем соответствовал обычным речевым паттернам, а фоновый шум вообще отсутствовал – оба признака ложного сообщения. Личность человека или людей, стоящих за атакой, пока неизвестна.

С другой стороны, у deepfake audio может быть и забавная сторона (см. видеоклип выше).

1 Порнография без согласия

Несогласованная порнография – это, безусловно, самое большое использование технологии deepfake. Эта тенденция впервые возникла на Reddit несколько лет назад. Пользователи брали существующие видео для взрослых и заменяли лицо исполнителя лицом знаменитости, почти всегда женским. Люди были шокированы, когда узнали, что они были созданы не на современных киностудиях, а с помощью инструментов машинного обучения, которые находятся в свободном доступе в Интернете. Среди первых людей, чьи лица были алгоритмически вставлены в порно, были Галь Годо, Скарлетт Йоханссон, Тейлор Свифт и Мэйзи Уильямс.

С тех пор deepfake porn развивалось, программисты вводили цифровые 3D аватары. Теперь создатели порно генерируют реалистичные модели, программируют их на выполнение сексуальных действий, а затем заменяют их лица кем-то вроде Марго Робби или Эмилии Кларк. Это означает, что любой может управлять 3D-аватаром, заставляя его принимать любые позы для секса, а затем накладывать на него лицо реального человека.

В 2019 году программисты deepfake выпустили приложение DeepNude. DeepNude использует нейронные сети для раздевания фотографий женщин, создавая убедительные обнаженные изображения. Достаточно загрузить изображение одетой женщины, и ИИ разденет ее до праздничного костюма. Приложение просуществовало недолго. Всего через несколько дней после запуска анонимный создатель DeepNude “Альберто” удалил его из сети.

Как вы можете себе представить, растущая тенденция к созданию глубоко фальшивой порнографии породила всевозможные этические проблемы. Даниэль Цитрон, которого попросили дать показания Конгрессу об угрозе, которую представляет порнография, созданная искусственным интеллектом, назвал эту технологию “вторжением в частную жизнь”.

Адвокат Кэрри Голдберг, эксперт по порнографии мести, также настроена критически. “Любой, кто говорит, что интернет – это не реальная жизнь или виртуальная реальность – это фальшивка, просто придумывает оправдания для того, чтобы делать плохие вещи”, – сказала она журналистам. “Нет никаких сомнений в том, что создание бота для изнасилования в виртуальной реальности наносит изображаемому человеку совсем другие травмы, чем реальное нападение на него. Однако две разные вещи одновременно могут быть неправильными и неэтичными”.

Оставить комментарий

Ваш email не будет опубликован. Обязательные поля отмечены *

Вы можете использовать это HTMLтеги и атрибуты: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>