Гримасы черного пиара. Фейковое фото британского премьера Риши Сунака, наливающего пиво «не в тот стакан», вызвало бурное негодование у Консервативной партии. И хотя не ясно, редактировали ли исходное фото с помощью ИИ, вновь развернулась дискуссия о борьбе с дипфейками и маркировке произведённых с помощью ИИ изображений.
Угроза демократическим процессам
Британские эксперты по искусственному интеллекту заявили, что изображения политиков, сгенерированные или отредактированные с помощью генеративных ИИ вроде Midjourney или Stable Diffusion, «несут угрозу демократическим процессам».
Заявление связано с недавней публикацией отредактированной фотографии, на которой премьер-министр Великобритании Риши Сунак (Rishi Sunak) на фестивале пива в Лондоне из-за стойки бара протягивает посетителю дешёвый стакан, недолитый крепким пивом Black Dub. Рядом с ним стоит женщина и косится на Сунака с насмешливым выражением лица.
Очень скоро выяснилось, что фотография была значительно отредактирована: в действительности стакан был фирменным, пиво долито до краев, а выражение лица у женщины, стоявшей рядом, было совершенно нейтральным.
Однако отредактированное изображение сначала запостил в своих соцсетях член Парламента от партии лейбористов Карл Тёрнер (Karl Turner), а затем и другие члены партии.
Консерваторы, в свою очередь, взорвались негодованием. Вице-премьер Оливер Дауден (Oliver Dowden) назвал изображение неприемлемым и призвал членов лейбористской партии поудалять эту псевдофотографию, поскольку она «вводит в заблуждение».
Будущее, которое мало кому понравится
Эксперты предупреждают, что нынешняя ситуация — это индикатор того, что может случиться в ходе предвыборной гонки в следующем году, и что хотя не до конца ясно, применялся ли в случае с фотографией с премьер-министром, подобные программы позволили быстрее и проще производить фейковые (и при этом убедительные) тексты, фото и аудио.
Профессор информатики Университета Саутгемптона Уэнди Холл (Wendy Hall) заявила, что использование цифровых технологий в целом и ИИ в частности — это угроза демократическим процессам, и следует принять срочные меры к минимизации рисков ввиду скорых выборов в США в Великобритании.
Швета Сингх (Shweta Singh), доцент кафедры информационных систем и управления в Университете Уорвика, в свою очередь, заявила о необходимости установить ряд этических принципов, которые позволят людям понимать, что в новостях они видят заслуживающую доверия информацию, а не фейки.
Ей вторит профессор Фейтен Госн (Faten Ghosn), глава кафедры государственного управления в Университете Эссекса, отметившая, что обязанность политиков — информировать избирателей об использовании отредактированных изображений. То есть, попросту говоря, маркировать изменённые с помощью цифровых технологий изображения, чтобы не возникало иллюзий, будто они настоящие.
Законопроект, базирующийся на той же идее уже выдвинут в США.
Политики-лейбористы решили, кажется, настаивать на том, что ничего страшного не происходит.
«Главный вопрос: как может кто-либо знать, что фото — дипфейк? Я не стал бы критиковать Карла Тёрнера за публикацию фото, которая выглядит вполне реальным», — написал Даррен Джонс (Darren Jones), глава парламентского комитета по бизнесу и торговле.
А в ответ на критику со стороны министра науки Мишель Донелан (Michelle Donelan), он осведомился, что делает её ведомство для выявления дипфейков ввиду близящихся выборов.
Системный подход
Между тем, министерство науки в начале года опубликовало доклад, в котором изложены основные принципы контроля над разработкой новых технологий (а не частных запретов конкретных продуктов).
После его выхода сам премьер Сунак поменял риторику с прославления ИИ как источника новых возможностей на предупреждения о том, что развитие ИИ необходимо снабдить «перилами».
Между тем, самые могущественные корпорации, занимающиеся разработкой ИИ, уже согласились на создание целого ряда новых ограничений для ИИ. В частности, по итогам встречи с президентом США Джо Байденом (Joe Biden), представители Amazon, Google, Meta, Microsoft и OpenAI приняли решение автоматически маркировать водяными знаками любой визуальный и аудиоконтент, созданный с помощью их разработок.
«Маркировка ИИ-контента — идея правильная, однако сработает ли она в полной мере, это ещё вопрос, — говорит Дмитрий Гвоздев, генеральный директор компании «Информационные технологии будущего». — Во-первых, водяные знаки очень трудно удалить, но сравнительно легко добавить. И, соответственно, любой правдивый компромат, всплывший во время верхней фазы политического сезона, можно будет закамуфлировать под дипфейк. А, как известно, разоблачение подделок и опровержение лжи требует во много раз больше времени и сил, чем их создание. Во-вторых, даже если самые передовые разработчики генеративного ИИ примут необходимые ограничения, то совсем не факт, что это сделают все остальные. Мы уже наблюдали отчётливо вредоносные ИИ, применяемые для фишинга, — у кого-то нашлись возможности обучить языковую модель преступной деятельности, безо всяких ограничений, которыми снабжают свои разработки OpenAI и другие. Полагаю, это только начало. Не удивлюсь, если применение «чёрного ИИ» войдёт в обиход у чёрных пиарщиков и недобросовестных политических консультантов. С технической точки зрения это всего лишь вопрос вычислительных мощностей».
Эксперт добавил, что широкое использование дипфейков в итоге может полностью дискредитировать фото и видеоконтент в нынешнем виде. Но это также может подстегнуть развитие новых видов носителей информации — более высокотехнологичных и защищённых от попыток подделать содержащуюся в них информацию.
***
Оригинал этого материала
© nplus1.ru, 07.10.2019, Иллюстрация: via nplus1.ru
Калифорния запретила предвыборные дипфейки с политиками
Елизавета Ивтушок
Губернатор штата Калифорния Гэвин Ньюсон (Gawin Newson) подписал законопроект, регулирующий распространение дипфейков. Он запрещает выкладывать в общий доступ фейковые ролики с политическими кандидатами в течение 60 дней перед началом выборов. Об этом сообщает Engadget.
Технологии подмены лиц на видео всего за пару лет перешли от довольно примитивных прототипов (речь в первую очередь идет о пользователе Reddit deepfakes, который в 2017 году научил нейросеть накладывать кадры на лица актрис в порнороликах) до качественно работающих алгоритмов, распознать результаты работы которых становится все сложнее. Разумеется, эффективность работы таких алгоритмов повышает вероятность того, что дипфейки будут использоваться во вред, что в особенности опасно для публичных людей вроде политиков, так как в интернете зачастую доступно большое количество роликов с их участием, которые можно использовать для обучающей выборки.
Подписанный законопроект — первый известный закон, ограничивающий распространение именно дипфейков в интернете. Действие законопроекта ограничивает распространение дипфейков с участием политических кандидатов в форме аудио, видео и фото в течение 60 дней до выборов. Закон будет действовать как в отношении материалов, в которых подменены лица и голоса политиков, так и на материалы, в которых на изображения политиков накладываются чужие лица и речь. При этом в законопроекте уточняется, что кадры или ролики с политиками, в которых используются материалы с участием других людей, должны сопровождаться предупреждением. Закон будет действовать до 1 января 2023 года.
Пока что неясно, как именно будут определять подмену в подобных материалах — автоматически или нет — но крупные IT-компании уже создают собственные датасеты для обучения алгоритмов, определяющих подмену лиц на видео. Так, датасеты для борьбы с дипфейками уже собрала Google, а Facebook и Microsoft в дополнение к датасету объявили о начале конкурса для разработчиков.
"Сфера", 15.06.2020, "Фальшивое будущее: международный опыт (не) регулирования дипфейков": В большинстве стран мира не существует четкого регулирования дипфейков, хотя об их опасности говорят повсеместно. В качестве «позитивного» примера можно привести Китай, где с 1 января 2020 года дипфейки должны быть соответствующим образом маркированы, причем данная норма касается и производителей, и онлайн-площадки, где данный ролик или аудиозапись будут опубликованы. Как именно власти будут отличать реальные видео от качественных фейков — не уточняется, но нарушителям грозит уголовная ответственность.
Такие меры приняты недаром. Дипфейки способны не только подорвать репутацию любого — будь то известный или среднестатистический человек — но также угрожают национальным институтам или даже национальной безопасности, ведь от дипфейков не защищены и политические лидеры. Так, на выборах 2019 года британский политик Борис Джонсон предложил избирателям поддержать своего соперника в борьбе за пост премьер-министра страны — Джереми Корбина. Корбин, в свою очередь, предложил аудитории поддержать Джонсона. Два видео неотличимы от настоящих — мимика и голоса точно соответствуют Джонсону и Корбину. Однако на самом деле это фейки, созданные организацией Future Advocacy, чтобы показать влияние новых технологий на демократические процессы. — Врезка К.ру
***
Оригинал этого материала
© "Известия", 23.06.2023
Искажения не принимаются: в РФ законодательно определят дипфейк
Алена Нефедова
В российском правовом поле появится официальное понятие «дипфейк». Законопроект об этом планируют внести в нижнюю палату в осеннюю сессию, сообщили «Известиям» в комитете Госдумы по информполитике. [...]
Нейроопасность
Зампред комитета Олег Матвейчев объяснил: сегодня люди всё чаще стали использовать нейросеть в первую очередь для развлечения, поместив фото в интересные декорации, чтобы увидеть себя или близких в новом образе. Однако в течение 3–5 лет этот механизм разрастется, и к его использованию примкнут мошенники. [...]
Политик также прогнозирует риски дискредитации: злоумышленники могут использовать фотографии человека, «приписав» ему на видео получение взятки, или просто добавить его изображение на публикацию откровенного характера. По его словам, предполагается не только дать правовое определение такому явлению, но и продумать регуляторные механизмы: как отслеживать, кто ответственен, потому что «на нейросеть нельзя подать в суд», добавил он. На фоне актуальности проблемы документ готовится ко внесению в Госдуму уже в осеннюю сессию в этом году, уточнил парламентарий.
Ранее «Известия» уже писали о подобной инициативе, тогда фракция ЛДПР предлагала ввести уголовное наказание за дипфейки при финансовом мошенничестве с помощью подмены голоса или изображения человека. 4 июня стало известно, что в правительстве РФ не поддержали законопроект, сославшись на то, что незаконное распространение персональных данных гражданина, включая применение искусственного интеллекта, подпадает под действие ст. 137 УК РФ («Нарушение неприкосновенности частной жизни»).
Реальность угрозы
Подобные сети состоят из двух частей: пока одна из них генерирует поступившие материалы от пользователя, вторая отсеивает не похожие на исходные данные части загруженного контента, пояснил специалист в области обработки данных Дмитрий Каплун. В результате это приводит к достаточно качественным изображениям: потому что объекты не добавлялись друг на друга по отдельности, а были созданы вместе единой картинкой на основе представленных данных. [...]
— Даже специалистам очень тяжело отличить достоверный кадр от дипфейка. Одним из способов остается их «недостаток» — плохая передача отражения, к примеру, в зеркалах, окнах или даже в зрачке глаза. Они автоматически «идеализируют картинку», даже убирая красные глаза, а в реальных фотографиях это всё есть. Еще можно по количественным критериям оценить, если обработать соответствующим образом фотографии, то получится посчитать их метрики, и тогда мы увидим разницу, однако скоро и их число перестанет отличаться. Это трудоемкий процесс, — пояснил «Известиям» Дмитрий Каплун. [...]