МЕНЮ

Что такое дипфейк?

Технология Deepfake — это тип искусственного интеллекта, который может распространять дезинформацию и дезинформацию. Будьте в курсе, чтобы помочь защитить детей и молодых людей в Интернете.

Мама держит планшет, окруженный значками безопасности.

Краткое руководство

Получите быструю информацию и советы о технологии deepfake.

Что это значит?

Дипфейки — это видео или аудиозаписи, которые манипулируют внешностью человека. Затем они, кажется, делают/говорят то, чего никогда не делали.

Узнайте о дипфейках

Каковы риски?

Дипфейки могут распространять ложную информацию или пропаганду. Они также могут играть роль в киберзапугивании и мошенничестве.

Узнайте о вреде

Как защитить детей

Помощь детям в развитии критического мышления посредством регулярных разговоров является ключевой частью их защиты от вреда.

Ознакомьтесь с советами по безопасности

Что такое дипфейк?

Двумя основными типами дипфейков являются видео и аудио. Видеодипфейки манипулируют внешностью человека, а аудиодипфейки манипулируют его голосом.

Видео и аудио дипфейки часто работают вместе, создавая вводящий в заблуждение контент. Люди, создающие этот фейковый контент, могут иметь невинные намерения. Например, они могут снять видео, на котором знаменитость забавно танцует, чтобы рассмешить людей. Однако даже самые благие намерения могут привести к дезинформации и путанице.

Что такое видеодипфейки?

Видеодипфейки — самый распространенный тип. Люди, создающие эти видео, используют искусственный интеллект заменить чье-то лицо или тело в существующих видеоматериалах. Примеры включают в себя заставить знаменитость сказать что-то противоречивое или ведущего новостей, сообщающего сфабрикованные истории.

В некоторых видео-дипфейках актер озвучивания имитирует знаменитость или оригинальный звук, чтобы передать новый голос. В качестве альтернативы создатель может также использовать голосовое клонирование.

Что такое клонирование голоса?

Клонирование голоса или дипфейки звука позволяют манипулировать голосами вместо видео, чтобы они звучали как чужие. Все более распространенное мошенничество использует клонирование голоса для нацеливания на людей. Родители могут получить отчаянный звонок от своего ребенка, которому немедленно нужны деньги для определенной цели. Эти мошенничества чрезвычайно убедительны и привели к финансовым потерям.

Кто-то также может использовать звуковой дипфейк, чтобы запугать другого человека. Например, они могли подражать голосу одноклассника, чтобы казалось, будто он сказал то, чего не говорил.

Независимо от типа дипфейка, важно помнить, что для его создания кто-то должен использовать инструмент искусственного интеллекта. Создатели дипфейков не всегда ясны, но ИИ не генерирует этот контент автоматически.

Каков потенциальный вред?

Дипфейки могут влиять на людей по-разному и могут сделать детей и молодых людей уязвимыми для онлайн-вреда.

Детям и молодым людям может быть сложно распознать фальшивые видео и аудио, особенно по мере того, как технологии становятся более сложными. Кроме того, возросшая доступность инструментов искусственного интеллекта может означать, что больше людей смогут создавать дипфейки. Таким образом, это может увеличить масштаб потенциального вреда.

Ложная информация и пропаганда 

Интернет-пользователи могут использовать дипфейки, чтобы:

  • распространять ложную информацию;
  • подорвать доверие к общественным деятелям; или
  • манипулировать разговорами о политике и других важных вопросах.

У детей все еще развиваются навыки критического мышления, поэтому они особенно уязвимы для того, чтобы поверить такого рода информации.

Репутационный урон

В некоторых сообщениях дипфейки связываются с порноместью. В этих случаях преступник добавляет жертву в компрометирующий контент, например порнографические видеоролики или изображения.

Преступник может затем использовать эти дипфейки для принуждения жертв. Это может включать в себя требование оплаты или реальных изображений, чтобы помешать им более широко распространять дипфейки. Узнайте больше об этой практике из нашего руководства по секс-вымогательству.

Киберзапугивание, преследование и насилие

Преступники также могут использовать дипфейки, чтобы запугивать других, создавая видеоролики, призванные высмеивать, запугивать или ставить их в неловкое положение.

Природа дипфейков может сделать издевательства более жестокими для жертвы. Это может даже граничить с оскорбительным поведением. Узнайте, как может выглядеть насилие над детьми.

A Отчет Internet Watch Foundation (IWF) за 2023 год предупредил о росте количества материалов о сексуальном насилии над детьми (CSAM), создаваемых ИИ. Они выявили более 20,000 XNUMX таких изображений, размещенных на одном Темная паутина Форум CSAM в течение одного месяца. Они сочли более половины из них «скорее всего преступными».

Хотя в это число не входят дипфейки, IWF утверждает, что «реалистичный полноценный видеоконтент станет обычным явлением». Они также отмечают, что уже существуют короткие видеоролики CSAM, созданные искусственным интеллектом. «Они станут только более реалистичными и более распространенными».

Финансовые потери и мошенничество

Некоторые дипфейки аудио или мошенничества с клонированием голоса приводят к потере денег жертвами. Общественные деятели также использовали свои изображения для продвижения мошеннических инвестиций.

Одним из примеров является ютубер Mr Beast, который, похоже, предлагал своим подписчикам новые iPhone. Однако на самом деле это был не он. YouTube популярен среди детей и подростков. Таким образом, дипфейки, имитирующие своих любимых создателей, могут сделать их уязвимыми для мошенников.

Примеры дипфейковых мошеннических видеороликов
Показать стенограмму видео
Что ж, давайте остановимся на технологиях, потому что искусственный интеллект способствует буму киберпреступности. Ожидается, что в этом году стоимость составит 8 триллионов долларов, что, по оценкам экспертов по кибербезопасности, превысит стоимость экономики Японии. Крупнейший в мире YouTube-блогер входит в число тех, чьим видеоизображением манипулирует ИИ для продвижения мошенничества, и даже ведущие BBC не застрахованы.

Взгляните на это: жителям Великобритании больше не нужно работать, такое заявление сделал сегодня наш гость Илон Маск. Кто представит новый инвестпроект, пока идет подключение. Я расскажу вам подробнее об этом проекте, который открывает для британцев новые возможности получения прибыли от инвестиций. В новый проект было инвестировано более трех миллиардов долларов, и на данный момент он уже запущен.

Странно, не так ли? Вы можете сказать, что это похоже на меня, звучит как я. Трудно, не правда ли, усвоить это? Итак, я поговорил со Стефани Хэйр, я должен сказать, что она независимый эксперт в области технологий.

Стефани Хэйр, независимый эксперт по технологиям, дает интервью о сложности обнаружения дипфейков.

«Многим людям очень сложно заметить эти вещи», — говорит Хэйр. «И ты не первый, и я не думаю, что ты, к сожалению, будешь последним, потому что на самом деле нет ничего, что могло бы остановить это. На самом деле не существует никаких правил, позволяющих привлекать кого-либо к ответственности. Я не уверен, от кого бы вы получили радость, если бы, например, захотели подать в суд. Теперь мы зашли на Facebook и сказали, что вам нужно удалить это, это фейк, и это было сделано... они сделали это, с тех пор Мета сделала это. Тем не менее, существует еще множество фальшивых видеороликов, указывающих зрителям на мошенничество, и беспокойство заключается в том, что люди на самом деле расстаются со своими деньгами, потому что верят, что они настоящие, и это вызывает беспокойство: как люди различают то, что реально? а что нет?``

«Честно говоря, я не уверен, что пытаюсь это сказать, исходя из каких-то технических ограничений, потому что даже по вашему видео мы смогли увидеть, что были определенные вещи, которые были не совсем правильными. Я ясно дал понять, что это незаконно. Что вам действительно нужно сделать, так это спросить себя, не звучит ли это слишком хорошо, чтобы быть правдой. Вероятно, так оно и есть. Если это кажется немного странным, возможно, так оно и есть. Э-э, бесплатного обеда не бывает».

«Конечно, нет, и я написал в Твиттере или поделился статьей об этом, написанной BBC, в которой даются полезные советы о том, как распознать глубокие фейковые видео».

Как защитить детей от вреда, причиняемого дипфейками

Лучший способ обеспечить безопасность детей в Интернете — предоставить им инструменты, позволяющие выявить вред и получить поддержку. Вот как вы можете помочь им разобраться в дипфейках.

Открытое общение является ключевым

Начинайте разговоры о безопасности в Интернете как можно раньше и чаще. Обсудите понятие дипфейков. Объясните, как люди используют ИИ для их создания и какую потенциальную опасность они представляют.

Развивать медиаграмотность детей.

Развивайте навыки критического мышления вашего ребенка, побуждая его подвергать сомнению то, что он видит и слышит в Интернете. Научите их искать признаки того, что видео может быть фейковым. Примеры включают неестественные движения или несоответствие качества звука и видео.

УЗНАЙТЕ О ЛОЖНОЙ ИНФОРМАЦИИ

Установите границы и настройки

В домашней широкополосной или мобильной сети установите родительский контроль, чтобы ограничить доступ к нежелательному контенту. Сделайте то же самое с приложениями, которые использует ваш ребенок. Затем вместе установите границы того, где и когда использовать устройства.

ПОЛУЧИТЬ ШАБЛОН СЕМЕЙНОГО ДОГОВОРА

Поговорим о цифровом гражданстве

Помогите своему ребенку развить позитивное поведение в Интернете. Не позволяйте им создавать или распространять фейковый контент с участием других, даже если они делают это только в шутку.

ПОСМОТРЕТЬ ТОП-МАНЕРЫ В ИНТЕРНЕТЕ

Покажите им, как проверять источники

Обсудите с ребенком важность проверки информации, прежде чем делиться ею. Поощряйте их проверять надежные источники и веб-сайты для проверки фактов, прежде чем верить всему, что они видят в Интернете.

Держите вещи в тайне

Поговорите со своими детьми о конфиденциальности в Интернете и объясните важность контроля их присутствия в Интернете. Помните, что кто-либо может использовать общедоступные изображения вашего ребенка в любых целях. Итак, ограничьте количество изображений своего ребенка, которыми вы делитесь, и научите его ограничивать количество фотографий, которыми он делится с самим собой.

Последние статьи и руководства по искусственному интеллекту

Найдите дополнительную поддержку в отношении дипфейков и других типов искусственного контента с помощью этих ресурсов.

Это было полезно?
Расскажите нам, как мы можем улучшить его