Интернет имеет значение

Что такое дипфейк?

Технология Deepfake — это тип искусственного интеллекта, который может распространять дезинформацию и дезинформацию. Будьте в курсе, чтобы помочь защитить детей и молодых людей в Интернете.

Краткое руководство

Получите быструю информацию и советы о технологии deepfake.

Что это значит?

Дипфейки — это видео или аудиозаписи, которые манипулируют внешностью человека. Затем они, кажется, делают/говорят то, чего никогда не делали.

Каковы риски?

Дипфейки могут распространять ложную информацию или пропаганду. Они также могут играть роль в киберзапугивании и мошенничестве.

Как защитить детей

Помощь детям в развитии критического мышления посредством регулярных разговоров является ключевой частью их защиты от вреда.

Что такое дипфейк?

Двумя основными типами дипфейков являются видео и аудио. Видеодипфейки манипулируют внешностью человека, а аудиодипфейки манипулируют его голосом.

Видео и аудио дипфейки часто работают вместе, создавая вводящий в заблуждение контент. Люди, создающие этот фейковый контент, могут иметь невинные намерения. Например, они могут снять видео, на котором знаменитость забавно танцует, чтобы рассмешить людей. Однако даже самые благие намерения могут привести к дезинформации и путанице.

Что такое видеодипфейки?

Видеодипфейки — самый распространенный тип. Люди, создающие эти видео, используют искусственный интеллект заменить чье-то лицо или тело в существующих видеоматериалах. Примеры включают в себя заставить знаменитость сказать что-то противоречивое или ведущего новостей, сообщающего сфабрикованные истории.

В некоторых видео-дипфейках актер озвучивания имитирует знаменитость или оригинальный звук, чтобы передать новый голос. В качестве альтернативы создатель может также использовать голосовое клонирование.

Что такое клонирование голоса?

Клонирование голоса или дипфейки звука позволяют манипулировать голосами вместо видео, чтобы они звучали как чужие. Все более распространенное мошенничество использует клонирование голоса для нацеливания на людей. Родители могут получить отчаянный звонок от своего ребенка, которому немедленно нужны деньги для определенной цели. Эти мошенничества чрезвычайно убедительны и привели к финансовым потерям.

Кто-то также может использовать звуковой дипфейк, чтобы запугать другого человека. Например, они могли подражать голосу одноклассника, чтобы казалось, будто он сказал то, чего не говорил.

Независимо от типа дипфейка, важно помнить, что для его создания кто-то должен использовать инструмент искусственного интеллекта. Создатели дипфейков не всегда ясны, но ИИ не генерирует этот контент автоматически.

Каков потенциальный вред?

Дипфейки могут влиять на людей по-разному и могут сделать детей и молодых людей уязвимыми для онлайн-вреда.

Детям и молодым людям может быть сложно распознать фальшивые видео и аудио, особенно по мере того, как технологии становятся более сложными. Кроме того, возросшая доступность инструментов искусственного интеллекта может означать, что больше людей смогут создавать дипфейки. Таким образом, это может увеличить масштаб потенциального вреда.

Ложная информация и пропаганда

Интернет-пользователи могут использовать дипфейки, чтобы:

  • распространять ложную информацию;
  • подорвать доверие к общественным деятелям; или
  • манипулировать разговорами о политике и других важных вопросах.

У детей все еще развиваются навыки критического мышления, поэтому они особенно уязвимы для того, чтобы поверить такого рода информации.

Репутационный урон

В некоторых сообщениях дипфейки связываются с порноместью. В этих случаях преступник добавляет жертву в компрометирующий контент, например порнографические видеоролики или изображения.

Преступник может затем использовать эти дипфейки для принуждения жертв. Это может включать в себя требование оплаты или реальных изображений, чтобы помешать им более широко распространять дипфейки.

Киберзапугивание, преследование и насилие

Преступники также могут использовать дипфейки, чтобы запугивать других, создавая видеоролики, призванные высмеивать, запугивать или ставить их в неловкое положение.

Природа дипфейков может сделать издевательства более жестокими для жертвы. Это может даже граничить с оскорбительным поведением.

A Отчет Internet Watch Foundation (IWF) за 2023 год предупредил о росте количества материалов о сексуальном насилии над детьми (CSAM), создаваемых ИИ. Они выявили более 20,000 XNUMX таких изображений, размещенных на одном Темная паутина Форум CSAM в течение одного месяца. Они сочли более половины из них «скорее всего преступными».

Хотя в это число не входят дипфейки, IWF утверждает, что «реалистичный полноценный видеоконтент станет обычным явлением». Они также отмечают, что уже существуют короткие видеоролики CSAM, созданные искусственным интеллектом. «Они станут только более реалистичными и более распространенными».

Финансовые потери и мошенничество

Некоторые дипфейки аудио или мошенничества с клонированием голоса приводят к потере денег жертвами. Общественные деятели также использовали свои изображения для продвижения мошеннических инвестиций.

Одним из примеров является ютубер Mr Beast, который, похоже, предлагал своим подписчикам новые iPhone. Однако на самом деле это был не он. YouTube популярен среди детей и подростков. Таким образом, дипфейки, имитирующие своих любимых создателей, могут сделать их уязвимыми для мошенников.

Ну, давайте продолжим с технологиями, потому что искусственный интеллект подпитывает бум киберпреступности. Ожидается, что в этом году стоимость достигнет 8 триллионов долларов, что больше, чем экономика Японии, согласно одной из оценок экспертов по кибербезопасности. Крупнейший в мире YouTube-блогер входит в число тех, чьи видеоизображения были обработаны ИИ для продвижения мошенничества, и даже ведущие BBC не застрахованы. Взгляните на это: британским жителям больше не нужно работать, это заявление сделал наш сегодняшний гость Илон Маск. Который представит новый инвестиционный проект, пока идет подключение. Я расскажу вам больше об этом проекте, который открывает новые возможности для британцев получать прибыль от инвестиций. В новый проект было инвестировано более трех миллиардов долларов, и в настоящее время он уже запущен и работает.

Странно, не правда ли? Похоже на меня, звучит как я, можете сказать вы. Трудно, не правда ли, в это вникнуть? И поэтому я поговорил со Стефани Хэйр, она независимый эксперт по технологиям, я бы сказал.

Стефани Хэйр, независимый эксперт по технологиям, дает интервью о сложности обнаружения дипфейков.

«Многие люди считают, что так трудно заметить такие вещи», — говорит Хэир. «И вы не первый, и я не думаю, что вы будете последним, к сожалению, потому что на самом деле ничто не может этому помешать. На самом деле нет никаких правил, которые могли бы кого-то привлечь к ответственности. Я не уверен, кто бы вам понравился, если бы вы, например, захотели подать в суд. Теперь мы вышли на Facebook и сказали, что вам нужно это удалить, это фейк, и он сделал... они сделали это, Meta сделала это с тех пор. Однако, э-э, есть еще много глубоких фейковых видео, указывающих зрителям на мошенничество, и беспокойство в том, что люди на самом деле расстаются со своими собственными деньгами, потому что они верят, что они настоящие, и это беспокойство, как люди отличают, что реально, а что нет?»

«Честно говоря, я не уверен, что пытаюсь сказать это из-за технических ограничений, потому что мы смогли увидеть даже с вашим видео, что были определенные вещи, которые были не совсем правильными. Я ясно дал понять, что это не было законным. Что вы действительно хотите сделать, так это спросить себя, звучит ли это слишком хорошо, чтобы быть правдой, вероятно, так оно и есть. Если это кажется немного странным, вероятно, так оно и есть. Эм, нет такой вещи, как бесплатный обед».

«Конечно, нет, и я написал в Twitter или поделился статьей об этом, написанной BBC, в которой даются лучшие советы о том, как распознать поддельные видео».

Закрыть Закрыть видео

Как защитить детей от вреда, причиняемого дипфейками

Лучший способ обеспечить безопасность детей в Интернете — предоставить им инструменты для обнаружения вреда и получения поддержки. Вот как вы можете помочь им ориентироваться в deepfakes.

Открытое общение является ключевым

Начинайте разговоры о безопасности в Интернете как можно раньше и чаще. Обсудите понятие дипфейков. Объясните, как люди используют ИИ для их создания и какую потенциальную опасность они представляют.

Развивать медиаграмотность детей.

Развивайте навыки критического мышления вашего ребенка, побуждая его подвергать сомнению то, что он видит и слышит в Интернете. Научите их искать признаки того, что видео может быть фейковым. Примеры включают неестественные движения или несоответствие качества звука и видео.

Установите границы и настройки

В домашней широкополосной или мобильной сети установите родительский контроль, чтобы ограничить доступ к нежелательному контенту. Сделайте то же самое с приложениями, которые использует ваш ребенок. Затем вместе установите границы того, где и когда использовать устройства.

Поговорим о цифровом гражданстве

Помогите своему ребенку развить позитивное поведение в Интернете. Не позволяйте им создавать или распространять фейковый контент с участием других, даже если они делают это только в шутку.

Покажите им, как проверять источники

Обсудите с ребенком важность проверки информации, прежде чем делиться ею. Поощряйте их проверять надежные источники и веб-сайты для проверки фактов, прежде чем верить всему, что они видят в Интернете.

Держите вещи в тайне

Поговорите со своими детьми о конфиденциальности в Интернете и объясните важность контроля их присутствия в Интернете. Помните, что кто-либо может использовать общедоступные изображения вашего ребенка в любых целях. Итак, ограничьте количество изображений своего ребенка, которыми вы делитесь, и научите его ограничивать количество фотографий, которыми он делится с самим собой.

Руководство по Deepfake для родителей

Последние статьи об ИИ

Найдите дополнительную поддержку в отношении дипфейков и других типов искусственного контента с помощью этих ресурсов.

Мальчик пользуется смартфоном в своей комнате. Экспертное заключение
Краткое чтение

Цифровые отношения молодежи: боты и персонажи с искусственным интеллектом

Кэт Ниббс делится своими мыслями о растущих отношениях молодых людей с ИИ-ботами и компаньонами.

Девушка сидит с телефоном с грустным выражением лица. Новости и блоги
Долго читал

Что такое раздеть ИИ? Руководство для родителей и опекунов

Искусственный интеллект продолжает расширяться в своих возможностях и технологиях. Раздевание ИИ — один из примеров, который может подвергнуть молодых людей опасности.

Фотография Свази Каур, мамы двоих мальчиков. Родительские истории
Краткое чтение

Опыт одного родителя, использующего искусственный интеллект в семье

Посмотрите, как семья одной мамы использует искусственный интеллект (ИИ) в своей повседневной жизни, и узнайте ее советы по обеспечению безопасности детей.

Учитель помогает ученику за ноутбуком. Пресс-релиз
Долго читал

Новое исследование предупреждает, что многие школы и родители не готовы к революции искусственного интеллекта.

Предупреждаем, что многие школы и родители не готовы к революции искусственного интеллекта, поскольку новое исследование Internet Matters показывает, что 1/4 детей используют приложения искусственного интеллекта для выполнения школьных заданий.

Изображение ребенка с наложенной графикой, связанной с искусственным интеллектом. Исследование
Краткое чтение

Генеративный ИИ в образовании: взгляды детей и родителей

В этом исследовании изучается генеративный ИИ в образовании и предлагаются рекомендации по ограничению рисков и повышению преимуществ.