МЕНЮ

Что такое раздеть ИИ? Руководство для родителей и опекунов

Девушка сидит с телефоном с грустным выражением лица.

Искусственный интеллект продолжает расширяться в своих возможностях и технологиях. Раздевание ИИ — один из примеров, который может подвергнуть молодых людей опасности.

Узнайте, что это такое, чтобы лучше защитить своего ребенка в Интернете.

Что такое «раздеть ИИ»?

Undress AI описывает тип инструмента, который использует искусственный интеллект для удаления одежды с людей на изображениях.

Хотя принципы работы каждого приложения или веб-сайта могут различаться, все они предлагают одну и ту же услугу. Хотя манипулируемое изображение на самом деле не показывает настоящее обнаженное тело жертвы, оно может подразумевать это.

Злоумышленники, использующие инструменты искусственного интеллекта для раздевания, могут оставить изображения себе или поделиться ими более широко. Они могли бы использовать эти изображения для сексуальное принуждение (сексторция), издевательства/оскорбления или как форма порномести.

Дети и молодые люди подвергаются дополнительному вреду, если кто-то «раздевает» их с помощью этой технологии. А отчет Internet Watch Foundation обнаружил более 11,000 3,000 потенциально криминальных изображений детей, созданных ИИ, на одном темном веб-форуме, посвященном материалам о сексуальном насилии над детьми (CSAM). Они оценили около XNUMX изображений как криминальные.

В IWF заявили, что также нашли «множество примеров изображений, созданных искусственным интеллектом, на которых изображены известные жертвы и знаменитые дети». Генеративный ИИ может создавать убедительные изображения только в том случае, если он учится на точном исходном материале. По сути, инструменты искусственного интеллекта, генерирующие CSAM, должны будут учиться на реальных изображениях, демонстрирующих жестокое обращение с детьми.

Риски, на которые стоит обратить внимание

Инструменты Undress AI используют суггестивный язык, чтобы привлечь пользователей. Таким образом, дети с большей вероятностью будут следовать своему любопытству, основываясь на этом языке.

Дети и молодые люди, возможно, еще не понимают закон. Таким образом, им может быть сложно отделить вредные инструменты от тех, которые способствуют безобидному развлечению.

Неприемлемый контент и поведение

Любопытство и новизна инструмента искусственного интеллекта для раздевания могут подвергнуть детей неприемлемый контент. Поскольку он не показывает «настоящее» обнаженное изображение, они могут подумать, что использовать эти инструменты можно. Если они затем поделятся изображением со своими друзьями «для смеха», они, вероятно, нарушат закон, даже не зная об этом.

Без вмешательства родителя или опекуна они могут продолжать такое поведение, даже если оно причиняет вред другим.

Риски конфиденциальности и безопасности

Многие законные инструменты генеративного искусственного интеллекта требуют оплаты или подписки для создания изображений. Таким образом, если веб-сайт с глубоким обнажением бесплатен, он может создавать изображения низкого качества или иметь слабую безопасность. Если ребенок загружает свое изображение или изображение друга в одежде, сайт или приложение могут использовать его не по назначению. Это включает в себя и «глубокую обнаженность», которую он создает.

Дети, использующие эти инструменты, вряд ли прочитают Условия обслуживания или Политику конфиденциальности, поэтому они рискуют не понять их.

Создание материалов о сексуальном насилии над детьми (CSAM)

IWF также сообщила, что случаи Количество «самогенерированных» CSAM, циркулирующих в Интернете, увеличилось на 417%. с 2019 по 2022 год. Обратите внимание, что термин «самогенерированные» несовершенен, поскольку в большинстве случаев злоумышленники принуждают детей к созданию этих изображений.

Однако, используя раздевающийся ИИ, дети могут неосознанно создавать CSAM, сгенерированный ИИ. Если они загрузят фотографию себя или другого ребенка в одежде, кто-то сможет «обнажить» это изображение и распространить его более широко.

Киберзапугивание, насилие и преследование

Как и в случае с другими типами дипфейков, люди могут использовать инструменты искусственного интеллекта для раздевания или «дипфейки», чтобы запугивать других. Это может включать в себя утверждение, что партнер отправил свое обнаженное изображение, хотя он этого не делал. Или это может включать в себя использование ИИ для создания обнаженной натуры с чертами, над которыми затем высмеивают хулиганы.

Важно помнить, что делиться обнаженными изображениями сверстников незаконно и оскорбительно.

Насколько распространена технология «глубокого обнажения»?

Исследования показывают, что использование этих типов инструментов искусственного интеллекта растет, особенно для снятия одежды с жертв-женщин.

На одном из сайтов, посвященных искусственному раздеванию, говорится, что их технология «не предназначена для использования с мужчинами». Это связано с тем, что они обучали инструмент, используя женские образы, что справедливо для большинства подобных инструментов ИИ. Что касается CSAM, созданного искусственным интеллектом, который исследовал Internet Watch Foundation, в 99.6% из них также фигурировали дети женского пола.

Исследования от Graphika В отчете также говорится, что 2000 из этих провайдеров получили более 2023 миллионов уникальных посетителей на свои веб-сайты за один месяц. Они прогнозируют «дальнейшие случаи онлайн-вреда», включая секс-вымогательство и CSAM.

Преступники, скорее всего, и дальше будут ориентироваться на девочек и женщин, а не на мальчиков и мужчин, особенно если эти инструменты в основном основаны на женских образах.

Что говорится в законодательстве Великобритании?

Создание, распространение и хранение откровенно сексуальных фейковых изображений детей является противозаконным.

Однако в настоящее время создание таких изображений взрослых не является незаконным. Кроме того, сами инструменты для обнажения не являются незаконными. Это инструменты, которые люди могут использовать для создания изображений как детей, так и взрослых.

Еще в 2023 году люди могли создавать и распространять откровенные сексуальные фейковые изображения взрослых, не нарушая при этом закон. Однако Закон о безопасности в Интернете В январе 2024 года запретили публикацию интимных изображений без согласия.

Более того, перед назначением всеобщих выборов 2024 года Министерство юстиции объявило новый закон который будет преследовать тех, кто создает откровенные сексуальные deepfake изображения взрослых без их согласия. Осужденным будет грозить «неограниченный» штраф.

Однако закон, предложенный в апреле 2024 года, не был принят до выборов. Лейбористская партия заявила в своем предвыборном манифесте 2024 года, что намерена запретить создание откровенно сексуальных deepfakes.

К сожалению, с тех пор, как они пришли в правительство, они до сих пор не внесли законопроект, который придал бы этому закону силу.

Как уберечь детей от раздевания AI

Независимо от того, беспокоитесь ли вы о том, что ваш ребенок воспользуется инструментами искусственного интеллекта или станет жертвой, вот несколько действий, которые следует предпринять, чтобы защитить его.

Проведите первый разговор

Более четверти британских детей сообщают, что видят порнографию к 11 годам. Каждый десятый говорит, что впервые увидел порно в 9 лет. Любопытство может побудить детей также искать инструменты искусственного интеллекта для раздевания. Поэтому, прежде чем они дойдут до этого момента, важно поговорить о соответствующем содержании, позитивных отношениях и здоровом поведении.

ПОСМОТРЕТЬ ГИД ПО ПОРНО РАЗГОВОРУ

Установите ограничения для веб-сайта и приложения

Блокируйте веб-сайты и устанавливайте ограничения на контент в широкополосных и мобильных сетях, а также на устройствах и приложениях. Это уменьшит вероятность того, что они наткнутся на неприемлемый контент при поиске в Интернете. Доступ к этим веб-сайтам может стать частью более широкого разговора с вами.

ВЫБРАТЬ РУКОВОДСТВА

Повышайте цифровую устойчивость детей

Цифровая устойчивость — это навык, который дети должны развивать. Это означает, что они могут выявить потенциальный онлайн-вред и принять необходимые меры. Они знают, как сообщать, блокировать и критически относиться к контенту, с которым они сталкиваются. Это включает в себя знание того, когда им нужна помощь от родителя, опекуна или другого взрослого, которому он доверяет.

СМОТРЕТЬ ИНСТРУМЕНТАРИЙ ПО ЦИФРОВОЙ УСТОЙЧИВОСТИ

Ресурсы для дальнейшей поддержки

Узнайте больше об искусственном интеллекте и найдите ресурсы для поддержки жертв раздевания ИИ.

Это было полезно?
Расскажите нам, как мы можем улучшить его

Недавние Посты