Резюме
- Наш новый опрос, в котором приняли участие 1,000 детей и 2,000 родителей в Великобритании, показывает, что все больше детей (64%) используют чат-ботов на основе искусственного интеллекта для помощи в решении самых разных задач — от выполнения домашних заданий до эмоциональных советов и общения. При этом многие из них никогда не подвергают сомнению точность или уместность получаемых ответов.
- В докладе, «Я, снова я и ИИ», описывает, как много детей всё чаще общаются с чат-ботами на базе искусственного интеллекта как с друзьями, несмотря на то, что многие популярные чат-боты на базе искусственного интеллекта не предназначены для такого использования детьми. Более трети (35%) детей, использующих их, говорят, что общение с чат-ботом на базе искусственного интеллекта похоже на общение с другом, в то время как шесть из десяти родителей обеспокоены тем, что их дети воспринимают чат-ботов на базе искусственного интеллекта как реальных людей.
- В докладе предупреждается, что наибольшему риску подвергаются уязвимые дети: согласно опросу, 71% таких детей используют чат-боты с искусственным интеллектом. Четверть (26%) уязвимых детей, использующих чат-боты с искусственным интеллектом, утверждают, что предпочли бы общаться с чат-ботом, чем с реальным человеком, а 23% заявили, что используют чат-боты, потому что им больше не с кем поговорить.
- В докладе предупреждается, что дети используют чат-ботов на основе ИИ на платформах, не предназначенных для них, без достаточных мер защиты, таких как проверка возраста и модерация контента, и содержится призыв к правительству разъяснить, каким образом чат-боты на основе ИИ подпадают под действие Закона о безопасности в Интернете.
- Дети всё чаще используют искусственный интеллект для помощи в учёбе, и в докладе содержится призыв к школам предоставлять чёткие и последовательные рекомендации по формированию у детей знаний и использованию искусственного интеллекта, включая чат-ботов. Родителям также сложно идти в ногу с развитием искусственного интеллекта, и им нужна поддержка, чтобы научить своих детей использовать его уверенно и ответственно.
Сегодня (воскресенье, 13 июля)й) мы опубликовали новый отчет, «Я, снова я и ИИ: понимание и обеспечение безопасности при использовании детьми чат-ботов на основе ИИ».
Поскольку чат-боты на основе искусственного интеллекта быстро становятся частью повседневной жизни детей, в отчёте рассматривается, как дети взаимодействуют с ними. В отчёте также подчёркивается, какие преимущества инструменты искусственного интеллекта могут дать детям, например: Поддерживая обучение и предоставляя пространство для вопросов, сайт также предупреждает, что они представляют риск для безопасности и развития детей. Отсутствие проверки возраста и регулирования приводит к тому, что некоторые дети сталкиваются с неприемлемым контентом.
Наше исследование вызывает опасения, что дети используют чат-ботов на основе ИИ в эмоциональных целях, в том числе для дружеского общения и получения советов, несмотря на то, что многие популярные чат-боты на основе ИИ не предназначены для такого использования детьми. В отчёте предупреждается, что дети могут стать чрезмерно зависимыми от чат-ботов на основе ИИ или получать неточные или неадекватные ответы, что может означать, что они с меньшей вероятностью обратятся за помощью к взрослым, которым доверяют.
Эти опасения усилились после ряда инцидентов, таких как случай во Флориде, когда мать подала иск против character.ai, утверждая, что ИИ-чат-бот, созданный по мотивам персонажа из «Игры престолов», совершил насилие и совершил сексуальные действия в отношении её сына-подростка и подтолкнул его к самоубийству. В Великобритании депутат недавно рассказал парламенту о «крайне мучительной встрече» с избирателем, чей 12-летний сын, предположительно, подвергся сексуальному воздействию чат-бота на той же платформе.
В докладе утверждается, что правительству и технологической отрасли необходимо пересмотреть вопрос о том, обеспечивают ли существующие законы и нормативные акты адекватную защиту детей, использующих чат-боты на основе искусственного интеллекта. Растёт понимание того, что может потребоваться дополнительная ясность, обновлённые рекомендации или новое законодательство. В частности, мы призываем правительство установить строгие требования к обеспечению соблюдения возраста для поставщиков чат-ботов на основе искусственного интеллекта, чтобы гарантировать соблюдение ими минимальных возрастных ограничений и создание условий для детей, соответствующих их возрасту.
Для проведения нашего исследования мы опросили репрезентативную выборку из 1,000 детей в возрасте от 9 до 17 лет в Великобритании и 2,000 родителей детей в возрасте от 3 до 17 лет, а также провели четыре фокус-группы с детьми. Пользовательское тестирование проводилось на трёх чат-ботах с искусственным интеллектом: ChatGPT, SnapchatАвтора My AI и character.ai, а также два «аватара» были созданы для имитации детского опыта использования этих устройств.
Основные результаты этого исследования включают:
- Дети используют чат-ботов на основе искусственного интеллекта разнообразными и изобретательными способами. 42% детей в возрасте от 9 до 17 лет, которые пользовались чат-ботами на основе искусственного интеллекта, использовали их для помощи в выполнении школьных заданий. Дети используют их для повторения материала, поддержки письма и «практики» языковых навыков. Многие ценят мгновенные ответы и объяснения.
- Ищущий совет: Почти четверть (23%) детей, использовавших чат-боты с искусственным интеллектом, уже обращались к ним за советом, например, по поводу того, что надеть, или для практики разговоров с друзьями, а также по более важным вопросам, таким как психическое здоровье. Некоторые дети (15%), использовавшие чат-боты с искусственным интеллектом, говорят, что предпочли бы поговорить с чат-ботом, чем с реальным человеком.
- Товарищеские отношения: Дети из уязвимых групп, в частности, используют чат-ботов с искусственным интеллектом для общения и утешения. Каждый шестой (16%) ребёнок из уязвимых групп признался, что использует их, потому что хочет найти друга, а половина (50%) отметила, что общение с чат-ботом с искусственным интеллектом ощущается как общение с другом. Некоторые дети используют чат-ботов с искусственным интеллектом, потому что им больше не с кем поговорить.
- Неточные и недостаточные ответы: Дети приводили примеры вводящих в заблуждение или неточных ответов, что было подтверждено нашим собственным тестированием. Чат-боты с искусственным интеллектом порой не предоставляли детям чётких и исчерпывающих советов в своих ответах. Это особенно тревожно, учитывая, что 58% детей, использовавших чат-боты с искусственным интеллектом, заявили, что считают использование чат-бота с искусственным интеллектом более эффективным, чем самостоятельный поиск.
- Высокое доверие к советам: Двое из пяти (40%) детей, использовавших чат-боты с искусственным интеллектом, не испытывают беспокойства по поводу следования советам чат-бота, а ещё 36% не уверены, стоит ли им беспокоиться. Среди уязвимых детей этот показатель ещё выше. И это несмотря на то, что чат-боты с искусственным интеллектом порой дают противоречивые или неконструктивные советы.
- Воздействие вредного контента: Дети могут сталкиваться с откровенными и несоответствующими их возрасту материалами, включая женоненавистнический контент, несмотря на то, что поставщики чат-ботов на основе искусственного интеллекта запрещают такой контент для детей-пользователей в своих условиях обслуживания.
- Размытые границы: Некоторые дети уже воспринимают чат-ботов с искусственным интеллектом как нечто человеческое: 35% детей, использующих чат-боты с искусственным интеллектом, говорят, что общение с ними похоже на общение с другом. По мере того, как ответы чат-ботов с искусственным интеллектом становятся всё более человечными, дети могут проводить больше времени, взаимодействуя с ними, и становиться более эмоционально зависимыми. Это вызывает беспокойство, учитывая, что каждый восьмой ребёнок (12%) использует чат-боты с искусственным интеллектом, потому что ему не с кем поговорить, а это значит, что почти каждый четвёртый ребёнок (23%) относится к уязвимым детям.
- Детям приходится самостоятельно управлять чат-ботами на базе искусственного интеллекта или с ограниченной помощью со стороны доверенных взрослых. 62% родителей обеспокоены точностью информации, генерируемой ИИ, однако только 34% родителей обсуждали со своими детьми, как оценить достоверность контента, создаваемого ИИ. Только 57% детей сообщают, что обсуждали ИИ с учителями или в школе, а дети отмечают, что советы учителей в школах также могут быть противоречивыми.
В отчете также содержатся общесистемные рекомендации по поддержке и защите детей с использованием чат-ботов на основе искусственного интеллекта, в том числе:
- Промышленность применение подхода, основанного на проектировании с учетом безопасности, для создания соответствующих возрасту чат-ботов на основе искусственного интеллекта, которые отражают потребности детей и оснащены встроенными функциями родительского контроля, надежными указателями и функциями медиаграмотности.
- Правительство предоставление четких указаний относительно того, как чат-боты на основе ИИ попадают под действие Закона о безопасности в Интернете, обязательное предоставление эффективных гарантий возраста поставщикам чат-ботов на основе ИИ, которые не предназначены для детей, и обеспечение соответствия регулирования быстро развивающимся технологиям ИИ.
- Правительство поддерживает школы внедрять ИИ и медиаграмотность на всех ключевых этапах, включая обучение учителей и предоставление школам, родителям и детям четких рекомендаций по надлежащему использованию ИИ.
- Родители и опекуны получать поддержку, чтобы направлять своего ребенка в использовании ИИ и проводить беседы о том, что такое чат-боты на основе ИИ, как они работают и когда их использовать, в том числе когда следует обращаться за реальной поддержкой.
- Политики, исследователи и промышленность сосредоточение внимания на мнениях детей при разработке, регулировании и управлении чат-ботами на основе ИИ и инвестирование в долгосрочные исследования того, как эмоционально восприимчивый ИИ может формировать детство.
Рэйчел Хаггинс, соисполнительный директор Internet Matters, сказала:
«Чат-боты на основе искусственного интеллекта стремительно проникают в детскую жизнь, их использование значительно возросло за последние два года. Однако большинство детей, родителей и школ действуют вслепую и не обладают информацией или защитными инструментами, необходимыми для безопасного управления этой технологической революцией.
«Хотя преимущества ИИ очевидны, наше исследование показывает, как чат-боты начинают менять представления детей о «дружбе». Мы очень быстро достигли точки, когда дети, и особенно уязвимые, воспринимают чат-ботов ИИ как реальных людей и поэтому просят у них эмоциональных и деликатных советов. Также вызывает беспокойство то, что они часто не задают вопросов о том, что им говорят их новые «друзья».
«Мы должны прислушаться к этим ранним предупреждающим сигналам и предпринять скоординированные действия, чтобы гарантировать, что дети смогут безопасно и позитивно исследовать потенциал чат-ботов на основе искусственного интеллекта и избежать очевидного потенциального вреда.
Миллионы детей в Великобритании используют чат-боты с искусственным интеллектом на платформах, не предназначенных для них, без адекватных мер безопасности, обучения и контроля. Родителям, опекунам и педагогам необходима поддержка в руководстве детьми по использованию ИИ. Технологическая индустрия должна принять принцип безопасности при разработке чат-ботов с искусственным интеллектом, а правительство должно обеспечить, чтобы наши законы о безопасности в интернете были достаточно строгими, чтобы противостоять вызовам, которые эта новая технология привносит в жизнь детей.
Дерек Рэй-Хилл, временно исполняющий обязанности генерального директора Internet Watch Foundation, сказал::
«В этом отчете поднимаются некоторые фундаментальные вопросы о регулировании и надзоре за этими чат-ботами на основе искусственного интеллекта.
«То, что дети могут сталкиваться с откровенным или несоответствующим их возрасту контентом через чат-боты с искусственным интеллектом, увеличивает потенциальный вред в этой среде, которая, как показывают наши данные, уже представляет собой сложную задачу для юных пользователей. Сообщения о возможном груминге с помощью этой технологии вызывают особую тревогу.
«Дети заслуживают безопасного интернета, где они могут играть, общаться и учиться, не подвергаясь риску. Нам необходимо увидеть срочные действия со стороны правительства и технологических компаний по внедрению систем безопасности в чат-боты с искусственным интеллектом до того, как они станут доступны».