Интернет имеет значение
Поиск

Я, я сам и исследования ИИ

Понимание и обеспечение безопасности при использовании детьми чат-ботов на основе искусственного интеллекта

Изучите взаимодействие детей с чат-ботами на основе искусственного интеллекта как с инструментами и как с компаньонами, а также преимущества и риски такого взаимодействия.

На этой странице

Основные выводы

  • Обучение и школьные занятия: Почти половина детей, использующих чат-боты с искусственным интеллектом, утверждают, что используют эти инструменты для школьных заданий. Это включает в себя помощь с повторением материала, поддержку письма и изучение новых концепций.
  • Ищущий совет: Почти четверть детей, использующих чат-ботов на основе искусственного интеллекта, говорят, что обращались к ним за советом. Советы варьируются от вопросов о том, что надеть, до отработки фраз, которые они хотели бы вести с друзьями.
  • Товарищество: Исследование также показало, что дети используют чат-ботов с искусственным интеллектом для общения и комфорта, в том числе для имитации дружбы. Некоторые говорят, что делают это от скуки, чтобы обсудить интересующие их темы или просто потому, что им не с кем поговорить.
  • Неточные и недостаточные ответы: Чат-боты на основе искусственного интеллекта порой не в состоянии дать детям четкие и исчерпывающие советы, что вызывает беспокойство, поскольку более половины детей, использующих чат-боты, утверждают, что использование инструмента лучше, чем самостоятельный поиск информации.
  • Высокое доверие к советам: 2 из 5 детей, использующих чат-ботов на основе искусственного интеллекта, не испытывают беспокойства по поводу следования полученным советам, и этот показатель ещё выше среди уязвимых детей (50%). Это справедливо даже в тех случаях, когда советы противоречивы или не несут никакой поддержки.
  • Воздействие вредного контента: Несмотря на то, что поставщики чат-ботов на основе искусственного интеллекта знают возраст пользователей и запрещают несоответствующий возрасту контент, дети по-прежнему сталкиваются с вредоносными реакциями.
  • Размытые границы: Некоторые дети воспринимают чат-ботов на основе искусственного интеллекта как человекоподобных существ и используют в их отношении местоимения, соответствующие их полу. Эксперты предполагают, что дети могут стать более эмоционально зависимыми от чат-ботов на основе искусственного интеллекта по мере их более частого использования.
  • Беседы с родителями: Хотя большинство детей утверждают, что родители говорили с ними об ИИ в целом, многие родители не делились своими опасениями. Главные опасения родителей включают чрезмерную зависимость детей от ИИ, неточность информации и слишком много времени, проводимого в чат-ботах.
  • Беседы с учителями: Обучение ИИ в школах непоследовательно и порой противоречиво у разных учителей. Большинство детей, которые говорили с учителями об ИИ, не помнят, что беседовали с ними несколько раз.
  • Поддержка образования в области ИИ: Дети поддерживают идею обучения в школах использованию чат-ботов на основе искусственного интеллекта. Они считают, что это может помочь в учёбе, одновременно снижая такие риски, как неточность, чрезмерная зависимость и нарушение конфиденциальности.
  • ПромышленностьПлатформам необходимо внедрять подход, основанный на проектировании безопасности, для создания чат-ботов на основе искусственного интеллекта, соответствующих возрасту детей и отвечающих их потребностям. Это должно включать встроенные функции родительского контроля, надежные указатели и функции повышения медиаграмотности.
  • Правительство: Закон о безопасности в Интернете должен включать чёткие указания относительно того, как распространяются правила на чат-ботов с искусственным интеллектом. Чат-боты с искусственным интеллектом, не предназначенные для детей, должны иметь эффективные гарантии возраста, чтобы идти в ногу с быстро развивающимися технологиями искусственного интеллекта.
  • Поддержка школПравительству также необходимо внедрять ИИ и медиаграмотность на всех ключевых этапах обучения. Это включает в себя эффективную подготовку учителей и чёткие рекомендации по надлежащему использованию ИИ.
  • Поддержка родителей и опекуновРодителям/опекунам нужна поддержка в руководстве своим ребёнком по использованию искусственного интеллекта. Они должны уверенно рассказывать о том, что такое чат-боты на основе искусственного интеллекта, как они работают и когда их использовать.
  • Политики: Голоса детей должны быть в центре внимания при принятии решений, касающихся разработки, регулирования и управления чат-ботами на основе искусственного интеллекта и ИИ в целом. Это включает в себя инвестирование в долгосрочные исследования воздействия на детей.

Посмотрите: вебинар-отчет «Я, снова я и ИИ»

Если вы пропустили прямой эфир вебинара, посмотрите запись здесь, где выступят эксперты из сфер технологий, образования и безопасности детей.

Мы раскрываем эксклюзивные выводы из отчета, изучая, как дети используют инструменты ИИ, и с какими уникальными рисками они могут столкнуться.

Посмотрите полную версию обсуждения, чтобы узнать:

  • Как дети сегодня взаимодействуют с чат-ботами на основе искусственного интеллекта
  • Потенциальные риски, включая чрезмерную зависимость и небезопасный контент
  • Что могут сделать промышленность, правительство, педагоги и родители для обеспечения безопасности детей
  • Практические рекомендации, включая обеспечение возраста, развитие ИИ-грамотности в школах и многое другое

Безопасны ли чат-боты с искусственным интеллектом для детей? — Что говорят эксперты

Вижу, многие из вас уже к нам присоединяются. Итак, приветствую всех и спасибо, что пришли сегодня утром. Я очень рад видеть вас здесь, чтобы послушать «Я, снова я и ИИ» — наш недавно опубликованный доклад об использовании детьми чат-ботов с искусственным интеллектом, — и принять участие в нашей панельной дискуссии, которая состоится чуть позже этим утром.

Internet Matters — некоммерческая организация, созданная преимущественно для поддержки родителей и опекунов в обеспечении безопасности детей в интернете. Мы работаем уже 11 лет, и за это время мы стали свидетелями неузнаваемых изменений цифрового ландшафта, касающихся не только возраста, в котором дети начинают пользоваться интернетом, но и используемых ими платформ и технологий, а также получаемого ими опыта. Это делает работу родителей в цифровую эпоху по-настоящему постоянно меняющейся, и, как мы постоянно слышим от многих родителей, порой это просто невыносимо. Использование детьми чат-ботов на основе искусственного интеллекта — это ещё одна проблема, с которой родителям необходимо разобраться, поэтому мы приглашаем всех вас сегодня обсудить эту тему.

Прежде чем мы начнём, немного кое-что подскажем: сессия записывается, и мы опубликуем её на YouTube чуть позже сегодня, поэтому мы поделимся ссылкой на неё. Участники не будут участвовать в записи, просто чтобы вы знали. Если у вас возникнут технические проблемы, пожалуйста, напишите нам в чат, и один из наших сотрудников постарается оказать вам всю возможную поддержку.

Если говорить об исследованиях и Internet Matters чуть подробнее, то наша программа включает в себя пульсовое исследование и индекс цифрового благополучия, который проводится уже пятый год. Благодаря ему мы регулярно узнаём мнения родителей и детей об их мыслях, переживаниях и опыте, как позитивном, так и негативном, связанном с их онлайн-жизнью. «Я, я сам и ИИ» — один из первых отчётов в Великобритании, посвящённых использованию детьми чат-ботов на основе ИИ.

Исследование было проведено нашей внутренней командой на основе данных пульсового опроса и фокус-групп с детьми и родителями со всей Великобритании, а также собственного пользовательского тестирования нескольких различных платформ. Мы поставили перед собой задачу понять, как дети используют чат-ботов на основе искусственного интеллекта, какие возможности и риски связаны с их использованием, а также что необходимо сделать для обеспечения безопасного и соответствующего возрасту опыта. Как вы, надеюсь, заметили в отчёте, он фокусируется на трёх ключевых областях, где дети используют чат-ботов.

Во-первых, для школьных занятий, включая помощь с домашними заданиями и повторением материала. Затем для советов, поскольку всё больше детей задают вопросы о своих чувствах, внешности или теле, и, что особенно важно, для общения, поскольку мы начали замечать, что у детей формируются эмоциональные связи с персонажами чат-ботов.

Сегодняшняя программа будет посвящена презентации результатов нашего исследования, которую проведёт Кэти Фриман-Тейлор, руководитель отдела политики и исследований. Затем мы заслушаем мнения членов нашей дискуссионной группы. Сегодня с нами Л. Дэвис, советник по вопросам политики при Уполномоченном по правам детей Англии; Кэролайн Хёрст, руководитель отдела глобальной цифровой безопасности детей в LEGO Group; и Саймон Тёрнер, главный технический директор Foil, консалтинговой компании, специализирующейся на данных и инновациях в области искусственного интеллекта. Поэтому будет очень интересно услышать их мысли и размышления о проведённом нами исследовании. Завершится заседание панельной дискуссией, в ходе которой будут заданы вопросы из зала. У вас будет возможность задать свои вопросы. Пожалуйста, используйте функцию «Вопросы и ответы» и задавайте их по мере обсуждения. Надеюсь, мы ответим на несколько вопросов по ходу презентации и успеем ответить на все вопросы в конце обсуждения. А теперь я передаю слово Кэти, которая расскажет о нашем исследовании и его результатах. Спасибо, Кэти.

Спасибо, Рэйчел, и всем, кто присоединился к нам сегодня. Позвольте мне перейти к первому слайду.

Я очень рада поделиться некоторыми ключевыми результатами нашего исследования. Как только что упомянула Рейчел, когда мы рассматривали эту тему как потенциальную тему для исследования, мы обнаружили, что использование детьми чат-ботов на основе искусственного интеллекта в Великобритании — это своего рода малоизученная область, включая риски и возможности, которые они представляют. Поэтому данное исследование — попытка заполнить часть обнаруженного нами пробела. Как уже упоминалось, мы использовали смешанную методологию. Мы опросили детей, подростков и родителей. Мы также провели фокус-группы с детьми в возрасте от 13 до 17 лет, а затем провели пользовательское тестирование трёх популярных чат-ботов на основе искусственного интеллекта: Chat GPT, SnapchatАвтора My AI и Character AIВ рамках этого исследования мы создали двух аватаров детей, которые общались с этими чат-ботами на основе искусственного интеллекта в течение 17 дней. Наконец, мы обсудили наши рекомендации с экспертами и учел их мнение, которое также было включено в итоговый отчёт. Поэтому мы выражаем огромную благодарность всем семьям, молодым людям, детям и экспертам, благодаря которым это исследование стало возможным.

Итак, что же мы обнаружили? Как и взрослые, многие дети и подростки регулярно используют чат-боты с искусственным интеллектом. Фактически, две трети детей в возрасте от 9 до 17 лет уже использовали чат-бот с искусственным интеллектом, причём многие из них делали это ежедневно или еженедельно. В нашем исследовании самыми популярными чат-ботами с искусственным интеллектом, используемыми детьми, были Chat GPT, Google Gemini и SnapchatАвтора My AIИ мы обнаружили, что это использование растёт. Например, за последние 18 месяцев число детей, использующих Chat GPT, удвоилось. Мы также слышали от самих детей, что они используют его всё чаще, часто вместо платформ и других сервисов. Примером этого служит то, что дети используют его и вместо поисковых сервисов.

Дети используют их по-разному. Наиболее распространённые способы, о которых мы слышали, — это поддержка в учёбе, творчестве или просто для развлечения. Но дети также используют их для советов и общения, и именно об этом я расскажу, когда поделюсь сегодняшними результатами.

Итак, одна из ключевых областей, в которых дети регулярно используют чат-ботов на основе ИИ, — это поддержка в обучении и школьных заданиях. Мы обнаружили, что 42% детей в нашем исследовании, которые использовали чат-бота на основе ИИ, использовали его для обучения или школьных заданий, и это число увеличивалось по мере взросления детей. И были некоторые действительно позитивные и интересные примеры использования. Так, дети говорили об использовании чат-ботов на основе ИИ, чтобы сократить количество времени, необходимое им для повторения материала. Дети и подростки рассказывали о том, как они используют их для закрепления понятий, которые они, возможно, не поняли в школе, или для упрощения понятий более доступными для них способами. А затем были также некоторые действительно интересные исследовательские приложения детей и подростков, в частности, в области изучения языков. Так, когда ребенок изучал иностранный язык, несколько детей говорили о том, как они могли бы общаться с чат-ботом на основе ИИ, если бы у них дома не было никого, кто также говорил бы на этом языке.

Но, конечно, наряду с этими положительными моментами, есть и отрицательные, которые могут возникнуть при использовании ИИ в школьных заданиях. Одним из ключевых моментов, выявленных в нашем исследовании, и одним из опасений родителей и других, была чрезмерная зависимость. И дети сами это отмечали. И я думаю, что эта статистика как бы подчёркивает одну из проблем: 58% детей, использующих ИИ-чат-ботов, заявили, что считают использование ИИ-чат-бота лучшим решением, чем самостоятельный поиск информации. И хотя долгосрочные исследования влияния ИИ-чат-ботов на развитие детей всё ещё недостаточно изучены или находятся в стадии разработки, они могут оказать влияние на развитие критического мышления у детей.

Ещё одна проблема, связанная с использованием чат-ботов детьми в школьных заданиях, а также не только, заключается в том, что чат-боты с искусственным интеллектом часто предоставляют неточную информацию. Существуют исследования, которые показывают, что чат-боты, стремясь к угодливости, иногда выдумывают или искажают информацию, предоставляя ложную информацию, что может стать ещё одной проблемой, если дети используют их для обучения. Дети также смогли это определить. У них были примеры случаев, когда чат-бот предоставлял им неточную информацию. И я думаю, что другой аспект, который, опять же, прослеживался в нашем исследовании, но является своего рода более широким исследованием в этой области, заключается в том, как, в зависимости от того, как построены эти чат-боты с искусственным интеллектом, они используют огромные массивы информации, часть которой, как вы знаете, отражает существующие общественные стереотипы и предубеждения. Это может быть подкреплено ответами, которые дают чат-боты с искусственным интеллектом, и в нашем исследовании мы также встречали подобные примеры.

Последнее, что я хотел сказать о школьной работе, – это то, что некоторые дети рассказывали, как в их школе им порекомендовали использовать то, что часто называют «тонко настроенным чат-ботом». Речь идёт о чат-боте с искусственным интеллектом, созданном для определённого применения, в данном случае для помощи детям с учёбой или изучением определённого предмета. Дети говорили об этих «тонко настроенных» чат-ботах, что ответы, которые они давали, часто были не такими подробными, обширными или полезными, как у некоторых более универсальных чат-ботов с искусственным интеллектом. В результате дети переходили к использованию чат-ботов общего назначения, а не «тонко настроенных», которые, возможно, имели определённые гарантии точности информации.

Ещё один способ взаимодействия детей и молодёжи с чат-ботами на основе искусственного интеллекта — это советы. В нашем исследовании мы обнаружили, что 23% детей, использовавших чат-бот на основе искусственного интеллекта, обращались к нему за советом. И это касалось самых разных советов. Некоторые из них можно было бы считать малорискованными, например, спросить, как сделать, скажем, креативную причёску к школе на следующий день. Но были и примеры, когда дети задавали, возможно, более рискованные или деликатные темы, например, вопросы о поддержке в дружеских отношениях или психическом здоровье. И хотя чат-боты, конечно, могут предоставить возможность для непредвзятого ответа на вопросы, они могут быть очень полезны детям, у которых, возможно, нет сети сверстников, или которым некомфортно обсуждать что-то со сверстниками, или у которых нет взрослого, которому они доверяют. Конечно, существуют риски, связанные с обращением детей к ним за советом. Думаю, это особенно актуально, если учесть, что не все чат-боты — извините, мой экран только что исчез на секунду — не все чат-боты указывают детям, откуда они взяли эту информацию, или обязательно предоставляют дополнительные механизмы поддержки. Так что, если они говорят о деликатных темах, то, возможно, речь идёт о неподтверждённой или недействительной информации. Конечно, некоторые чат-боты с ИИ справлялись с этим лучше других, но между ними наблюдается определённая непоследовательность.

Другая проблема, которая также была выявлена в ходе нашего пользовательского тестирования, заключается в том, что иногда, когда пользователи обращались за поддержкой, им предоставлялись неоднозначные или потенциально опасные сообщения. Примером этого является случай, когда один из наших аватаров общался с чат-ботом на основе искусственного интеллекта об ограничении питания и задавал вопросы об ограничении калорий. Чат-бот на основе искусственного интеллекта действительно отфильтровал ответы об ограничении диеты. Однако в следующем сообщении он как бы вернулся к этому вопросу и сказал: «Что может быть действительно раздражающим, так это то, что некоторые из удаляемых вещей, по моему мнению, не являются на самом деле опасными», что как бы даёт неоднозначное или нечёткое сообщение, особенно для детей, у которых может не быть критического мышления или навыков развития, чтобы различать эти сообщения или формулировки.

И я думаю, что, если учесть это, это, наряду с тем фактом, что иногда он предоставляет неточную или ложную информацию, и у нас была статистика о том, что двое из пяти детей, использующих чат-бот с искусственным интеллектом, не испытывают беспокойства по поводу следования советам чат-бота с искусственным интеллектом, а ещё 36% заявили, что не уверены, стоит ли им беспокоиться, что вызывает тревогу, учитывая такую непроверенную, потенциально неточную и приемлемую природу чат-ботов. И я думаю, это в некотором роде указывает на то, что есть дети, которые довольно высоко доверяют этим инструментам. Я также думаю, важно отметить, что в ходе исследования мы обнаружили, что среди уязвимых детей их доверие к советам и информации, которые они получали от чат-ботов с искусственным интеллектом, было значительно выше. И в целях этого исследования, когда мы говорим об уязвимых детях, мы имеем в виду детей с особыми образовательными потребностями, детей, получающих помощь по программе EHCP, или детей с физическими или психическими нарушениями здоровья.

Другой способ, которым дети используют чат-ботов с искусственным интеллектом, — это общение, поиск поддержки и дружбы, будь то эмоциональная поддержка или просто кто-то, с кем можно пообщаться. И снова, мы обнаружили, что уязвимые дети значительно чаще используют чат-ботов таким образом и полагаются на них за поддержкой, но также выстраивают с ними более эмоциональную или дружескую связь. Так, некоторые статистические данные, которые как бы подчёркивают это, — это тот факт, что 50% уязвимых детей заявили, что общение с чат-ботом с искусственным интеллектом похоже на разговор с другом. Почти четверть сказали, что они используют чат-ботов с искусственным интеллектом, потому что им больше не с кем поговорить, а 26% сказали, что предпочли бы поговорить с чат-ботом с искусственным интеллектом, чем с реальным человеком. И в целом, по мере того, как чат-боты с искусственным интеллектом становятся всё более похожими на людей, эксперты предполагают, что дети могут тратить больше времени на взаимодействие с ними, и это может привести к тому, что они будут хуже видеть разницу между реальным и симулированным общением.

Кроме того, чем больше времени дети и подростки тратят на это, тем выше риск воздействия неточной информации и вредоносного контента, о чём мы поговорим чуть позже. Это также может означать, что они с меньшей вероятностью обратятся за помощью в реальном мире, если будут выстраивать отношения с чат-ботом на основе искусственного интеллекта, который зачастую довольно дружелюбен и помнит о них подробности. В одном из наших аватаров они обсуждали ограничения в питании. На следующий день чат-бот на основе искусственного интеллекта также проследил за этим разговором. Думаю, это всего лишь пример того, как дети начинают стирать эту грань и выстраивать отношения с детьми и подростками. Скажу лишь, что это недостаточно изученная область, и я не думаю, что на данном этапе мы до конца понимаем, какое влияние эти отношения и подобный контент окажут на развитие и социальное взаимодействие детей. Так что здесь, безусловно, есть простор для дальнейших исследований.

Еще одним выводом нашего исследования стало то, что дети могут подвергаться воздействию вредоносного и несоответствующего возрасту контента. Итак, один из наших аватаров-детей, когда он зарегистрировался на популярной платформе чат-ботов с искусственным интеллектом, где пользователи создают чат-ботов, одним из первых рекомендованных ему чат-ботов был чат-бот с женоненавистническим подтекстом и откровенным контентом, несмотря на то, что это запрещено условиями обслуживания для детей. Мы также обнаружили, что иногда системы фильтрации не всегда эффективно отфильтровывают несоответствующий возрасту контент. Примером этого служит разговор одного из наших аватаров с чат-ботом, в котором они обсуждали интимные моменты, и в один день чат-бот отфильтровал сексуальный контент, а на следующий день включил довольно наглядные описания сексуальных поз. Итак, еще раз, просто подчеркиваем, что не всегда эти системы фильтрации работают, и дети могут подвергаться воздействию несоответствующего возрасту контента, несмотря на то, что это запрещено для детей во многих условиях обслуживания. Думаю, это ещё раз подчеркивает, почему это так важно: несмотря на то, что для многих популярных чат-ботов с искусственным интеллектом минимальный возраст использования составляет 13+, наше исследование показывает, что, как и в случае с социальными сетями, многие дети взаимодействуют с чат-ботами с искусственным интеллектом и младше этого возраста. Мы обнаружили, что 58% детей в возрасте от 9 до 12 лет используют чат-боты с искусственным интеллектом.

Учитывая их применение в школьных заданиях, мы хотели изучить, чему детей учат об ИИ в школах. И мы обнаружили, что, как правило, большинство детей – ну, 57% детей – общались со своими учителями, но значительное число детей этого не делало, и только каждый пятый ребенок несколько раз обсуждал с учителями ИИ в целом. Общаясь с детьми, мы обнаружили, что обучение в области ИИ, как и другие формы обучения медиаграмотности, весьма разнообразно: в некоторых школах и у учителей преподавание проходило очень хорошо, а в других – совсем нет. Мы также обнаружили различия даже внутри школ: у некоторых учителей была чёткая политика в отношении использования ИИ в школьных заданиях, а у других – нет. Несмотря на это, мы очень громко и чётко слышали от детей и молодёжи, что школы должны обучать детей ИИ. Они считают, что ИИ сыграет огромную роль в их будущей карьере, но также и в повседневной жизни, и их нужно учить не только тому, как эффективно его использовать, но и некоторым более общим задачам и возможностям. Итак, такие вещи, как неточность информации и конфиденциальность.

Как организация, созданная для поддержки родителей, мы также были очень заинтересованы в том, чтобы понять, о чём родители говорят со своими детьми и что их беспокоит. И выяснилось, что, хотя многие родители говорили со своими детьми об ИИ в целом, а некоторые – об использовании ИИ-чат-ботов, это не означало, что у родителей не было ряда опасений. Многие из опасений, высказанных родителями, нашли отражение и в нашем исследовании. Например, чрезмерная зависимость, восприятие ИИ-чат-ботов как реальных людей, точность генерируемой информации.

Итак, на основе этого исследования мы разработали ряд рекомендаций. Вы можете найти их в нашем отчёте, который размещён на нашем сайте, и, я уверен, ссылка на него также есть в чате. Это лишь некоторые из наших рекомендаций очень общего характера. Знаете, наша ключевая рекомендация для отрасли заключается в том, что эти инструменты уже используются детьми. Поэтому нам необходимо гарантировать их безопасность для детей. И это должно быть ключевым принципом для любого чат-бота на основе искусственного интеллекта, который могут использовать дети. И когда мы говорим о безопасности, изначально заложенной в проекте, или безопасности по умолчанию, это может принимать различные формы. И я думаю, мы рассматриваем это в довольно целостном ключе. Поэтому, возможно, речь идёт о том, чтобы обеспечить детям соответствующий их возрасту опыт. Возможно, информация или типы использования, доступные 16- или 17-летнему подростку, отличаются от информации или типов использования, доступных 12- или 13-летнему подростку. Речь идёт о поддержке родителей в вовлечении их детей, о наличии встроенного родительского контроля. Речь идёт о том, чтобы предоставлять точную информацию и чётко её информировать. Речь также может идти о медиаграмотности, будь то всплывающие окна, сообщающие или напоминающие детям, что они общаются с инструментом, а не с реальным человеком. Уверен, мы ещё немного поговорим об этом в ходе панельной дискуссии.

Что касается правительства, то у нас, опять же, был ряд рекомендаций, но три из них, пожалуй, наиболее важные для нас, заключались в необходимости прояснить, как действующее законодательство применяется к чат-ботам на основе ИИ. Знаете, существует неоднозначная информация о том, как Закон о безопасности в интернете и другие законы будут регулировать этот вопрос. Поэтому, я уверен, небольшое разъяснение было бы очень полезно как для таких организаций, как наша, так и для представителей отрасли. Мы считаем, что проверка возраста — это ключ к реализации ряда гарантий, необходимых для обеспечения безопасного использования детьми чат-ботов на основе ИИ. Поэтому введение обязательного требования или требование к инструментам или поставщикам ИИ внедрять проверку возраста при регистрации стало бы отличным шагом к реализации этих гарантий. Кроме того, мы считаем, что школы не должны заниматься прояснением этой сложной темы. Мы считаем, что правительство может сыграть свою роль в предоставлении школам чётких рекомендаций о том, как дети должны использовать ИИ в школьных занятиях и обучении, а также в повышении квалификации учителей в этой области. И наконец, как я уже упоминал, это определенно своего рода новая и развивающаяся область, поэтому здесь есть много возможностей для дополнительных исследований.

И наконец, в рамках нашего исследования мы создали своего рода раздел ИИ на нашем сайте. Там есть скриншоты того, что вы можете найти в этом разделе, но информация действительно полезная. Если у вас есть ребёнок, вы работаете с детьми или кто-то из ваших близких изучает ИИ и использует его каким-либо из этих способов, пожалуйста, посетите наш раздел, где вы найдёте советы о том, что такое ИИ, как его могут использовать дети, как вы можете использовать его с пользой или контролировать его взаимодействие с вашим ребёнком. Так что, пожалуйста, зайдите и ознакомьтесь с ним. А пока я передаю слово Рейчел.

Спасибо, Кэти. Мы очень гордимся этим отчётом, и исследование очень актуально, поскольку эта тема сейчас очень актуальна. Поразительно видеть, как много детей уже так часто используют чат-боты с искусственным интеллектом, и как это происходит, в то время как взрослые вокруг них всё ещё пытаются угнаться за ними. И, полагаю, по мере того, как чат-боты будут внедряться в большее количество платформ, которыми дети так часто пользуются, можно увидеть, как эти проблемы будут только усугубляться.

Хотя есть и много положительных моментов, я думаю, что все мы видим положительные стороны использования ИИ в работе в повседневной жизни. Меня беспокоит размытость границ между автоматизированными, нечеловеческими ответами и дружбой. Знаете, ответы даются очень реалистично, они отражают язык и тон ребёнка. Впечатлиться от технологий очень легко, но ребёнок также легко может поверить в реальность собеседника и довериться ему, даже если чат-бот не имеет никакого представления о жизни ребёнка или о его контексте. Знаете, ещё одна серьёзная проблема для родителей заключается в том, что они дают детям ещё один повод не выключать свои устройства, а ведь всегда есть кто-то, с кем можно поговорить. Поэтому родителям будет сложно проводить время за экраном и, знаете ли, заботиться о том, чтобы они поддерживали отношения за пределами цифровой жизни.

Но, думаю, пришло время выслушать наших участников. Сегодня с нами Элль Дэвис, которая отвечает за цифровую политику Уполномоченного по правам детей, в том числе помогает формировать приоритеты организации в отношении ИИ и безопасности детей в интернете. Кэролайн Хёрст, руководитель отдела глобальной цифровой безопасности детей в LEGO Group, входит в команду по правам и безопасности детей, которая представляет интересы и потребности детей и предоставляет компании инструменты, позволяющие LEGO Group ответственно взаимодействовать с детьми. И Саймон Тёрнер, технический директор FOIL. Это организация, деятельность которой тесно связана с данными и ИИ, и он продолжает оставаться в авангарде инноваций и инноваций в мире ИИ. Поэтому он с энтузиазмом относится к обеспечению ответственной разработки и внедрения технологий, особенно когда речь идёт о самых юных пользователях. У всех нас есть ценный опыт, которым они могут поделиться с нами сегодня. Добро пожаловать! Спасибо, что были с нами сегодня. И нам бы очень хотелось узнать ваше мнение о результатах. Может быть, начнём с вас, Элль? Что вас больше всего поразило в отчёте и что вы услышали от Кэти сегодня утром?

Да, огромное спасибо, Рэйчел и Кэти, за эту замечательную презентацию. Это действительно очень, очень важное исследование. Оно очень, очень полезно. Думаю, важно, возможно, просто немного рассказать о роли Уполномоченного по правам детей. Её офис и её советники консультируют министров по вопросам защиты и продвижения прав детей. И, как мы уже немного затронули в этом исследовании, интернет-мир, знаете ли, представляет собой колоссальный вызов этим правам в некотором смысле, но, конечно, он также открывает и определённые возможности. И, полагаю, наша главная проблема заключается в том, что мы ещё многого не знаем. Поэтому мы не знаем, насколько полезна или вредна для детей та или иная технология, пока она не появится на рынке и дети не начнут ею пользоваться. Мы не знаем, насколько вредна та или иная вещь, пока не попытаемся устранить уже нанесённый вред. И, полагаю, именно так мы и учимся, и это довольно сложно.

ИИ – действительно интересный пример. Некоторые из вас знают, что наше ведомство в определённой степени исследовало ИИ среди детей. Но это было в контексте использования ИИ, которое, как мы инстинктивно понимали, будет крайне вредоносным. Итак, я имею в виду наш отчёт, опубликованный ранее в этом году о сексуальных дипфейковых изображениях. И, да, я имею в виду, что этот отчёт был действительно поразителен именно в том смысле, что одного лишь знания технологии было достаточно, чтобы причинить вред детям. И, полагаю, это конкретное применение ИИ немного отличается, потому что, знаете ли, существуют якобы прекрасные возможности для детей по-настоящему учиться и развиваться с помощью чат-ИИ. Но, думаю, интересно поразмышлять об этом именно в том контексте, который я только что описал, потому что это соответствует закономерности, которую мы наблюдаем с новыми и развивающимися технологиями. Знаете, мы видим, как запускается новая технология. Она запускается довольно быстро, без каких-либо встроенных мер безопасности. Дети начинают им пользоваться, а затем некоторые из них получают травмы, и начинается борьба за то, кто должен с этим бороться. И я считаю ваш отчёт действительно фантастическим, потому что он действительно, действительно выявляет идею о том, что ИИ усугубляет проблемы, которые на самом деле должны были быть уже решены. Знаете, ненормально, что дети взаимодействуют с объектами, которые не прошли проверку на безопасность, так же, как, например, сотрудники школ должны проходить проверку, прежде чем дети смогут с ними взаимодействовать. И ненормально, знаете ли, как человек, который больше года проработал в Управлении уполномоченного по правам детей, занимаясь расследованием вредоносного контента, я считаю ненормальным, что у нас появился новый путь для детей к вредоносному контенту, хотя мы не смогли закрыть предыдущие, с которыми мы сталкивались, или, возможно, не предвидели этого.

Так что да, я думаю, знаете ли, мы, как офис, в целом очень рады вашим идеям о влиянии чат-ботов, особенно на уязвимых детей. Вы уже говорили об этом, но это действительно малоизученная тема, понимаете ли, область в целом. Это очень, очень новая технология, которая очень сложна. Я знаю, что в чате уже был вопрос о долгосрочных последствиях этого, которые, я очень надеюсь, будут отслеживаться в течение следующих нескольких лет, особенно учитывая, что это такая новая технология. И, как личное размышление на тему, Кэти, в конце вашей презентации, меня очень интересует, сколько детей используют чат-ботов для общения. Потому что, полагаю, некоторые могли бы утверждать, что если бы потребности детей удовлетворялись окружающими, им не обязательно было бы обращаться к этой технологии. Так что, я думаю, это действительно интересная тема, и я надеюсь, что мы скоро её изучим. Но да, это здорово. Очень здорово, что всё это изложено в отчёте. Интересно, что дети действительно доверяют этим инструментам, и я, пожалуй, задаюсь вопросом, заслужили ли они это доверие. Надеюсь, мы сможем изучить этот вопрос подробнее.

Да, спасибо. Вы подняли действительно важные вопросы, и я думаю, что такая гонка за лидерство с ИИ как бы означает, что эта технология снова разрабатывается без должного учёта того, кто будет ею пользоваться и какое влияние она на них окажет. Так что, надеюсь, мы вернёмся к этому чуть позже. Но давайте перейдём к Кэролайн: не могли бы вы поделиться с нами своими мыслями?

Безусловно. И просто хочу сказать, что я рад быть здесь сегодня. У меня в голове крутится множество мыслей по поводу превосходного отчёта, который Internet Matters представила в контексте того, что так актуально для детей сегодня. Когда я смотрю на свою роль в LEGO Group, особенно на то, что мы делаем в отделе прав и безопасности детей, меня, пожалуй, поразило в этом отчёте то, что мы тесно связаны с тем, что мы пытаемся делать каждый день – выдвигать цифровые права детей на первый план во всём, что мы пытаемся делать. Моя команда здесь, в LEGO Group, как я уже сказал, занимается вопросами прав и безопасности детей. Мы консультируем бизнес по всем нашим цифровым продуктам, которые мы выпускаем. Итак, сидящие здесь, люди, которые думают: «Какое отношение LEGO Group имеет к цифровому пространству?» Ну, мы, конечно, в основном смотрим вокруг. Кирпичик для нас действительно важен, и именно этим мы больше всего известны в этом смысле. Но цифровая составляющая нашей работы — это помощь детям в их развитии в цифровую эпоху. Это сводится к тому, чтобы мы знали, на каком этапе развития находятся дети в цифровую эпоху, чтобы мы могли влиять на них и помогать им развиваться в этом направлении.

Что касается доклада, то, на мой взгляд, когда речь зашла о чат-ботах как таковых, и это своего рода продолжение того, о чём только что говорила Элль, речь идёт о социальном взаимодействии. И, на мой взгляд, в контексте ИИ действительно упускается из виду возможность детей участвовать в жизни общества и их цифровые права в контексте новых технологий. Безусловно. Конечно, мы все видим, что ИИ и развитие этих технологий несут в себе много негативных сторон. Но на самом деле, спрашиваем ли мы молодых людей, что они находят положительного в технологиях в этом смысле? Формируют ли они связи или заполняют пробел, который не обязательно восполняется — офлайн-мир не восполняет этот пробел для них — что, в каком-то смысле, мы упускаем? И мы имеем право гарантировать, что то, что мы создаём, способствует развитию их онлайн-жизни так же, как мы делаем это в их реальной жизни.

В LEGO Group мы недавно опубликовали отчёт совместно с Институтом Алана Тьюринга. Я также опубликую его в чате, чтобы люди могли его увидеть, но мы хотели изучить влияние генеративного ИИ, особенно на благополучие детей. И, думаю, именно это меня и поразило в этом отчёте: мы должны действительно учитывать благополучие детей, ставить его в центр внимания при создании новых технологий, поскольку нам необходимо учитывать, как ИИ взаимодействует с детской самостоятельностью, креативностью, эмоциональной регуляцией — конечно же, с помощью чат-ботов — с социальными связями в этом смысле. Поэтому я думаю, что мы в LEGO Group настоятельно рекомендуем разработчикам ИИ изучить имеющиеся данные и понять, какие факторы необходимы для создания ИИ, отвечающего наилучшим интересам ребёнка, потому что, как мне кажется, из отчёта мы увидели, что до сих пор этого не было. Итак, в рамках отчёта, подготовленного Институтом Алана Тьюринга, который мы финансировали, мы хотели рассмотреть вопрос благополучия детей, и в конечном итоге это действительно учитывает подход, ориентированный на ребёнка, потому что мы действительно хотим максимально использовать ценность и преимущества ИИ для детей и предоставить им свободу выбора в вопросах образования и игр. Меня поразило, что они также предоставляют свободу выбора в вопросах образования, обеспечивая в школах достаточное количество программ по медиаграмотности и грамотности, связанных с ИИ, и уделяя особое внимание тому, чтобы дети, пользуясь этими столь полезными для нас технологиями, имели те же цифровые права, что и мы, и могли получать к ним доступ безопасным способом, который действительно способствует их благополучию.

Спасибо, Кэролайн. Вы довольно часто упоминали о свободе воли. Кажется, нам задавали вопрос о противоречии между защитой и свободой воли, и, возможно, мы вернёмся к этому чуть позже. И снова, те вопросы, которые вы поднимаете о навыках, и возможности, которые ИИ даёт детям для развития навыков, и снова та напряженность, которая может возникнуть из-за того, что это может помешать развитию некоторых навыков, например, коммуникации, если ИИ будет писать за них; межличностных навыков; критического мышления. Поэтому, опять же, мы пытаемся понять эти долгосрочные последствия для детей, понять, насколько это полезно, но как это может помешать развитию некоторых навыков, которые, как вы знаете, мы, как я полагаю, развивали бы в молодости без ИИ.

И наконец, Саймон, что ты думаешь об этом, как человек, который, полагаю, более глубоко вовлечен в разработку инструментов ИИ? И, возможно, ты мог бы развить мысль Кэролайн о свободе воли и правах, а также о возможности по-настоящему использовать эту технологию.

Да, спасибо, Рэйчел, и спасибо, что пригласили меня, потому что, как вы сказали, это то, чем я очень, очень увлечена, и с точки зрения безопасности детей. Конечно, мы активно занимаемся разработкой ИИ и поэтому имеем очень технический взгляд на многое из того, что видим. Но меня не меньше интересуют и другие аспекты социальных сетей, особенно, например, связанные с насилием в отношении женщин и девочек. И здесь есть параллель с тем, о чём говорила Элль, а именно… и одна из цифр, которая бросалась в глаза в отчёте, заключалась в том, что 26% детей предпочитают общаться с чат-ботами на основе ИИ и чувствуют, что им легче общаться с ними, чем со взрослыми или людьми. И я думаю, что это та область, где нам потенциально нужно взглянуть на себя и понять, как и где мы можем лучше поддерживать их в этом пространстве, потому что без этого мы позволяем ИИ формировать восприятие нормы. И я думаю, что это очень специфическая область, где нам нужны прозрачность и контроль.

Что касается Кэролайн, я думаю, самое важное, что мы видим, — это идентификация и проверка возраста, чтобы контент, соответствующий возрасту, можно было эффективно доставлять, фильтровать и управлять им. К сожалению, для большинства существующих сред ИИ это довольно сложно. Мы можем задать им вопросы, мы можем подсказать им, чтобы они были конкретными в ответах для конкретной возрастной группы, но, как вы сказали в начале, возраст входа для большинства систем составляет около 13 лет. И современные дети легко знают, как это обойти. Они просто указывают дату рождения своей мамы или что-то в этом роде, и вдруг получают доступ. Но это вопрос уместности. Вопрос в том, как мы… то, что подходит моему сыну, которому 13 лет, сильно отличается от того, что подходит моей дочери, которой 18. И понимание этих тонких возрастных различий действительно важно.

Ещё одна вещь, которая меня очень увлекает, — это родительский контроль, потому что он сложный. Любой, кто пытался настроить родительский контроль в среде своего интернет-провайдера, знает, насколько это сложно. Понимание этой прозрачной связи между контентом, соответствующим возрасту, и родительским контролем в ИИ, на мой взгляд, действительно необходимо. Я, как родитель, хочу видеть, о чём спрашивают мои дети, о чём они общаются с чат-ботами на базе ИИ. Теперь я знаю, как это сделать. Так что я нахожусь в довольно выгодном положении, но возможность создать эту связь и иметь доступный родительский контроль в этой области действительно очень важна.

Третье, что меня очень волнует, — это предвзятость. Как мы понимаем и видим, как проявляется предвзятость в этих условиях, чтобы мы могли помочь нашим детям, которые используют эти данные, понять, когда можно верить в конкретные точки зрения, а когда следует поощрять критическое мышление? Вы сказали, что необходимость развивать критическое мышление в отношении ответов чрезвычайно важна. Но нам нужна прозрачность, и как родителям, и как сети поддержки детей, которые используют эти данные, нам нужна эта связь через контроль с возрастными особенностями, через прозрачность данных. Но мне очень нравится этот отчёт, потому что, на мой взгляд, именно такие исследования, такие отчёты действительно помогают нам правильно мыслить о том, как мы справляемся с этими проблемами.

Спасибо, Саймон. Довольно быстро прошёл сеанс. Кажется, мы довольно долго обсуждали некоторые из этих тем, но я просто хотел перейти к некоторым конкретным вопросам. И я не… все, пожалуйста, задавайте вопросы в разделе вопросов и ответов, и мы постараемся на них ответить. Я понимаю, что время летит быстро, потому что это очень интересная тема, но мы постараемся вернуться к некоторым из них позже. Так что, пожалуйста, задавайте, если у вас есть вопросы.

Я просто начну. Мы много говорили о свободе выбора, о детях и их правах, и, пожалуй, я начну с тебя, Элль. Есть ли у тебя какие-нибудь идеи о том, что ты слышишь от детей об ИИ, как ИИ влияет на их жизнь сегодня и что они думают о его роли в будущем? Ты очень заинтересована в том, чтобы услышать мнение самих детей. Мы немного говорили и об этом. Так что было бы очень интересно услышать твои мысли по этому поводу.

Да, вы, должно быть, заметили, как я быстро закивал, когда упомянули слово «агентство», потому что, знаете ли, это касается не только ИИ, но и взаимодействия детей с онлайн-миром в целом. Дети обычно считают, что они ответственны за то, что с ними происходит, но не обязательно контролируют это. И я думаю, что это проблема уже много лет. Интересно, потому что я уже упоминал об этом ранее, когда говорил, что многие наши исследования не обязательно были связаны именно с ИИ, за исключением работы с дипфейками. Но когда мы говорили об онлайн-мире, ИИ возник сам собой, и дети в целом… данные, которые они нам предоставили, были направлены на то, чтобы поделиться пессимистичными мыслями о нём. Поэтому я не могу точно сказать, что они думают о том, как он формирует их будущее в позитивном ключе, и это может быть просто благодаря нашему сбору данных. Но то, что они поделились, как бы затрагивает тему агентности. Знаете, существует много опасений по поводу того, каким будет будущее работы для детей. Думаю, это действительно очень интересно, потому что это, конечно, немного отличается от того типа искусственного интеллекта, о котором мы говорим сегодня. Но, полагаю, творческие люди среди нас, вероятно, думали о том, что это будет – что чат-боты сделают с миром труда по мере нашего развития. И, думаю, ещё один вопрос, который дети действительно хотели бы подчеркнуть, – это проблема доверия, которую испытывают дети, не только к искусственному интеллекту, с которым они взаимодействуют, или к технологиям, с которыми они взаимодействуют, но и, полагаю, к их способности обсуждать это с окружающими офлайн. И я очень надеюсь, что мы, как офис, сможем уделить этому больше внимания. Но мне кажется, просто интересно услышать, как размышления детей обо всём этом будут очень похожи на их размышления о других аспектах онлайн-мира. Знаете, мы видим, как возникают такие вещи, как страх и доверие, когда мы говорим с детьми о порнографии, когда мы говорим с ними об их использовании социальных сетей или поисковых систем. Похоже, это укладывается в определённую схему. Так что да, очень здорово, что у вас есть целенаправленное исследование на эту тему.

Кэролайн, можете что-нибудь добавить? Кажется, вы изначально подняли тему свободы воли, и, как я уже сказала, у нас возникло несколько вопросов на эту тему, например, о противопоставлении защиты и свободы воли, и о том, как мы обеспечиваем это для детей.

Безусловно, и это очень актуальный вопрос, особенно после публикации нашего отчёта в прошлом месяце. Должен сказать, что большую часть этой работы проделали сотрудники Института Алана Тьюринга, поэтому я хочу отдать им должное. Их команда проделала потрясающую работу, и они применили действительно потрясающий подход к участию детей и их участию в этой работе. Они создали потрясающий отчёт, который действительно демонстрирует, чего именно дети хотят от сферы ИИ. Я думаю, когда я говорю об участии, и мы говорим – и был вопрос о защите – это действительно важно и действительно интересно, потому что, когда дети работали над отчётом, они обращались в Институт Алана Тьюринга совместно с Детским парламентом, в школы Шотландии, и там использовали ИИ в классах. И как специалист по защите детей, я первым делом спросил их: «Подождите-ка. Вы даёте детям устройства, которые можно назвать устройствами для этой среды. Разве нас не беспокоит, что они увидят?» Итак, с точки зрения безопасности, им не разрешалось использовать ИИ самостоятельно, ни в какой форме или виде. За ними как бы следили. Таким образом, безусловно, у них сразу же отобрали свободу действий. Да, мы говорим, что хотим стремиться к свободе действий, но проблема безопасности здесь не решена. И, конечно же, дети, мы ставим права детей на первое место и хотим, чтобы их безопасность была в самом центре всего этого. Но как мы можем рассчитывать на это, если инструменты, которые мы им предоставляем, изначально небезопасны?

И это было действительно интересно, и вы прочтете это в отчете. Команда, Институт Алана Тьюринга и Детский парламент, сосредоточились в основном на творческом дизайне, когда речь шла о том, как дети реагируют на инструменты ИИ, а также на творческом аспекте. И в результате выяснилось, что нам действительно необходимо поддерживать разнообразные формы детской игры и творчества, как онлайн, так и офлайн. Причина, по которой я это говорю, и это напрямую соответствует нашим основным ценностям в LEGO Group, заключается в том, что им очень понравилось творчество — с использованием DALL-E и… ChatGPT чтобы создать для них образы, но они гораздо больше предпочли творчество, потому что у них также были художественные материалы. Они сравнивали эти два аспекта и пришли к выводу, что их чувства, связанные с автономией, благополучием и связью — знаете ли, всё то, что, как мы знаем, является ключевыми компонентами того, как дети учатся и как дети взаимодействуют с онлайн-пространством, — на самом деле были физическими инструментами для творчества, которые им нравились ещё больше. Они сказали, что, попросив GenAI сделать это, они ничего не почувствовали, но проявили творческий подход. Их беспокоило воздействие ИИ на окружающую среду. Их беспокоила дезинформация. Поэтому, когда речь идёт об участии в этом, нам нужно убедиться, что мы понимаем, чего дети хотят от цифровых продуктов, которыми они, как мы знаем, любят пользоваться.

Мы также основывались на некоторых наших исследованиях RIT, о которых я хотел бы рассказать здесь пару секунд. RIT — это наши ответственные инновации в области технологий для детей. Это исследование, проведенное LEGO Group совместно с LEGO Foundation и ЮНИСЕФ. Этот отчет демонстрирует, что цифровой мир оказывает действительно положительное влияние на благополучие детей. Существует так называемый RIT 8. Я снова опубликую его в чате для тех, кому интересно. Он демонстрирует, что, используя восемь принципов RIT, можно создать цифровой опыт, который способствует развитию автономности и создает ощущение благополучия, потому что именно это нас в LEGO Group действительно интересует: мы хотим, чтобы дети, воспользовавшись нашими услугами, чувствовали себя лучше, чем в самом начале. И, по сути, мы использовали RIT 8 в отчете Алана Тьюринга и продемонстрировали именно то, что они искали. Итак, в RIT 8 есть такие вещи, как безопасность, отношения, автономия, и, по сути, ИИ не дал положительного ответа на вопрос о том, каким должен быть результат, связанный с благополучием. Что касается безопасности, команда показала нам, что дети видели много неподходящих результатов, когда искали что-то в ИИ. Отношения — опять же, традиционные художественные материалы — это то, где у них было больше социальных связей, знаете ли, они общались с друзьями, когда создавали что-то вместе. Что касается автономии, они действительно ценят более высокую степень автономии — они не хотят, чтобы кто-то заглядывал им через плечо, кто-то должен был вводить данные за них. Итак, это своего рода начало нашего изучения ИИ и RIT. Я также настоятельно рекомендую вам обратить внимание на вторую фазу отчёта, которая представляет собой наш инструментарий. Мы призываем представителей отрасли и разработчиков продуктов использовать RIT при разработке этих инструментов, чтобы дети были на первом месте в этих восьми принципах, чтобы достижение благополучия стало своего рода ключевым компонентом использования ИИ в целом. Я говорил тогда очень быстро, поэтому передам слово обратно, но мне хотелось бы многое сказать о том, как ИИ формирует детей сегодня, потому что я считаю, что голос детей был очень интересным, и это было очень ясно видно из отчёта, который мы подготовили.

Да. Нет-нет, конечно. И очень приятно об этом поговорить. Знаете, как выглядит ответственный дизайн, ориентированный на детей? Вы как-то говорили о некоторых принципах того, как это может выглядеть. И, возможно, обратимся к вам, Саймон, поскольку вы, очевидно, работаете в этой области и разрабатываете инструменты искусственного интеллекта. Есть ли хорошие примеры, которые мы могли бы использовать, чтобы по-настоящему задуматься о том, как искусственный интеллект может помогать детям, о том, что они хотят с ним делать, о своих правах, но при этом справляться с подобными противоречиями, формируя необходимые навыки?

Да. И, к сожалению, примеров успешного применения этого подхода немного. В чате было несколько вопросов о связанных с этим коммерческих противоречиях. К сожалению, мы имеем дело преимущественно с крупными коммерческими организациями, которые, создавая некоторые из этих сред, в первую очередь оценивают финансовую отдачу. Мы уже говорили об этом ранее: важно иметь возможность создавать потоки контента, соответствующие возрасту аудитории, и понимание того, откуда берётся прозрачность этих данных, крайне важно. И это одна из самых важных проблем, с которыми мы сталкиваемся сейчас, — это прозрачность, которая также связана с концепцией предвзятости. Если вы понимаете, откуда берутся данные и откуда берётся обучение, вы можете понять, как и где может возникнуть предвзятость, что сложно, потому что иногда это субъективно. Но соответствующие возрасту триггеры и ограничения для того, как мы обучаем эти наборы данных, действительно очень важны. И пока это только в зачаточном состоянии. И я думаю, что некоторые моменты, которые были подняты в других темах, в вопросах там, я думаю, мы начнем видеть разные направления ИИ, разные типы моделей, эти большие языковые модели, которые были обучены очень конкретно с возрастными границами в этой области.

Спасибо, Саймон. И, возможно, мы могли бы перейти к регулированию. Мы, наверное, уже немного говорили об ответственности отрасли, но, знаете, если говорить о текущей политике и регулировании, то, похоже, мы считаем, что сейчас они не поспевают за развитием технологий. Так что, Кэти, может быть, вы могли бы немного рассказать о том, где, по вашему мнению, мы отстаём, и что нужно сделать?

Да, конечно. Поэтому, я думаю, в Internet Matters мы всегда говорим о том, что не может быть единственного подхода к обеспечению безопасности онлайн-мира для детей и молодёжи. Этот подход должен исходить от индустрии. Этот подход должен исходить от правительства. Школам нужна поддержка. Родители и сами дети должны понимать, с какими технологиями они взаимодействуют, и уметь использовать их так, как им удобно. Но, если сосредоточиться именно на регулировании, то, по-моему, одна из проблем, с которой мы столкнулись в ходе этого исследования, заключается в том, что, хотя такие вещи, как Закон о безопасности в интернете, например, должны были быть разработаны таким образом, чтобы меняться в соответствии с новыми и развивающимися технологиями, мы едва не столкнулись с первым же препятствием, когда речь зашла, например, о чат-ботах на основе ИИ. Существует противоречивая информация, предоставленная Ofcom или правительством, о том, как чат-боты на основе ИИ будут подпадать под действующее регулирование безопасности в интернете, будь то Закон о безопасности в интернете или другие его элементы. И мы уже видели это на примере других элементов ИИ, например, в контексте законов об уведомлении, где, знаете ли, пришлось разработать или внедрить законодательство, поскольку действующее законодательство не защищает людей от такого рода применения ИИ, причём в некоторых более серьёзных случаях. Поэтому я думаю, что определенно есть возможности для улучшения, и, возможно, отправной точкой могло бы стать прояснение того, что можно и что нельзя делать в рамках существующего законодательства, прежде чем мы перейдем к заполнению этих пробелов.

Я также считаю, что с нашей точки зрения, один из пробелов в действующем законодательстве, и это, знаете ли, относится и к социальным сетям, но, думаю, это уже прослеживается в отношении чат-ботов на основе искусственного интеллекта, — это вопрос проверки возраста. Как я уже говорил, когда выступал, проверка возраста — это своего рода ключ к раскрытию множества других элементов безопасности детей. Знаете, будь то родительский контроль или соответствующий возрасту опыт. Поэтому я считаю, что закрепление этого в законодательстве и обеспечение понимания возраста пользователей этих платформ действительно важно. Знаете, в исследовании мы выяснили, что дети регистрировались, потому что им нужны функции, доступные для людей старшего возраста, чтобы они могли получить доступ к функциям, недоступным детям, и это можно запретить только с помощью проверки возраста. Так что, я думаю, это своего рода ключевая отправная точка для правительства.

Отлично. Спасибо, Кэти. У нас, пожалуй, осталось минут 10. Мы можем перейти к некоторым вопросам, которые нам задали участники. Мы много говорили о влиянии, но был определённый интерес к тому, что участники дискуссии думают о роли школ. Так что, возможно, Элл, ты могла бы высказаться по этому поводу. Я думаю, ключевой посыл и мысль здесь — роль школ в поддержке медиаграмотности детей, особенно в области искусственного интеллекта, а затем, какая поддержка им нужна.

Да, конечно. Знаете, школы, безусловно, играют в этом огромную роль. Они принимают детей пять дней в неделю. И да, но я думаю, мы не можем рассматривать это как панацею. Кэти только что сказала, что должна быть ответственность за это на всех уровнях. И мы не можем научить детей жить в более безопасном мире. Мир такой, какой он есть, и мы можем взглянуть на него и спросить себя, хотим ли мы, чтобы дети росли в такой ситуации, и учитывает ли он их права и интересы. Поэтому школьные вмешательства должны идти рука об руку с изменениями, которые технологическая индустрия должна осуществить в качестве компенсации. Но при этом грамотность в области искусственного интеллекта будет — и она нужна прямо сейчас, судя по этому отчёту, — она будет так же важна, как и любой другой вид грамотности, который сейчас преподаётся в школах. Школы находятся на передовой подготовки детей к жизни в этом мире. И я думаю, чем больше мы узнаем об этом мире, чем больше мы узнаем об этом, что и делает этот доклад, потому что, как я уже говорил, есть много того, чего мы не знаем, и есть многое, о чём школы узнают впервые, ещё до того, как об этом узнают гражданское общество или кто-либо в правительстве. Именно школы слышат об этом впервые, впервые. Поэтому очень важно обеспечить, чтобы информационные потоки были на самом высоком уровне.

В офисах Комиссии, очевидно, мы хотели бы видеть мир, где детям не нужно опасаться вреда, и который можно и нужно предотвратить. Итак, знаете ли, школы могут помочь в этом, или, по крайней мере, они смогут предоставить действительно ценный способ решения этой проблемы, предоставляя детям информацию в доступной форме по всей стране. Знаете ли, есть школы, которые могут адаптировать различные учебные материалы для своих детей, которые в них больше всего нуждаются, и это действительно здорово. Некоторые из вас, вероятно, видели новые рекомендации по вопросам правовых отношений, здоровья и полового воспитания, опубликованные на этой неделе. И мы очень, очень приветствуем включение ИИ в эту учебную программу. Есть и множество других тем, которые мы очень рады видеть. Знаете, как порнография и её связь с женоненавистничеством, все эти замечательные вещи, которые, знаете ли, очень приятно видеть адаптированными к миру, в котором мы живём. И, полагаю, что школам необходимо будет обеспечить это качество, поскольку успех будет зависеть от качества предоставляемых услуг. Комиссар просит Министерство образования возглавить кампанию по набору преподавателей, специализирующихся на RHSSE, которые будут работать на протяжении всей учебной программы. Поэтому мы надеемся, что это поспособствует критическому осмыслению ИИ и онлайн-мира в целом, которое будет интегрировано как в повседневное обучение детей, так и в их повседневную жизнь. Поэтому, знаете ли, мы очень рады увидеть, какое влияние окажет это новое руководство.

Но да, конечно, нет, я думаю, мы это тоже очень приветствуем, и, знаете, обо всех правильных вещах начинают говорить и включать их в программу. Но вы правы, вопрос в том, как это реализуется и какую поддержку получают школы, потому что это довольно фрагментарно, и мы много слышим от разных родителей и детей, знаете ли, у некоторых людей действительно хороший опыт изучения этих тем, медиаграмотности и того, как обеспечить безопасность в интернете, в то время как это не одинаково для всех детей. Так как же нам добиться того, чтобы это было внедрено и стало обязательным для всех школьных сообществ? Возможно, мы обратимся к другому вопросу, который у нас был. Не знаю, хотите ли вы что-нибудь добавить, Кэти, прежде чем мы продолжим.

Вовсе нет. Думаю, единственное, что я хотел бы отметить — один небольшой момент — касается наблюдаемого нами неравенства, которое часто перекликается с другими различиями, наблюдаемыми между областями с высоким и низким уровнем неблагополучия. Зачастую, знаете ли, в областях с высоким уровнем неблагополучия преподавательские ресурсы переключаются на другие приоритеты. Возможно, у них нет доступа к тем же чат-ботам на основе искусственного интеллекта или к тем вещам, которые некоторые школы разрабатывают самостоятельно. Поэтому, я думаю, именно поэтому так важно, чтобы мы правильно руководили процессом, чтобы уравнять шансы.

Да, конечно. Нам задали ещё один интересный вопрос: кто-то сказал, что всё чаще слышит о взрослых, использующих чат-ботов в качестве альтернативы терапии. Видим ли мы сходство с тем, что делают дети, особенно подростки? Возможно, это то, что, возможно, Элль или Кэти, вы хотели бы…

Да, я могу попробовать. Это определённо поднималось в исследовании, где рассматривались лишь некоторые примеры, которые приводили дети. Были примеры, когда, знаете ли, советы или вопросы, которые они задавали или на которые хотели получить ответы, были такими, на которые, возможно, ответил бы традиционный терапевт или, может быть, доверенный взрослый. Я думаю, это определённо недостаточно изучено, и, на мой взгляд, есть действительно полезные применения. Кажется, Национальная служба здравоохранения (NHS) создала приложение, которое позволяет вам как бы связываться с терапевтом между сеансами. Так что, я думаю, это не обязательно плохо, если всё сделано правильно, но, думаю, мы ещё не достигли той точки, когда чат-боты на основе искусственного интеллекта общего назначения должны использоваться в качестве терапевтов для детей, и это то, что мы начинаем видеть.

Да, я хотела бы повторить то, что только что сказала Кэти. Мне кажется, мы, вероятно, увидим это чаще по мере развития событий, знаете ли, чат-боты с искусственным интеллектом будут интегрироваться в ещё большее количество областей, которые мы видим. Кэти, возможно, я видела, как человек, задававший вопросы, использовал слово «замена», и мне кажется это действительно интересным, потому что это предполагает, что он не оказывает полной поддержки, которую оказал бы обычный терапевт. И я думаю, это действительно… это поднимает вопросы о том, является ли этот чат-бот с искусственным интеллектом, если он используется таким образом, следует ли его использовать таким образом? И если нет, то нужно чётко дать понять, что это небезопасное место для человека, когда он чувствует себя крайне уязвимым, или что это должно поощряться и, я думаю, даже поощряться в этом отношении, потому что, опять же, было бы просто замечательно, если бы существовало место, где люди могли бы получить поддержку, когда она им очень-очень нужна. Но да, я думаю, что это было бы действительно интересным пространством для исследований в области психического здоровья.

Да. Кажется, где-то в начале чата мы обсуждали, что, возможно, стоит обратиться к таким детям за советом, ведь чат-бот с искусственным интеллектом ничего о них не знает, об их ситуации, семейной жизни, о том, какую поддержку они уже получили, и, в зависимости от того, какие вопросы они задают, как он на них реагирует. Есть ли у кого-нибудь мысли о том, как мы к этому подходим? Знаете, Элль, вы немного говорили о том, что либо мы поощряем это, если всё идёт хорошо, либо мы не поощряем это, если у него всё ещё нет такой способности понимать эти проблемы. Так что, может быть, Саймон или Кэролайн, если у вас есть какие-то соображения о том, как ИИ может развиваться, чтобы действительно совершенствоваться в том, что он потенциально может делать?

Да, да. Хм, я думаю, что во всех этих областях есть так много всего, что можно было бы раскрыть. Единственное, что я хотел бы сказать, и я только что отвечал кому-то в одном из чатов, это то, что, по-моему, мы говорим, очевидно, о чат-ботах на основе ИИ в этой среде, но ИИ в конечном итоге является движущей силой своего рода промышленной революции во всех областях, которые мы видим. И, кажется, мы немного говорили об этом только что, когда говорили о беспокойстве детей по поводу того, каким может быть их будущее в сфере труда. И я думаю, что это одна из тех областей, где нам нужны более широкие примеры того, как ИИ, не только в виде чат-ботов, но и в других областях промышленности, работы и нашей повседневной жизни, как ИИ будет нам помогать, какие преимущества он принесёт и как его следует использовать в качестве инструмента. У моего сына СДВГ, и он фанат LEGO. Хм, но иногда его это раздражает, потому что у него столько замечательных творческих идей, а он не знает, как их реализовать. Он использует чат-ботов, чтобы понять, как быстрее развивать свои творческие идеи. И с этой точки зрения это просто гениально. Моя дочь только что сдала экзамены уровня A. Она использовала… ChatGPT как способ проверить её готовность к экзамену A-level по психологии. Так что есть несколько действительно замечательных областей, где ИИ может принести пользу образованию в этой сфере. Но я думаю, нам нужно взглянуть на это шире, чем только на чат-ботов, и понять, как он движет этой псевдоиндустриальной революцией, потому что она изменит абсолютно всё. И я не думаю, что нам стоит этого бояться, потому что, я думаю, ИИ принимает это. Что касается точки зрения Элль, как нам заставить технологические компании также взять на себя эту проблему? Хм, и это… я не имею в виду проблему. Это не совсем то, что я имею в виду. Но потому что это может быть отличной возможностью в этой области, но это не для одной организации. Это не для одной компании. Это должно быть коллективно.

Могу я добавить, извините, прежде чем мы закончим, Рэйчел, просто я знаю, что мы вовремя. Очень быстро, просто чтобы повторить то, что я уже говорил: нам действительно нужно поддерживать разнообразные формы детских игр, как офлайн, так и онлайн. И, кажется, Саймон только что это сказал. Я не просил его делать рекламу LEGO Group. Я за… обещаю. Но я просто думаю, что это действительно хороший пример, верно, с точки зрения того, что мы пытаемся сделать. Знаете, когда вы покупаете своему ребёнку первый набор LEGO, вы вместе с ним. Вы строите его вместе с ним. Родители участвуют в этом так же, как и в их цифровой жизни. Что касается искусственного интеллекта, знаете ли, мы можем его очень бояться, но на самом деле, если мы будем делать это вместе и использовать игру, чтобы создать доверие, необходимое родителям, семьям и компаниям, чтобы гарантировать, что мы действительно включаем права детей во все, что мы делаем, но не будем рассматривать это изолированно, а будем относиться к этому с уважением к детям как в реальной жизни, так и в интернете. Хм, я знаю, что мы не в теме, извините, что прерываю.

Итак, да, всё в порядке. Нет, спасибо. Очень хорошие, хорошие комментарии. Итак, спасибо всем за ваше сегодняшнее мнение. Подводя итог, я хотел бы вернуться к тому, с чего я начал, и поразмыслить обо всём, о чём мы говорили. Столько всего нужно разобрать, и мысль о том, что темпы изменений в онлайн-мире и безопасность детей в нём довольно ошеломляют родителей, довольно ошеломляет. И я думаю, как мы сегодня услышали, я лишь один из аспектов цифровой жизни детей. Нужно многое учесть, и, знаете ли, в отношении искусственного интеллекта и того, как дети его используют, и чтобы они могли наслаждаться им позитивно и безопасно. Так что это, безусловно, коллективные усилия. Думаю, мы все говорили о том, что индустрия, правительство, родители, школы – все работают вместе, чтобы дети воспринимали это позитивно. Итак, спасибо всем за участие сегодня, и я надеюсь, что наше исследование действительно прояснило ситуацию, а сегодняшняя дискуссия действительно пролила свет на эту проблему и на опыт детей. Ну, знаете, ну, и, знаете, надеюсь, мы все сможем справиться с трудностями, двигаясь вперёд вместе. Огромное спасибо всем участникам. И нашей команде за подготовку сегодняшнего замечательного отчёта и вебинара, а также всем нашим спикерам и участникам дискуссии. Кэти, Элль, Кэролайн и Саймон, огромное спасибо за ваши размышления и наблюдения. Это была действительно замечательная беседа. Уверена, мы могли бы поговорить ещё час. Так что приятного вам дня, всем, и спасибо.

Закрыть Закрыть видео

Я, снова я и ИИ: полный отчет

Я, снова я и ИИ: полный отчет

Понимание и обеспечение безопасности при использовании детьми чат-ботов на основе искусственного интеллекта
Миниатюра отчета «Я, снова я и ИИ»
Значок PDF

Поддержка исследований и ресурсов

Ознакомьтесь с нашими исследованиями и ресурсами, предназначенными для родителей, опекунов и специалистов.

Закрыть Закрыть видео
Закрыть Закрыть видео
Закрыть Закрыть видео
Закрыть Закрыть видео