МЕНЮ

Что такое генеративный ИИ (Gen-AI) и как он может повлиять на благополучие детей?

Посмотрите полную версию #Take20Talk о том, как искусственный интеллект может повлиять на благополучие детей.

В этом месяце мы приняли участие в мероприятии #Take20Talk Антибуллингового альянса.

Узнайте об использовании детьми генеративного ИИ и его влиянии в преддверии наших предстоящих исследований в области генеративного ИИ и образования.

Мы были рады принять участие в #Take20Talk с Альянсом по борьбе с издевательствами. Доклад дал нам возможность обсудить влияние генеративного искусственного интеллекта на цифровое благополучие детей.

На сессии мы обсудили использование детьми генеративного искусственного интеллекта, преимущества и риски, которые он представляет, а также текущую политическую ситуацию вокруг этой развивающейся технологии. Эта презентация предваряет наше предстоящее исследование в области генеративного искусственного интеллекта и образования, которое выйдет в начале следующего года.

Что такое генеративный ИИ?

Генеративный ИИ (Gen-AI) — это форма искусственного интеллекта, которая создает оригинальный текст, изображения и аудио. Модели Gen-AI обучаются на наборах данных, используемых для создания нового контента, с использованием шаблонов, полученных в процессе обучения.

Ген-ИИ использует Обработка естественного языка (НЛП). Это отрасль искусственного интеллекта, которая «сосредотачивается на том, чтобы помочь компьютерам понимать, интерпретировать и генерировать человеческий язык». Эти технологии открывают детям множество интересных возможностей. Однако, как и в случае со всеми новыми технологиями, наряду с преимуществами существуют и потенциальные риски, о которых следует знать.

Каковы возможности Gen-AI?

Индивидуальный опыт обучения

Генеративный ИИ может помочь учителям адаптировать свои планы уроков и материалы для лучшей поддержки различных учебных потребностей своих учеников. Таким образом, это обеспечивает более увлекательный и инклюзивный опыт обучения для разных классов.

Фактически, учителя уже используют генеративные инструменты искусственного интеллекта для оказания индивидуальной поддержки ученикам с особыми образовательными потребностями и ограниченными возможностями (SEND).

Поддержка через горячие линии

Дети могут воспользоваться услугами линий помощи, использующих генеративный искусственный интеллект. Линии помощи по социальному и психическому здоровью, созданные на основе генеративного искусственного интеллекта, могут обеспечить очень оперативную и персонализированную поддержку для молодых людей. Это может привести к немедленной помощи и повысить общую эффективность человеческой поддержки.

Например, Помощь детям — это онлайн-служба психического здоровья, которая использует генеративную технологию искусственного интеллекта для круглосуточной поддержки детей по всей Канаде. Этот сервис с помощью НЛП анализирует и сопоставляет стиль общения молодых людей. Это, в свою очередь, направляет детей к конкретному каналу обслуживания, который им нужен, будь то поддержка при эмоциональном стрессе, проблемах издевательств или других проблемах.

«Горячие линии» предлагают молодым людям безопасное и анонимное пространство, где они могут выразить свои чувства и проблемы, не опасаясь осуждения. Однако, хотя чат-боты линии помощи могут обеспечить быстрые ответы, им не хватает нюансов и адаптируемости, которые предлагает человеческая поддержка. Поэтому им придется изо всех сил пытаться полностью заменить эффективность человеческого взаимодействия.

Чат-боты эмоциональной поддержки

Помимо поддержки и направления молодых людей по телефону, чат-боты с искусственным интеллектом могут выступать в качестве виртуальных компаньонов. В некоторых случаях они могут оказать эмоциональную поддержку детям, которым сложно завести друзей или справиться с социальными проблемами. Кроме того, эти чат-боты могут поддерживать детей, которые чувствуют себя одинокими или которым сложно поделиться своими чувствами с другими.

При наличии правильных мер безопасности чат-боты также могут поддерживать детей, которые борются с социальной тревожностью. Эти инструменты могут предложить непредвзятое пространство для участия в разговорах, а также для развития и практики социальных взаимодействий.

Пример такого чат-бота: Харли. Harlie — это приложение для смартфонов, которое использует технологию искусственного интеллекта и алгоритмы НЛП для общения с людьми. Однако вместо того, чтобы просто отвечать на вопросы, Харли поощряет диалог, задавая вопросы пользователю. Кроме того, с разрешения пользователя Харли может собирать информацию о моделях речи, чтобы поделиться ею с медицинскими и исследовательскими группами и обеспечить целенаправленную терапию.

Каковы потенциальные риски?

Влияние на критическое мышление

Чрезмерная зависимость от генеративного искусственного интеллекта может негативно повлиять на навыки критического мышления детей. Это связано с тем, что это уменьшает возможности для проведения независимого анализа и решения проблем. Более того, использование ИИ в качестве основного источника знаний может поставить под угрозу способность подвергать сомнению и оценивать информацию. Посмотрите наше онлайн-руководство по критическому мышлению.

Важно помогите детям внедрить инструменты искусственного интеллекта в их обучение, не полагаясь на них слишком сильно.

Парасоциальные отношения и издевательства

Существует тревожная тенденция: молодые пользователи копируют агрессивное поведение и направляют его на чат-бота с искусственным интеллектом. В социальных сетях некоторые пользователи поощряют других «запугивать» чат-ботов посредством газлайтинга и общего жестокого обращения.

Хотя дети не издеваются над другими людьми, существует обеспокоенность по поводу того, как виртуальное взаимодействие может нормализовать агрессивное поведение.

Воздействие откровенного контента

Использование некоторых чат-ботов с искусственным интеллектом может подвергнуть детей откровенный и неуместный контент. Одним из примеров такого чат-бота является Replika. Replika — это специальный чат-бот с искусственным интеллектом, который побуждает пользователей делиться личной информацией. Чем больше информации пользователь делится с ним, тем больше он может персонализировать свои ответы.

Хотя на сайте утверждается, что он предназначен только для лиц старше 18 лет, проверка возраста не требуется. Таким образом, дети не столкнутся с небольшими препятствиями при использовании сайта.

Реплика поощряет пользователей участвовать в откровенных разговорах для взрослых. Это также побуждает их платить комиссию за то, чтобы чат-бот поделился непристойными фотографиями или организовал «романтический» видеозвонок. Нормализация оплаты за откровенный контент могла бы способствовать развитию культуры, в которой дети считают приемлемым запрашивать, получать и отправлять неуместные изображения — как с помощью чат-бота, так и между собой.

Незаконное создание контента

Отчеты показывают, что дети все чаще используют инструменты искусственного интеллекта для создания непристойных изображений сверстников, чему способствуют легкодоступные приложения для «раздевания». Непристойные изображения лиц младше 18 лет являются незаконными независимо от обстоятельств их создания. Это включает материалы о сексуальном насилии над детьми (CSAM) произведено по технологии deepfake.

Хотя динамика производства и распространения дипфейков отличается от других форм сексуального насилия с использованием изображений, вред для жертв, вероятно, будет столь же серьезным, если не более серьезным.

Что подростки говорят о технологии deepfake

Чтобы более подробно изучить влияние технологии дипфейков, в начале этого года мы провели серию фокус-групп. В фокус-группах участвовали подростки в возрасте 15–17 лет, и они освещали тему женоненавистничества в Интернете. Это также включало гендерную динамику, которая лежит в основе сексуальное домогательство и насилие между детьми.

Участники обсудили сексуальное насилие с использованием технологии дипфейков – проблему, которая в этом году несколько раз попадала в заголовки газет как в Великобритании, так и за рубежом. Подростки, особенно участники женского пола, в целом разделяли мнение, что стать жертвой дипфейкового насилия на самом деле может быть более вредно, чем традиционные формы обмена изображениями без согласия.

Участники рассказали нам, что серьезность вреда заключается в отсутствии свободы воли и контроля, которые они ощутят в дипфейке. Это потому, что они не будут знать или давать согласие на его производство:

«Я думаю, что дипфейк, может быть, был бы намного хуже, потому что с обнаженной натурой ты тоже ее снял, поэтому ты об этом знаешь, а с дипфейком ты вообще не будешь иметь ни малейшего понятия. Буквально прямо сейчас такое может произойти, и никто об этом не узнает» – Девушка, 15–17 лет, фокус-группа «Интернет имеет значение».

Предстоящие исследования в области генеративного искусственного интеллекта

Правительство Великобритании приняло решение не вводить новое законодательство об ИИ. Вместо этого все будет зависеть от существующей законодательной базы, регулирующей производство и использование новых технологий искусственного интеллекта.

До сих пор неясно, сможет ли этот мягкий подход в достаточной степени защитить людей — особенно детей — от всего спектра рисков, создаваемых ИИ, включая возникающий вред от новых услуг и технологий.

Важно, чтобы мнения и опасения молодых людей и родителей учитывались при разработке политики в отношении использования генеративного ИИ. Это особенно верно, когда речь идет об использовании технологий в образовании, где возможные применения могут оказаться наиболее эффективными.

Итак, мы рады сообщить новое исследование влияния генеративного ИИ на образование, исходя из мнений детей и родителей. В ходе исследования будет изучено, как семьи и школы используют Gen-AI, а также надежды и опасения детей и родителей на будущее.

Это было полезно?
Расскажите нам, как мы можем улучшить его

Недавние Посты