什么是生成式人工智能 (Gen-AI)?它如何影响儿童的福祉?

观看完整的#Take20Talk,了解人工智能如何影响儿童的福祉。

本月,我们参加了反欺凌联盟的#Take20Talk。

在我们即将进行的生成人工智能和教育研究之前,了解儿童对生成人工智能的使用及其影响。

我们很高兴参加反欺凌联盟的 #Take20Talk。这次演讲让我们有机会讨论生成式人工智能对儿童数字福祉的影响。

在会议中,我们讨论了儿童对生成人工智能的使用、它带来的好处和风险,以及围绕这一不断发展的技术的当前政策格局。本次演示是在我们即将于明年初发布的生成式人工智能和教育研究之前进行的。

什么是生成式人工智能?

生成式人工智能(Gen-AI)是人工智能的一种形式,可以生成原始文本、图像和音频。 Gen-AI 模型在用于制作新内容的数据集上进行训练,并利用在训练过程中学到的模式。

Gen-AI用途 自然语言处理(NLP)。这是人工智能的一个分支,“专注于帮助计算机理解、解释和生成人类语言”。这些技术为儿童提供了许多令人兴奋的机会。然而,与所有新技术一样,除了好处之外,还存在潜在的风险需要了解。

Gen-AI有哪些机会?

定制学习体验

生成式人工智能可以帮助教师定制课程计划和材料,以更好地支持学生的不同学习需求。因此,这确保了多元化课堂的更具吸引力和包容性的学习体验。

事实上,教师已经使用生成式人工智能工具为有特殊教育需求和残疾的学生提供量身定制的支持 (SEND)。

通过帮助热线提供支持

儿童可以受益于使用生成式人工智能的帮助热线。基于生成人工智能的社会和心理健康支持热线可以为年轻人提供高度响应和个性化的支持。这可以带来即时援助并提高人力支持的整体有效性。

例如, 孩子们帮助电话 是一项在线心理健康服务,利用生成式人工智能技术为加拿大各地的儿童提供 24/7 的支持。该服务利用自然语言处理技术,分析并匹配年轻人的沟通方式。这反过来又会将孩子引导到他们需要的特定服务渠道,无论是针对情绪困扰、欺凌问题还是其他问题的支持。

帮助热线为年轻人提供了一个安全且匿名的空间,让他们表达自己的感受和担忧,而不必担心受到评判。然而,虽然帮助热线聊天机器人可以提供快速响应,但它们缺乏人类支持提供的细微差别和适应性。因此,它们将努力完全取代人类互动的有效性。

情感支持聊天机器人

除了通过电话支持和指导年轻人之外,人工智能聊天机器人还可以充当虚拟伴侣。在某些情况下,他们可能会为难以交朋友或应对社交挑战的孩子提供情感支持。此外,这些聊天机器人可以为感到孤独或难以与他人分享感受的孩子提供支持。

有了正确的保障措施,聊天机器人还可以为患有社交焦虑症的儿童提供支持。这些工具可以提供一个非评判性的空间来参与对话、发展和实践社交互动。

这种聊天机器人的一个例子是 Harlie。 Harlie 是一款使用 AI 技术和 NLP 算法与人类对话的智能手机应用程序。然而,Harlie 不只是回答问题,而是通过向用户提问来鼓励对话。此外,在用户许可的情况下,Harlie 可以捕获有关言语模式的信息,以便与健康和研究团队共享并提供有针对性的治疗。

有哪些潜在风险?

对批判性思维的影响

过度依赖生成式人工智能可能会对儿童的批判性思维能力产生负面影响。这是因为它减少了进行独立分析和解决问题的机会。此外,使用人工智能作为知识的主要来源可能会损害质疑和评估信息的能力。 请参阅我们的在线批判性思维指南.

最重要的是 帮助孩子融入人工智能工具 融入他们的学习,而不是过分依赖他们。

准社会关系和欺凌

有一个令人担忧的趋势,即年轻用户模仿欺凌行为并将其引导至人工智能聊天机器人。在社交媒体上,一些用户鼓励其他人通过煤气灯和一般虐待来“欺负”聊天机器人。

虽然孩子们不会欺负其他人,但人们担心虚拟互动如何使欺凌行为正常化。

暴露于露骨内容

使用某些人工智能聊天机器人可能会让儿童接触 露骨和不适当的内容。 Replika 就是此类聊天机器人的一个例子。 Replika 是一个定制的人工智能聊天机器人,鼓励用户分享个人信息。用户与其分享的信息越多,它就越能个性化其响应。

虽然该网站声称只适合 18 岁以上的人,但它并不要求任何年龄验证。因此,孩子们在使用该网站时不会遇到什么障碍。

Replika 鼓励用户参与露骨的成人对话。它还进一步促使他们为聊天机器人支付费用,以分享不雅图片或促进“浪漫”视频通话。为露骨内容付费的行为正常化可以促进一种文化,让孩子们觉得可以接受通过聊天机器人和他们之间请求、接收和发送不适当的图像。

非法内容生成

报告表明,儿童越来越多地使用人工智能工具来生成同龄人的不雅图像,而易于访问的“脱衣”应用程序则促进了这一点。 18 岁以下青少年的不雅图像无论其制作情况如何,均属违法。这包括 儿童性虐待材料 (CSAM) 采用 Deepfake 技术制作。

虽然深度造假的制作和传播动态与其他形式的基于图像的性虐待不同,但对受害者造成的伤害可能同样严重,甚至更严重。

青少年如何评价 Deepfake 技术

为了更详细地探讨 Deepfake 技术的影响,我们在今年早些时候举行了一系列焦点小组会议。焦点小组以 15 至 17 岁的青少年为对象,讨论了网络厌女症的主题。这还包括支撑性别动态 儿童对儿童的性骚扰和虐待.

参与者讨论了涉及深度伪造技术的性虐待——这个问题今年多次成为英国和国际上的头条新闻。青少年——尤其是女性参与者——普遍认为,成为深度伪造滥用的受害者实际上可能比传统形式的非自愿图像共享危害更大。

参与者告诉我们,伤害的严重程度在于缺乏他们在深度假货中感受到的代理和控制。这是因为他们不知道也不同意其生产:

“我认为 Deepfake 的情况可能会更糟,因为对于裸体,你也拍了它,所以你知道它,而 Deepfake 则根本没有任何线索。现在可能确实有一个人出来了,但没有人知道”——女孩,15-17 岁,互联网事务焦点小组。

即将到来的生成人工智能研究

英国政府决定不引入新的人工智能立法。相反,它将依赖于现有的立法框架来规范新人工智能技术的生产和使用。

目前尚不清楚这种温和的方法是否足以保护个人(尤其是儿童)免受人工智能带来的全方位风险,包括新服务和技术带来的新危害。

在围绕生成人工智能的使用制定政策时,必须考虑年轻人和父母的观点和担忧,这一点很重要。当技术在教育中的应用时尤其如此,其中可能的应用可能是最有影响力的。

所以,我们很高兴地宣布 关于生成人工智能对教育影响的新研究,基于孩子和家长的意见。该研究将探讨家庭和学校如何使用 Gen-AI,以及儿童和家长对未来的希望和担忧。

这有用吗?
告诉我们如何改进它

最近的帖子