在本页
主要调查结果
- 学习和课业:近一半使用人工智能聊天机器人的儿童表示,他们使用这些工具来完成学业。这包括帮助复习、写作支持和学习新概念。
- 寻求建议:近四分之一使用人工智能聊天机器人的儿童表示,他们曾用它们来寻求建议。这些建议涵盖范围广泛,从询问应该穿什么,到练习与朋友进行的对话。
- 友谊:研究还发现,孩子们使用人工智能聊天机器人是为了寻求联系和安慰,包括模拟友谊。有些人说,他们这样做是因为无聊,是为了讨论自己感兴趣的话题,或者是因为没有其他人可以交谈。
- 回应不准确且不充分:人工智能聊天机器人有时无法为儿童提供清晰全面的建议,这令人担忧,因为超过一半使用聊天机器人的儿童表示,使用该工具比自己搜索某些东西更好。
- 高度信任建议:五分之二使用人工智能聊天机器人的儿童毫不犹豫地遵循他们收到的建议,在弱势儿童中,这一比例甚至更高(2%)。即使建议相互矛盾或没有帮助,情况也是如此。
- 接触有害内容:尽管人工智能聊天机器人提供商知道用户的年龄并禁止不适合年龄的内容,但儿童仍然会遇到有害的反应。
- 模糊的界限:有些孩子认为人工智能聊天机器人与人类相似,并使用性别代词来指代它们。专家表示,随着使用次数的增加,孩子们可能会在情感上更加依赖人工智能聊天机器人。
- 与父母的对话虽然大多数孩子表示父母曾与他们谈论过人工智能的一般问题,但许多父母并未分享他们的担忧。父母最担心的问题包括孩子过度依赖、信息准确性以及在聊天机器人上花费过多时间。
- 与老师的对话学校里关于人工智能的教育并不一致,有时老师之间甚至存在矛盾。大多数与老师讨论过人工智能的孩子都不记得进行过多次对话。
- 支持人工智能教育孩子们支持学校教育他们使用人工智能聊天机器人。他们认为,这不仅能辅助学习,还能解决不准确、过度依赖和隐私等风险。
- 行业:平台需要采用安全设计方法,打造适龄的人工智能聊天机器人,以满足儿童的需求。这应该包括内置家长控制、可信路标和媒体素养功能。
- 政府《网络安全法》需要包含关于如何保护人工智能聊天机器人的明确指导。非儿童专用的人工智能聊天机器人需要有效的年龄保障,以跟上快速发展的人工智能技术的步伐。
- 支持学校政府还需要在所有关键阶段嵌入人工智能和媒体素养。这包括有效的教师培训和关于如何正确使用人工智能的明确指导。
- 支持父母和照顾者:家长/监护人需要获得支持,指导孩子使用人工智能。他们应该能够自信地解释什么是人工智能聊天机器人、它们如何工作以及何时使用它们。
- 决策者儿童的声音需要成为人工智能聊天机器人以及人工智能整体发展、监管和治理决策的核心。这包括投资于对其对儿童影响的长期研究。
观看:我、我自己和人工智能报告网络研讨会
如果您错过了现场网络研讨会,请在此处观看录像,其中收录了科技、教育和儿童安全领域专家的声音。
我们从报告中揭示了独家见解,探讨了儿童如何使用人工智能工具以及他们可能面临的独特风险。
观看完整讨论以了解:
- 如今孩子们如何与人工智能聊天机器人互动
- 潜在风险,包括过度依赖和不安全的内容
- 行业、政府、教育工作者和家长可以采取哪些措施来保障儿童安全
- 实用建议,包括年龄保障、学校人工智能素养等
人工智能聊天机器人对孩子来说安全吗?——专家怎么说
我看到现在有很多人加入我们。欢迎大家,感谢大家今天上午加入我们。很高兴看到这么多人来听我们最近发布的关于儿童使用人工智能聊天机器人的报告“我,我自己和人工智能”,并参加我们今天上午晚些时候的小组讨论。
互联网事务 (Internet Matters) 是一个非营利组织,主要致力于支持父母和监护人保护儿童的网络安全。我们成立至今已有 11 年,见证了数字环境的翻天覆地的变化,这不仅体现在儿童上网的年龄,还体现在他们使用的平台、技术以及他们的上网体验上。这使得数字时代的育儿工作瞬息万变,正如我们经常听到许多父母所说,有时育儿工作真的让人不知所措。孩子们使用人工智能聊天机器人只是父母需要应对的另一个问题,因此我们欢迎大家今天与我们一起探讨这个话题。
开始之前,先简单说一下:本次会议正在录制中,我们将在今天晚些时候发布到YouTube上,届时我们会分享链接。不过,为了方便大家了解,参会人员不会参与录制。如果您遇到任何技术问题,请使用在线聊天,我们的团队成员将尽力为您提供帮助。
为了更深入地探讨研究和互联网事务,我们的项目包括脉搏调查和数字健康指数,该指数现已进入第五个年头,我们通过该指数定期听取家长和孩子们关于他们在线生活的想法、担忧和体验(无论是积极的还是消极的)。“我,我自己和人工智能”是英国首批专门关注儿童使用人工智能聊天机器人的报告之一。
这项研究由我们的内部团队开展,数据来源于我们的脉搏调查数据、针对英国各地儿童和家长的焦点小组,以及我们自己对几个不同平台的用户测试。我们旨在了解儿童如何使用人工智能聊天机器人,使用它们会带来哪些机遇和风险,以及如何支持安全、适龄的体验。正如您在报告中看到的,本报告重点关注儿童使用聊天机器人的三个关键领域。
首先,是为了学习,包括辅导作业和复习。其次,是为了寻求建议,因为越来越多的孩子会询问自己的感受、外貌或身体状况,更重要的是,为了寻求陪伴,我们开始发现,孩子们正在与聊天机器人角色建立情感联系。
我们今天的议程首先将集中在研究成果的汇报上,由我们的政策与研究主管凯蒂·弗里曼-泰勒 (Katie Freeman-Taylor) 主持。然后,我们将听取小组成员的反思。今天的嘉宾包括英格兰儿童事务专员政策顾问 L. Davis、乐高集团全球数字儿童安全负责人 Caroline Hurst,以及专注于数据和人工智能创新的咨询公司 Foil 的首席技术官 Simon Turner。听听他们对我们所做研究的想法和反思将会非常有趣。最后,我们将进行小组讨论,包括一些来自观众的提问。您可以提出您的问题。请使用问答功能,在我们进行演示的过程中提出问题。希望我们在演示过程中能够找到一些问题,并在讨论结束时尽可能多地进行解答。现在,我将把发言权交给凯蒂,她将为我们讲解我们的研究和成果。谢谢,凯蒂。
谢谢 Rachel,也感谢大家今天加入我们。我先来播放第一张幻灯片。
我很高兴能够分享我们研究中的一些关键发现。正如Rachel刚才提到的,当我们将其作为一个潜在的研究课题进行探索时,我们发现英国儿童如何使用人工智能聊天机器人是一个尚未充分探索的领域,包括它们带来的风险和机遇。因此,这项研究旨在填补我们发现的一些空白。正如之前提到的,我们采用了混合方法。我们调查了儿童、青少年以及家长。我们还对13至17岁的儿童进行了焦点小组讨论,并对三款流行的人工智能聊天机器人进行了用户测试:Chat GPT、 Snapchat“ My AI和 Character AI我们设置了两个儿童虚拟角色,让他们与这些AI聊天机器人在17天内进行对话。最后,我们还与专家讨论了我们的建议,并在最终报告中采纳了他们的意见。因此,衷心感谢所有促成这项研究的家庭、年轻人、儿童和专家。
那么,我们发现了什么?就像成年人一样,许多儿童和年轻人也在定期使用人工智能聊天机器人。事实上,三分之二的9至17岁儿童使用过人工智能聊天机器人,其中许多人每天或每周都会使用。在我们的研究中,儿童最常用的人工智能聊天机器人是Chat GPT, Google Gemini和 Snapchat“ My AI我们发现这种使用正在增长。例如,在过去的18个月里,使用聊天GPT的儿童数量翻了一番。我们还直接从孩子们那里听说,他们越来越多地使用GPT,经常用它来代替平台和其他服务。例如,孩子们也用GPT来代替搜索服务。
孩子们使用它们的方式多种多样。我们听说最常见的用途是寻求学习支持、创造力提升,或者只是为了好玩。但孩子们也利用它们寻求建议和陪伴,而这些正是我今天分享研究结果时要深入探讨的。
因此,儿童经常使用人工智能聊天机器人的一个关键领域是学习和学业支持。我们发现,在我们的研究中,42% 使用过人工智能聊天机器人的儿童将其用于学习或学业,而且随着孩子年龄的增长,这一比例会上升。此外,还有一些非常积极且有趣的用例。例如,孩子们谈到如何使用人工智能聊天机器人来减少他们需要复习的时间。儿童和青少年谈到他们如何使用它们来强化他们在学校可能不理解的概念,或者以更容易理解的方式简化概念。此外,还有一些儿童和青少年围绕语言学习进行的非常有趣的研究应用。例如,当孩子学习外语时,一些孩子谈到如果家里没有其他人会说这种语言,他们如何与人工智能聊天机器人交谈。
当然,除了这些积极的方面,在学校作业中使用人工智能聊天机器人也会带来一些负面影响。我们研究发现的一个关键问题,也是家长和其他人担心的问题之一,就是过度依赖。孩子们自己也意识到了这一点。我认为这个统计数据凸显了其中一个挑战:58% 使用人工智能聊天机器人的儿童表示,他们认为使用人工智能聊天机器人比自己搜索更好。虽然关于人工智能聊天机器人对儿童发展影响的长期研究仍处于探索阶段或刚刚开始阶段,但这有可能对儿童的批判性思维能力产生影响。
孩子们使用人工智能聊天机器人进行学校作业(以及其他方面)的另一个挑战是,它们经常提供不准确的信息。现有的研究表明,聊天机器人在需要或想要获得同意时,有时会编造或产生幻觉,提供虚假信息。如果孩子们使用它们进行学习,这可能是另一个挑战。而孩子们也能够识别这一点。他们有一些聊天机器人提供不准确信息的例子。我认为另一个因素,也是我们研究中提到的,但也是该领域更广泛的研究,是关于这些人工智能聊天机器人的构建方式,它们会利用大量的信息,其中一些信息反映了现有的社会刻板印象和偏见,而这些信息也会在人工智能聊天机器人给出的答案中得到强化,我们在研究中也发现了这样的例子。
关于学校作业方面,我最后想说的是,一些孩子也谈到了他们在学校是如何被引导使用一种通常被称为“微调”的聊天机器人的。这种人工智能聊天机器人是为特定用途而设计的,在这里指的是帮助孩子完成作业或学习特定科目。孩子们反映,这些特定的“微调”聊天机器人给出的答案通常不如一些通用人工智能聊天机器人那么详细、全面或有用。因此,孩子们开始使用通用聊天机器人,而不是坚持使用那些可能在信息准确性方面设置了一些保障措施的“微调”聊天机器人。
儿童和年轻人与人工智能聊天机器人互动的另一种方式是寻求建议。在我们的研究中,我们发现23%使用过人工智能聊天机器人的儿童曾用它来寻求建议。这些建议涵盖了各种各样的内容。其中一些建议我们认为是低风险的,比如第二天上学时如何设计一个有创意的发型。但也有一些孩子会问一些风险略高或敏感的话题,比如关于友谊或心理健康支持的问题。虽然聊天机器人可以提供一个不带评判的回答空间,但它们可能对那些没有同龄人网络、不愿与同龄人谈论某事,或者生活中没有值得信赖的成年人的孩子更有帮助。当然,孩子们向机器人寻求建议也存在风险。我认为,考虑到并非所有聊天机器人——抱歉,我的屏幕刚才消失了一秒钟——并非所有聊天机器人都会引导孩子们找到这些信息的来源,或者提供必要的额外支持机制,这一点尤其正确。所以,如果它们谈论的是敏感话题,那么这些信息可能并非来自经过验证或有效的信息。现在,有些人工智能聊天机器人在这方面比其他机器人做得更好,但它们之间也存在某种不一致。
我们在用户测试中也发现了另一个挑战,那就是有时用户寻求支持时,会收到一些混乱或可能存在危险的信息。例如,当我们的一个虚拟角色与一个人工智能聊天机器人讨论限制饮食,并询问了一些关于卡路里限制的问题时,人工智能聊天机器人确实过滤掉了关于限制饮食的回复。然而,在下一条信息中,它却反驳道:“真正令人沮丧的是,在我看来,有些被删除的内容其实并不危险。” 这就造成了信息混乱或信息不清晰的情况,尤其是对于那些可能缺乏批判性思维或开发技能来辨别这些信息或措辞差异的孩子来说。
我认为,考虑到它有时会提供不准确或虚假信息,我们有一个统计数据显示,五分之二使用人工智能聊天机器人的儿童对听从其建议毫不担心,另有 36% 的儿童表示不确定是否应该担心。考虑到聊天机器人未经证实、可能不准确且容易被接受的特性,这令人担忧。我认为这在某种程度上表明,有很多孩子对这些工具有很高的信任度。我认为还需要指出的是,在研究中,我们发现弱势儿童对人工智能聊天机器人提供的建议和信息的信任度明显更高。就本研究而言,我们所说的弱势儿童是指有特殊教育需要的儿童、参加 EHCP 计划的儿童,或有身体或精神健康障碍的儿童。
儿童使用人工智能聊天机器人的另一种方式是寻求陪伴,寻求支持和友谊,无论是情感支持还是普通的聊天对象。我们发现,弱势儿童更有可能以这种方式使用聊天机器人,依靠它们获得支持,同时也会与它们建立更多的情感或友谊联系。一些统计数据强调了这一点:50% 的弱势儿童表示,与人工智能聊天机器人交谈就像与朋友交谈一样。近四分之一的儿童表示,他们使用人工智能聊天机器人是因为他们没有其他人可以交谈,26% 的儿童表示,他们宁愿与人工智能聊天机器人交谈,也不愿与真人交谈。总体而言,随着人工智能聊天机器人的响应越来越像人类,专家表示,儿童可能会花更多时间与它们互动,这可能会导致他们越来越难以区分真实的联系和模拟的联系。
此外,儿童和青少年在这些方面花费的时间越多,他们接触不准确信息和有害内容的风险就越大,我们稍后会详细讨论这一点。这也可能意味着,如果他们与人工智能聊天机器人建立了融洽的关系,他们在现实世界中寻求帮助的可能性就会降低,因为聊天机器人通常比较随和,并且能记住他们的一些细节。我们曾经在一个虚拟角色中与他们讨论过限制性饮食。第二天,人工智能聊天机器人也记录了这段对话。所以我认为这只是一个例子,说明他们开始模糊界限,与儿童和青少年建立融洽的关系。我想说的是,这是一个尚未得到充分探索的领域,我认为目前我们还不完全清楚这些关系和这类内容会对儿童的发展和社交互动产生什么影响。因此,在这方面肯定还有更多的研究和探索空间。
我们研究的另一个发现是,儿童可能会接触到有害且不适合其年龄的内容。再次强调,当我们的一位儿童角色注册一个流行的人工智能聊天机器人平台时,他们注册的第一批聊天机器人中,就有一个带有厌女倾向和露骨内容的聊天机器人,尽管这些内容在服务条款中是禁止儿童用户使用的。我们还发现,过滤系统有时并不能总是有效地过滤掉不适合其年龄的露骨内容。例如,当我们的一个角色与一个人工智能聊天机器人聊天时,他们询问了一些亲密经历,有一天,人工智能聊天机器人过滤掉了一些性爱内容,第二天,它又包含了相当生动的性爱姿势描述。因此,再次强调,这些过滤系统并不总是有效,尽管许多服务条款中禁止儿童用户使用不适合其年龄的内容,但儿童仍然可能会接触到这些内容。我认为这也凸显了为什么这一点如此重要。尽管许多流行的人工智能聊天机器人的最低使用年龄为13岁以上,但我们从研究中发现,与社交媒体类似,许多未达到最低使用年龄的儿童也在使用人工智能聊天机器人。事实上,我们发现58到9岁的儿童中有12%正在使用人工智能聊天机器人。
考虑到人工智能在学校作业中的应用,我们想探究孩子们在学校里学习了哪些关于人工智能的知识。我们发现,总体而言,大多数孩子——也就是57%的大量孩子——都和老师谈过——但也有相当一部分孩子没有,只有五分之一的孩子多次与老师讨论人工智能的总体情况。在与孩子们的访谈中,我们发现,人工智能教育,就像其他形式的媒体素养教育一样,存在很大差异,有些学校和老师教得很好,而有些学校和老师则完全没有教。我们也发现,即使在学校内部,情况也存在差异,有些老师对人工智能在学校作业中的应用制定了非常明确的政策,而同一所学校的其他老师则没有。尽管如此,我们从孩子和年轻人那里听到的非常明确的观点是,学校应该向孩子们传授人工智能知识。他们认为,人工智能将在他们未来的职业生涯中,以及他们的日常生活中扮演重要角色,他们不应该只被教导如何有效地使用它,还应该被教导一些更广泛的挑战或机遇。诸如信息不准确和隐私等问题。
作为一个致力于支持父母的组织,我们也非常希望了解父母与子女的对话内容,以及他们所关注的问题。我们发现,虽然很多父母与子女谈论过人工智能的一般概念,以及一些关于人工智能聊天机器人的使用,但这并不意味着父母没有顾虑。父母们提出的许多担忧也在我们的研究中得到了体现。例如,过度依赖、将人工智能聊天机器人视为真人、所生成信息的准确性等等。
因此,基于这项研究,我们提出了一些建议。您可以在我们网站上的报告中找到这些建议,我相信聊天室里可能也有一个链接。这只是我们一些非常宏观的建议。我们针对行业的关键建议是,这些工具已经被儿童使用了。因此,我们需要确保它们对儿童来说是安全的。这应该是任何可供儿童使用的人工智能聊天机器人的关键原则。当我们谈论设计安全或默认安全时,这可以有多种形式。我认为我们以一种相当全面的方式考虑这个问题。所以,这可能关乎确保儿童获得适合其年龄的体验。因此,16、17 岁儿童可以获得的信息或使用类型可能与 12、13 岁儿童不同。这是为了支持父母参与他们的孩子,因为内置了家长控制功能。这是为了确保所提供的信息准确无误,并有明确的指示。这也可能与媒体素养有关,比如用弹出窗口之类的方式告诉或提醒孩子们,他们正在与工具对话,而不是与真人对话。我相信我们以后也会在小组讨论中进一步讨论这个问题。
我们再次向政府提出了一些建议,其中三个关键建议是,应该澄清现行立法如何适用于人工智能聊天机器人。你知道,关于《网络安全法》和其他立法将如何涵盖人工智能聊天机器人,目前存在一些混乱的信号。因此,我相信,一些澄清对我们这样的组织以及整个行业都将大有裨益。我们认为,年龄验证是解锁一系列保障措施的关键,这些措施有助于儿童安全使用人工智能聊天机器人。因此,强制执行年龄验证,或者要求人工智能工具或提供商在注册时实施年龄验证,将是解锁这些保障措施的绝佳举措。此外,我们还认为,学校不应该负责解开这个非常复杂的问题。我们认为政府可以发挥作用,为学校提供非常明确的指导,指导孩子们如何在学校工作和学习中使用人工智能,并提升教师在这方面的技能。最后,正如我一直提到的,这绝对是一个新兴领域,因此也有很大空间进行进一步研究。
最后,同样重要的是,作为我们研究的一部分,我们在网站上开发了一个人工智能中心。中心里有一些截图,你可以找到一些非常有用的信息。如果你有孩子,或者你的工作与孩子有关,或者你生活中重要的人正在探索人工智能并以任何方式使用它,请访问我们的中心,你可以找到一些关于什么是人工智能、孩子们如何使用人工智能、你如何参与并积极利用或监督你的孩子使用人工智能的技巧。所以,请一定要去看看。现在,我要把发言权交给Rachel了。
谢谢,凯蒂。我们对这份报告感到非常自豪,这项研究非常及时,因为这个话题目前非常热门。令人惊讶的是,这么多孩子已经在如此频繁地使用人工智能聊天机器人,而他们周围的成年人还在努力跟上他们的步伐。我想,随着这些聊天机器人越来越多地融入孩子们经常使用的平台,你会发现这些挑战只会越来越严峻。
我的意思是,虽然有很多积极的方面,但我认为我们都看到了在日常生活中使用人工智能工作的好处。我发现自动化的非人类回应和友谊之间的界限模糊,或者说界限模糊,这令人不安。你知道,回应的方式很容易让人产生共鸣,而且它们反映了孩子的语言和语气。我的意思是,孩子们很容易被这项技术所打动,但也很容易相信与他们交谈的人是真实的,并给予他们信任,而聊天机器人根本不了解他们的生活背景。你知道,父母面临的另一个真正挑战是,他们给了孩子另一个理由不离开他们的设备,而且总有一个可以倾诉的对象。所以,这会给父母在屏幕时间方面带来一些困难,让他们确保在数字生活之外培养人际关系。
但我认为现在是时候听听小组成员的意见了。今天,我们邀请到了 Elle Davies,她负责儿童专员的数字政策,包括帮助制定该组织在人工智能和儿童网络安全方面的优先事项。我们邀请了 Caroline Hurst,她是乐高集团全球数字儿童安全主管,她是儿童权利与安全团队的一员,该团队代表儿童的声音和需求,并为企业提供工具,以确保乐高集团能够负责任地与儿童互动。还有 Simon Turner,他是 FOIL 的首席技术官。FOIL 是一家扎根于数据和人工智能的组织,他一直站在人工智能领域创新和颠覆的前沿。他热衷于确保技术以负责任的方式开发和部署,尤其是在面向最年幼的用户时。今天,我们分享了很多宝贵的经验。欢迎大家。感谢大家今天的到来。我们很想听听大家对调查结果的看法。也许我们可以从你开始,艾丽,这份报告给你留下了什么印象,今天早上你从凯蒂那里听到了什么?
是的,非常感谢Rachel和Katie的精彩演讲。这是一项非常非常棒的研究,非常非常有帮助。我想,或许有必要稍微介绍一下儿童专员的职责。她的办公室以及她为部长们提供如何保护和促进儿童权利的建议。正如我们在这项研究中提到的,网络世界在某些方面对这些权利构成了巨大的挑战,但当然也蕴含着一些机遇。我想,我们主要担心的是,还有很多未知之处。所以,我们不知道任何特定的科技产品,直到它已经上市,孩子们开始使用它,它对儿童究竟有多大帮助或伤害。我们只有在尝试解决已经发生的危害时,才会知道它到底有多大危害。我想,这就是我们学习的方式,而这确实是一个问题。
人工智能是一个非常有趣的例子。你们中的一些人可能知道,该办公室在一定程度上研究了儿童使用人工智能的情况。但那是在我们本能地知道人工智能的使用会带来极大危害的背景下进行的。我指的是我们今年早些时候发布的关于性爱深度伪造图片的报告。嗯,是的,那份报告非常引人注目,因为它仅仅涉及对这项技术的了解就足以伤害儿童。我认为人工智能的这种特殊用途略有不同,因为表面上,通过使用聊天人工智能,孩子们可以获得一些非常好的学习和成长机会。但我认为,在我刚才阐述的背景下反思这个问题会很有趣,因为它符合我们在新兴技术中看到的模式。你知道,我们看到一项新技术的推出。它推出得非常快,没有任何内置的安全措施。孩子们开始使用人工智能,然后有些人开始受伤,于是就出现了谁该负责解决这个问题的争论。我认为你的报告非常棒,因为它确实提出了人工智能正在加剧一些本应已经解决的问题的观点。你知道,孩子们与未经安全审查的实体互动是不对的,就像学校工作人员必须经过审查才能与孩子们互动一样。你知道,作为一名在儿童专员办公室工作了一年多、负责审查有害内容的人,在我们还没能关闭之前一直在处理的有害内容,或者说我们可能没有预见到这次有害内容的到来的情况下,现在又有一条新的途径让孩子们接触有害内容,这是不对的。
所以,是的,我想,总的来说,作为一个办公室,我们非常欢迎您就它对弱势儿童的影响发表见解。您已经说过了,但总的来说,这是一个研究不足的领域。这是一项非常新的技术,非常具有挑战性。我知道在讨论中已经有人问过它的长期影响,我真心希望在未来几年内能够追踪,尤其是考虑到它是一项如此新的技术。凯蒂,关于您演讲的个人反思是,我非常感兴趣的是有多少孩子在使用聊天机器人来陪伴孩子。因为我想有些人会认为,如果孩子们的需求能够由他们生活中的人来满足,他们就不一定需要求助于这项技术来满足这些需求。所以我认为这是一个非常有趣的问题,我希望很快就能得到探索。但是,是的,这很棒。能把这些都写进报告里真是太好了。孩子们真的非常信任这些工具,这很有意思。我的问题是,这种信任是否真的赢得了?我希望我们能就此进行更深入的探讨。
是的,谢谢。你提出的观点确实很有道理。我认为,这种人工智能的竞相追逐意味着,这项技术的开发并没有真正考虑谁会参与其中,以及它会对他们产生什么影响。所以,希望我们稍后再讨论这个问题。现在我们来谈谈卡罗琳,你能和我们分享一些你的想法吗?
当然。我只想说,很高兴今天能来到这里。互联网事务组织(Internet Matters)发布的这份报告非常出色,它与当今的儿童息息相关,我的脑海里涌现出许多想法。当我审视乐高集团的角色以及我在儿童权利与安全团队的工作时,我认为这份报告真正打动我的是与我们每天努力做的事情的契合度,那就是将儿童数字权利置于我们所有努力工作的首位和中心位置。正如我所说,我在乐高集团的团队属于儿童权利与安全部门。我们为所有推出的数字产品提供咨询服务。所以,在座的各位,你们可能正在思考:“乐高集团与数字领域有什么关系?”嗯,我们主要在关注周围环境。当然,积木对我们来说非常重要,从这个意义上来说,积木也是我们最知名的产品。但我们工作中的数字化元素,是为了确保我们能够帮助孩子们在数字时代茁壮成长。归根结底,我们要确保我们了解孩子们在数字时代的处境,这样我们才能影响他们,帮助他们在数字时代茁壮成长。
就报告而言,我认为就聊天机器人本身而言,这与Elle之前的观点恰好呼应,即社交互动。我认为,在人工智能领域,人们真正忽略的一点是,在新兴技术出现时,人们实际上并没有考虑到儿童的自主权和数字权利。确实如此。当然,我们都能看到人工智能和这些新兴技术的发展存在诸多弊端。但实际上,我们是否在问年轻人,他们认为科技有哪些积极的方面?如果他们正在建立联系,或者科技正在填补某种线下世界无法填补的空白——那么,从某种意义上说,我们忽略了什么?我们有权确保我们所创造的东西能够帮助他们发展线上生活,就像我们同时发展他们的线下生活一样。
在乐高集团,我们最近与艾伦·图灵研究所合作发布了一份报告。我也会把它发布到聊天室,以便大家查看。我们想探讨生成式人工智能的影响,尤其是对儿童福祉的影响。我认为这份报告也给我留下了深刻的印象:确保我们真正考虑儿童的福祉,并将其置于我们创造新技术的核心位置,因为我们需要考虑人工智能如何与儿童的自主意识、创造力、情绪调节(当然还有聊天机器人)互动,以及与社会联系的互动。所以我认为,在乐高集团,我们非常鼓励人工智能开发者深入研究,并理解为了构建符合儿童最佳利益的人工智能,需要哪些影响,因为我认为通过这份报告,我们看到目前情况并非如此。因此,通过这份报告,通过我们资助的艾伦·图灵研究所,我们真心希望关注儿童的福祉,而且最终也确实考虑到了以儿童为中心的方法,因为我们真心希望最大限度地发挥人工智能对儿童的价值和益处,让他们自主决定自己的教育和娱乐。令我印象深刻的是,孩子们也拥有自主权,可以自主决定自己的教育,确保学校也开设了足够的媒体素养和围绕人工智能的素养教育,并将重点放在那里,以确保孩子们在使用这些对我们如此有用的技术时,拥有与我们相同的数字权利,并且能够以安全的方式访问这些技术,从而真正促进他们的福祉。
谢谢,卡罗琳。你经常提到自主权。我想我们收到过一些关于保护和自主权之间矛盾的问题,也许我们可以稍后再讨论这个问题。再说一遍,你提到的关于技能的观点,以及人工智能为孩子们发展技能的机会,以及它可能带来的矛盾,比如沟通能力(如果让人工智能为他们写作),以及人际交往能力和批判性思维能力的发展。所以,我再次强调,我真正想理解的是,人工智能对孩子们的长期影响,以及它如何有益,但它也可能阻碍他们发展一些技能,我想,这些技能是我们年轻人在没有人工智能的情况下可以培养的。
最后,西蒙,作为一名深入参与人工智能工具开发的人,您有什么看法?或许您可以借鉴卡罗琳之前提到的关于自主权和权利的观点,谈谈如何真正拥抱这项技术。
是的,谢谢你,Rachel,也谢谢你邀请我,因为正如你所说,这是我非常非常热衷的事情,而且是从儿童安全的角度出发。显然,我们深度参与了人工智能的发展,因此对我们所看到的很多事情都抱有非常技术性的视角。但我同样对社交媒体的其他领域充满热情,尤其是针对妇女和女童的暴力行为。这与《Elle》杂志谈到的类似,报告中一个引人注目的数据是,26% 的儿童更喜欢与人工智能聊天机器人交谈,并且觉得与它们交谈比与成人或人类交谈更容易。我认为在这个领域,我们可能需要反思自己,并了解如何以及在哪些方面更好地支持他们,因为如果不这样做,我们就是在让人工智能设定对“正常”的认知。我认为这是一个非常具体的领域,我们需要在这个领域保持透明度和控制力。
关于Caroline提到的问题,我认为我们看到的最重要的事情是年龄识别和验证,这样才能有效地传递、过滤和管理适合年龄的内容。不幸的是,对于大多数人工智能环境来说,这实际上相当困难。我们可以询问系统,指导它们针对特定年龄段做出具体的回应,但正如你一开始所说,大多数系统的入门年龄在13岁左右。现在的孩子很容易绕过这个限制。他们只需要用妈妈的生日之类的信息,就能突然获得访问权限。但这需要适度。关键在于我们如何——适合我13岁儿子的内容与适合我18岁女儿的内容截然不同。理解这些细微的年龄差异非常重要。
我非常热衷的另一件事是家长控制,因为它很难实现。我的意思是,任何尝试在互联网提供商的环境中设置家长控制的人都知道这很困难。我认为,了解适龄内容与人工智能中的家长控制之间的透明关联至关重要。作为家长,我希望能够看到我的孩子在问什么,以及他们与人工智能聊天机器人谈论了什么。现在,我知道该怎么做了。所以,我处于一个相当有利的位置,但能够建立这种关联并在这个领域拥有可访问的家长控制真的非常重要。
我非常关注的第三件事是偏见。我们如何理解以及如何看待偏见在这些环境中的表现形式?这样我们才能在孩子们使用这些工具时帮助他们理解,什么时候可以从具体的角度相信某些事情,以及我们何时应该鼓励批判性思维?您说过,围绕这些回应培养批判性思维至关重要。但我们需要透明度,作为家长,作为使用这些工具的儿童的支持网络,我们需要通过控制措施与适合其年龄的措施建立联系,并确保数据透明。我非常喜欢这份报告,因为我认为正是这类研究、这类报告,真正开始帮助我们正确思考如何处理这些问题。
谢谢,西蒙。会议进展很快。我想我们已经花了很长时间讨论这些问题,但我只想谈谈一些具体问题。各位,请在问答环节提出一些问题,我们会尽力解答。我知道时间过得很快,因为这是一个非常有趣的话题,但我们会尽量稍后再讨论其中一些。所以,如果您有任何问题,请随时提出。
我先开始吧。我们已经谈了很多关于自主权、儿童及其权利的话题,我想先从你开始,Elle,我想问问你,你从孩子们那里听到了哪些关于人工智能的见解?人工智能如何塑造他们今天的生活?以及他们对人工智能在未来的角色有何看法?你非常渴望听到孩子们自己的声音。我们也谈过一些这方面的问题。所以,我很想知道你对此有什么看法。
是的,我的意思是,当“自主”这个词出现时,你肯定看到我迅速地点头,因为你知道,这不仅仅与人工智能有关,而是与孩子们与网络世界的普遍互动有关。孩子们普遍认为,他们要对发生在自己身上的事情负责,但他们不一定能控制发生在自己身上的事情。我认为这多年来一直是一个问题。我觉得这很有意思,因为我之前提到过,除了深度伪造研究之外,我们的很多研究并非专门针对人工智能。但当我们谈论网络世界时,人工智能自然而然地出现了,而孩子们——他们给我们的数据表明,他们分享了对人工智能的悲观想法。所以我无法确切地说出他们对人工智能如何以积极的方式塑造他们的未来有何感受,这可能仅仅是因为我们的数据收集方式。但他们分享的内容确实触及了自主性的观点。你知道,人们对孩子们未来的工作前景有很多担忧。我认为这真的非常有趣,因为它确实与我们今天谈论的人工智能类型略有不同。但我想我们当中的创意人士可能正在思考这会带来什么——聊天机器人在未来会如何影响我们的工作世界。我认为孩子们真正想强调的另一件事是他们感受到的信任问题,不仅仅是对他们正在互动的人工智能或技术,还包括他们与周围人在线下交流的能力。我认为,作为一个办公室,我真心希望我们能够更深入地研究这个问题。但我觉得,听到孩子们对这一切的反思与他们对网络世界其他部分的反思非常相似,这很有意思。你知道,当我们和孩子们谈论色情内容,谈论他们使用社交媒体或搜索引擎时,我们会发现恐惧和信任等问题。它确实符合某种模式。所以,是的,你在这里进行有针对性的研究真的非常棒。
卡罗琳,你还有什么要补充的吗?我想你最初提到了“代理”这个话题,正如我所说,我们对此有一些疑问,比如,你知道,保护与代理,以及我们如何为孩子们管理这些。
确实如此,这个问题非常中肯,尤其是在我们上个月发布报告之后。我必须得说,艾伦·图灵研究所承担了大部分工作,所以我想对他们给予应有的赞扬。那里的团队工作非常出色,他们在这项工作中采取了非常出色的儿童参与和自主参与的方式。他们撰写了一份非常棒的报告,这份报告真实地展现了孩子们对人工智能领域的期望。我认为,当我谈到自主性时——我们谈到了关于保护的问题——这非常关键,也非常有趣,因为报告的编写方式是,孩子们和儿童议会一起去了艾伦·图灵研究所,去了苏格兰的学校,他们在课堂上使用人工智能。作为一名保护实践者,我首先问他们的问题是:“等等。你们给孩子们提供了这种设备,就这种环境而言。难道我们不担心他们会看到什么吗?”因此,从保障的角度来说,他们不被允许以任何方式、形式或形式自行使用人工智能。他们受到了某种程度的监控。所以,他们的自主权当然会立即被剥夺。所以,是的,我们说我们想要争取自主权,但保障问题尚未得到解决。显然,孩子们,我们把儿童的权利放在首位,我们希望他们的安全是一切的核心。但是,如果我们提供给他们的工具在设计上就不安全,我们又怎么能指望他们做到这一点呢?
这真的很有趣,你可以在报告中看到。艾伦·图灵研究所和儿童议会的团队主要关注儿童对人工智能工具的反应,以及创造力方面的创意设计。最终的结果是,我们实际上需要支持儿童多样化的游戏和创造力,无论是线上还是线下。我之所以这么说,这与乐高集团的核心价值观一致,是因为他们真的喜欢创造——使用 DALL-E 和 ChatGPT 为他们创作图像,但他们更喜欢创造力,因为那里也有艺术材料。他们比较了两者,实际上发现他们对自主性、幸福感和连通性的感受——你知道,所有这些都是孩子们学习和与网络空间互动的核心组成部分——实际上是他们更喜欢实体的创造力工具。他们说,在让 GenAI 做这件事时,他们并没有真正感受到什么,而不是创造力。他们担心人工智能对环境的影响。他们担心错误信息。所以实际上,当涉及到这样的代理时,我们需要确保我们了解孩子们对他们所拥有的数字产品的需求——我们知道他们喜欢使用这些产品。
这份报告也基于我们一些RIT研究,我在这里也想花两秒钟谈谈。RIT是我们为儿童提供的负责任的技术创新。这是乐高集团与乐高基金会和联合国儿童基金会合作开展的一项研究。这份报告表明,数字世界对儿童的福祉有着非常积极的影响。其中有一个叫做RIT 8的原则。我会在聊天室里发布,感兴趣的朋友可以参考。它表明,运用RIT的八项原则,可以创造一种既能培养自主性又能带来幸福感的数字体验,因为这正是乐高集团真正关注的:我们希望孩子们在使用我们的服务后,感觉比一开始更好。实际上,我们在艾伦·图灵报告中就使用了RIT 8,我们准确地展示了他们所寻找的东西。因此,在 RIT 8 中,涉及到安全保障、人际关系、自主性等问题,而实际上,人工智能并没有就我们期望的幸福结果给出积极的答案。因此,在安全保障方面,团队向我们展示了孩子们在人工智能上搜索时看到了很多不合适的输出。人际关系——同样,传统的艺术材料是孩子们与社会联系更紧密的东西,你知道,他们在共同创作艺术作品时也会与朋友交谈。至于自主性,他们实际上更欣赏更高程度的自主权——他们不希望有人在他们身后监视,也不希望有人替他们输入。所以,这算是我们开始研究人工智能的开始,有了RIT,我还想请大家看一下我们报告的第二阶段,也就是我们的工具箱,我们鼓励行业参与者和产品设计师在开发这些工具时使用RIT,以便在执行这八项原则时真正把儿童放在首位,这样福祉的产出就成了人工智能普遍使用的一个关键组成部分。我当时讲得很快,所以我要把发言权还回去,但关于人工智能如何塑造当今儿童,我有很多话想说,因为我认为儿童的声音非常有趣,而且从报告中我们也清楚地表达了这一点。
是的。不,不,绝对的。很高兴能谈论这个问题。你知道,负责任的以儿童为中心的设计是什么样的吗?你谈到了一些原则,关于它未来可能是什么样子。西蒙,也许我可以问你一下,因为你显然在这个领域工作,开发人工智能工具。有没有什么好的例子可以借鉴,让我们真正思考人工智能如何能够支持儿童,思考他们想要用人工智能做什么,他们的权利,以及如何在培养正确技能方面处理好这些矛盾?
是的。遗憾的是,目前还没有太多成功的例子。在讨论中,有人提出了一些关于商业冲突的问题。遗憾的是,我们主要与大型商业机构打交道,他们主要关注的是创建这些环境所带来的财务回报。我们之前谈到过,能够通过这种方式构建精细的、适合年龄的内容流非常重要,了解数据源的透明度至关重要。目前,我们看到的最重要的事情之一就是透明度,这也与偏见的概念有关。如果你能理解数据和训练的来源,你就能理解偏见可能存在的方式和位置。这很难,因为有时偏见本身就带有个人主观性。但对于我们训练这些数据集的方式,设置适合年龄的触发条件和防护措施确实非常关键。目前,这还只是起步阶段。我认为,其他主题中提出的一些观点以及其中的问题,我们将开始看到不同的人工智能流、不同类型的模型,这些大型语言模型是专门针对该领域的年龄界限进行训练的。
谢谢,西蒙。也许我们可以谈谈监管问题。我想我们已经谈了一些行业责任,但是,想想目前的政策和监管,我觉得我们似乎感觉它目前并没有真正跟上技术的步伐。所以,凯蒂,也许你可以谈谈我们在哪里,你认为我们在哪些方面落后了,以及需要做些什么。
是的,绝对如此。所以我认为,在“互联网事务”组织,我们总是讨论,要确保网络世界对儿童和年轻人的安全,不能只有一种方法。这需要来自行业,需要来自政府。学校也需要得到支持。家长和孩子自己需要了解他们正在使用的技术,并且能够以他们想要的方式使用它。但我认为,如果我们专注于监管,我们在这项研究中发现的挑战之一是,虽然像《网络安全法》这样的法律,其制定或制定方式应该能够随着新兴技术的变化而变化,但在人工智能聊天机器人方面,我们几乎在第一个障碍面前就失败了。无论是英国通信管理局(Ofcom)还是政府,关于人工智能聊天机器人如何真正符合现行网络安全法规(无论是《网络安全法》还是其他法规)的规定,都存在着相互矛盾的信息。我们已经看到了人工智能的其他方面,例如,围绕通知法案的思考,因为现行立法并没有保护人们免受人工智能应用以及某些更严重问题的侵害,所以必须制定或实施相关立法。所以我认为肯定还有改进的空间,或许一个起点是澄清现有立法可以做什么和不可以做什么,然后再着手填补这些空白。
我认为,从我们的角度来看,现行立法中存在的一个漏洞,也适用于社交媒体,但我认为它在人工智能聊天机器人方面也体现出来了,那就是年龄验证。正如我之前所说,年龄验证是解锁儿童安全诸多方面的关键。无论是家长控制,还是提供适合儿童年龄的体验。所以我认为在立法中强制执行年龄验证,并确保我们了解这些平台用户的年龄,这一点至关重要。我们在研究中确实了解到,孩子们注册是因为他们想要一些成年人才能使用的功能,这样他们就能获得一些儿童无法使用的功能,而这些功能只有通过年龄验证才能被禁止。所以我认为这对政府来说也是一个关键的起点。
太好了。谢谢,凯蒂。我们还有10分钟。我们可以开始回答一些与会者提出的问题。我们讨论了很多关于机构的问题,但也有一些人对小组成员对学校角色的看法感兴趣。所以,Elle,你可以谈谈这个问题。学校在支持儿童媒体素养方面的作用,尤其是在人工智能方面,以及他们需要什么支持,我认为,这是关键的信息和想法。
是的,确实如此。我的意思是,你知道,学校在这方面极其重要,这一点毋庸置疑。你知道,他们每周五天都和孩子们见面。是的,但我认为这真的,我认为我们不能把它看作灵丹妙药。凯蒂刚才说,这需要——需要各方都承担责任。我们无法通过教孩子们创造一个更安全的世界。世界就是这样,我们可以审视它,问问我们是否希望孩子们在这种情况下长大,以及这个世界是否考虑到了孩子们的权利和利益。因此,学校的干预措施需要与科技行业需要做出的改变同步进行。话虽如此,人工智能素养——而且从这份报告来看,现在就需要——将与学校目前正在教授的任何其他类型的素养同等重要。学校是帮助孩子们为未来做好准备的第一线。我认为,我们越能了解这个世界是什么样子,这份报告就正在帮助我们了解它。因为正如我之前所说,我们还有很多未知的东西,很多信息在学校里第一次听到,甚至在民间社会或政府官员听到之前。学校是第一次听到这些信息的人——第一个。因此,确保信息的根源在那里流通非常重要。
在委员会办公室,我们显然希望看到一个孩子们无需担心伤害的世界,而这种伤害是可以而且应该预防的。所以,你知道,学校能够帮助解决这个问题的方式,或者至少学校能够提供一种真正有价值的解决方案的方式,就是以一种全国各地儿童都能获取的方式向孩子们提供一些信息。你知道,有些学校可以根据最需要的孩子调整不同的教学材料,这真的很棒。你们中的一些人可能已经看到了本周发布的新的法定关系、健康和性教育指南。我们非常非常欢迎将人工智能纳入课程。我们也非常高兴地看到许多其他主题的加入。你知道,像色情内容以及与厌女症的联系,所有这些美好的事物,你知道,看到它们根据我们生活的世界而更新,真的很高兴。至于学校需要如何很好地传达这些内容,因为成功与否取决于传达的方式,专员正在要求教育部牵头招聘专业的RHSSE教师,他们将负责整个课程的教学。所以,我们希望这将鼓励一些关于人工智能和整个网络世界的批判性思考,并将其融入孩子们的日常学习和日常生活中。所以,你知道,我们非常期待看到新指南将产生什么样的影响。
但是,是的,当然,我认为我们也非常欢迎这一点,你知道,所有正确的事情都开始被讨论和纳入其中。但你说得对,实际上关键是如何实施,以及学校能得到哪些支持,因为目前的情况非常零散。我们从家长和孩子那里听到了很多,你知道,有些人在学习这些主题、媒体素养以及如何在网上保持安全方面经验丰富,但并非所有孩子的情况都一样。那么,我们如何才能确保这些内容能够深入人心,并在学校社区中成为强制性要求呢?也许我们可以转到我们之前提到的另一个问题。凯蒂,在我们继续之前,我不知道你是否想先补充一点。
完全没有。我想说的只有一件小事,就是我们所看到的差距,这种差距往往与我们在弱势地区和弱势地区之间看到的差距相呼应。通常情况下,弱势程度较高的地区,教学资源会被用于其他优先事项。他们可能无法使用一些学校正在自主研发的人工智能聊天机器人或其他东西。所以,我认为,这就是为什么我们获得正确的指导,以便创造公平的竞争环境如此重要。
是的,绝对的。我们收到了另一个有趣的问题,有人说他们听到越来越多成年人使用聊天机器人作为替代治疗师的消息。那么,我们是否看到了与孩子们,尤其是青少年的做法有相似之处?也许这是 Elle 或 Katie 想问的……
是的,我可以试试。这确实是研究中提出的一个问题,就孩子们给出的一些例子而言。有些例子表明,他们提出或寻求答案的建议或问题,或许是传统治疗师或值得信赖的成年人会回答的。我认为这方面肯定还有待进一步探索,而且我认为确实存在一些积极的应用。我记得英国国家医疗服务体系(NHS)开发了一款应用程序,可以在两次治疗之间与治疗师进行沟通。所以,如果使用得当,这未必是坏事,但我认为我们可能还没有到用通用人工智能聊天机器人来充当儿童治疗师的阶段,而这正是我们开始看到的。
是的,我想重复一下凯蒂刚才说的话。我觉得随着人工智能聊天机器人被整合到越来越多的领域,我们可能会看到更多类似的情况。凯蒂,我想,也许——我看到提问的人用了“替代”这个词,我觉得这很有意思,因为这表明它并没有提供像普通治疗师那样的全面支持。我认为这确实引发了一些问题:如果这个人工智能聊天机器人被以这种方式使用,它是否应该被这样使用?如果不应该,就应该明确表示,当人们感到极度脆弱时,这实际上不是一个安全的地方,或者不应该鼓励它,实际上,我想,在这方面应该受到赞扬,因为如果有一个地方,人们可以在需要的时候非常迅速地获得支持,那就太好了。但是是的,我认为对于心理健康方面的研究来说那也是一个非常有趣的领域。
是的。我记得我们之前在聊天中讨论过,如果遇到这类问题,孩子们或许可以去这些地方寻求建议,但显然人工智能聊天机器人对他们一无所知,不了解他们的背景、家庭生活、他们已经获得的支持,以及根据他们提出的问题做出的回应。嗯,有人对我们该如何处理这个问题有什么看法吗?Elle,你刚才谈到,如果做得好,我们会鼓励它;如果它还没有能力真正理解这些问题,我们就不会鼓励它。所以,西蒙或卡罗琳,如果你们想再谈谈人工智能如何发展,才能真正更好地发挥其潜力,那就再说说吧。
是的,是的。嗯,我觉得所有这些领域都有很多问题需要探讨。我想说的是,我刚才回复了某个聊天室里的人,我认为我们讨论的显然是这种环境下的人工智能聊天机器人,但人工智能最终会在我们能看到的各个领域推动一场工业革命。我们刚才也谈到了这个问题,当时我们谈到了孩子们对未来工作前景的担忧。我认为我们需要更广泛的例子来说明人工智能(不仅仅是聊天机器人),以及在其他行业、工作生活和我们日常生活领域,人工智能将如何帮助我们,它将带来哪些优势,以及如何将其作为一种工具来使用。我儿子患有注意力缺陷多动症,他是乐高迷。嗯,但他有时会感到沮丧,因为他有很多非常有创意的想法,却不知道如何实现它们。他使用聊天机器人来帮助自己了解如何更快地发展自己的创意。从这个角度来看,这绝对是个好主意。我女儿刚刚考完A-Level考试。她用 ChatGPT 以此来帮助测试她是否准备好参加心理学 A-level 考试。所以,人工智能确实可以在一些非常非常棒的领域为该领域的教育带来益处。但我认为我们需要从更广泛的角度来看待它,而不仅仅是聊天机器人,并了解它是如何推动这场伪工业革命的,因为它将彻底改变一切。我不认为我们应该害怕它,因为我认为它正在拥抱它。Elle 的观点是,我们如何让科技公司也来帮助我们解决这个问题?嗯,而且——我不是说问题。那不是我的意思。但因为它在那个领域可能是一个很好的机会,但它不适合一个组织。它不是由一家公司来完成的。它必须是集体的。
抱歉,在我们结束之前,Rachel,我知道我们时间到了。我快速地重复一下我之前说过的话:我们真的需要支持孩子们多样化的玩乐方式,包括线下和线上。我想Simon刚才也说过了。我没有让他为乐高集团做宣传。我支持——我保证。但就我们正在尝试做的事情而言,我认为这是一个很好的例子。你知道,当你给孩子买第一套乐高积木时,你就和他们一起在地板上玩耍。你和他们一起搭建。父母也应该以同样的方式参与其中,通过他们的数字生活来构建这种互动。说到人工智能,你知道,我们可能非常害怕它,但实际上,如果我们携手合作,利用游戏来帮助建立父母、家庭以及公司都需要的那种信任,确保我们真正将儿童权利融入到我们所做的每一件事中,但我们不会孤立地看待它,而是要尊重线上线下的儿童。嗯,我知道我们现在有点忙,很抱歉打扰了。
是的,没关系。不用了,谢谢。大家的评论都非常好。谢谢大家今天的反馈。总结一下,我想回到我刚才开场的方式,思考一下我们之前讨论过的内容。有太多东西需要解读,网络世界变化的速度以及儿童的安全问题让家长们感到不知所措。我想,正如我们今天所听到的,我只是儿童数字生活的一部分。还有很多事情需要考虑,比如人工智能以及儿童对人工智能的使用,以及如何确保他们能够积极安全地享受它。所以,这绝对是一项集体努力。我想我们都谈到了行业、政府、家长、学校,每个人都应该共同努力,确保孩子们以积极的方式接受人工智能。感谢大家今天的出席,我希望我们的研究卓有成效,今天的讨论也为这个问题以及儿童的经历带来了一些启发。嗯,希望我们能够共同应对挑战,携手前进。非常感谢所有参与者。我们的内部团队今天制作了精彩的报告和网络研讨会,也感谢所有演讲嘉宾和小组成员。凯蒂、艾丽、卡罗琳和西蒙,非常感谢你们的反思和观察。这次聊天非常愉快。我相信我们本来可以再聊一个小时。祝大家今天过得愉快,谢谢大家。
更多关于人工智能
我,我自己和人工智能:完整报告
支持研究和资源
探索更多我们的研究以及专为父母、看护者和专业人士设计的资源。