首页 > 资讯 > 国际 > 正文
2023-09-09 07:45

联合国教科文组织呼吁制定有关在学校使用GenAI的规定

联合国教育、科学及文化组织(UNESCO)呼吁各国政府规范在教育和研究中使用生成式人工智能(GenAI)。

公开可用的GenAI工具,如ChatGPT,可以自动生成文本、图像、视频、音乐和软件代码。这些平台发展迅速,已经被世界各地数亿人使用,其中包括许多学生。

这种广泛的信息处理和知识生产能力对教育具有潜在的巨大影响,因为它们复制了构成人类学习基础的高阶思维。

然而,很少有国家制定了确保安全和合乎道德地使用人工智能工具的政策。

教科文组织发布了《关于在教育和研究中生成人工智能的全球指南》,旨在解决generai技术造成的破坏。

教科文组织的指导意见建议立即采取措施,确保以人为中心的新技术使用愿景。

这包括强制保护数据隐私,并考虑在课堂上使用它们的年龄限制为13岁。它还概述了基因人工智能提供者在道德和有效使用方面的要求。

该指南强调,教育机构需要验证基因人工智能系统在伦理和教学上是否适合教育。

从以人为本的角度来看,人工智能工具应该被设计成扩展或增强人类的智力能力和社交技能,而不是破坏它们、与它们发生冲突或篡夺它们。

什么是生成式人工智能?

•生成式AI (GenAI)是一种人工智能(AI)技术,可以根据自然语言会话界面中编写的提示自动生成内容。

•GenAI不是简单地管理现有的网页,而是利用现有的内容,实际生产新的内容。

•内容可以以包含人类思维的所有符号表示的格式出现:用自然语言写的文本、图像(包括照片、数字绘画和漫画)、视频、音乐和软件代码。

•GenAI使用从网页、社交媒体对话和其他在线媒体收集的数据进行培训。它通过统计分析单词和像素的分布来生成内容

或者它所摄取的数据中的其他元素,并识别和重复公共模式(例如,哪个单词通常跟着哪个单词)。

•虽然GenAI可以产生新的内容,但它不能为现实世界的挑战产生新的想法或解决方案,因为它不理解支撑语言的现实世界对象或社会关系。

生成式人工智能是如何工作的?

GenAI背后的具体技术是人工智能技术家族的一部分,称为机器学习,它使用算法使其能够持续自动地从数据中提高其性能。

机器学习的类型导致了我们近年来看到的人工智能的许多进步,例如人工智能用于面部识别,被称为人工神经网络(ANNs),其灵感来自人类大脑的工作方式及其神经元之间的突触连接。人工神经网络有很多种类型。

文本生成人工智能使用一种被称为通用转换器的人工神经网络,以及一种被称为大型语言模型的通用转换器。这就是为什么AI Text GenAI系统通常被称为大型语言模型(llm)。文本GenAI使用的LLM类型被称为生成预训练转换器,或GPT(因此在“ChatGPT”中称为“GPT”)。

图像GenAI和音乐GenAI通常使用一种不同类型的人工神经网络,称为生成对抗网络(GANs),也可以与变分自编码器结合使用。gan有两个部分(两个“对手”)——“生成器”和“鉴别器”。在图像gan的情况下,生成器根据提示创建随机图像,鉴别器试图区分生成的图像和真实图像。然后,生成器使用鉴别器的结果来调整其参数,以创建另一个图像。这个过程重复,可能数千次,随着生成器生成越来越逼真的图像,鉴别器越来越无法与真实图像区分。例如,在数千张风景照片的数据集上训练成功的GAN可能会生成与真实照片几乎无法区分的新的但不真实的风景图像。

与此同时,在流行音乐(甚至是单个艺术家的音乐)数据集上训练的GAN可能会生成遵循原始音乐结构和复杂性的新音乐。

基因人工智能有无数可能的用途

ChatGPT于2022年11月发布,随后推出了更复杂的版本,在全球范围内引发了冲击波,并推动了大型科技公司在GenAI模型开发领域的竞争。

基因人工智能有无数可能的用途。它可以自动化信息处理和输出,跨越人类思维的所有关键符号表示。它通过提供半成品知识产品来实现最终产出的交付。

通过将人类从某些类别的低阶思维技能中解放出来,新一代人工智能工具可能会对我们如何理解人类的智力和学习产生深远的影响。

数百万人现在在日常生活中使用GenAI,至少在未来几年,将这些模型应用于特定领域的AI应用程序的潜力似乎是无限的。

关于生成式人工智能的争议

GenAI引发了与安全、数据隐私、版权和操纵等问题相关的多个紧迫问题。其中一些是与人工智能相关的更广泛的风险,GenAI进一步加剧了这些风险,而另一些则是随着最新一代工具的出现而新出现的。

i) co的使用未经同意的内容

GenAI模型是根据大量数据(例如文本、声音、代码和图像)构建的,这些数据通常是从互联网上抓取的,通常没有任何所有者的许可。许多图像GenAI系统和一些代码GenAI系统因此被指控侵犯了知识产权。有几个正在进行的国际法律案件与这个问题有关。

ii)人工智能生成公司内容污染互联网

由于GPT训练数据通常来自互联网,其中经常包含歧视性和其他不可接受的语言,因此开发人员不得不实施他们所谓的“护栏”,以防止GPT输出具有攻击性和/或不道德。然而,由于缺乏严格的法规和有效的监督机制,GenAI产生的有偏见的材料正日益在互联网上传播,污染了世界上大多数学习者的主要内容或知识来源之一。

这一点尤其重要,因为GenAI生成的材料可能看起来相当准确和令人信服,尽管它经常包含错误和有偏见的想法。这对没有扎实的主题知识的年轻学习者来说是一个很大的风险。这也给未来的GPT模型带来了递归风险,这些模型将在GPT模型自己创建的从互联网上抓取的文本上进行训练,这些文本也包括它们的偏差和错误。

3)对现实世界缺乏了解

文本gpt有时被贬义地称为“随机鹦鹉”。虽然他们可以写出看起来令人信服的文本,但这些文本往往包含错误,可能包括有害的陈述。这一切的发生都是因为gpt只重复在训练数据中发现的语言模式(通常是从互联网上提取的文本),从随机(或“随机”)模式开始,而不理解它们的意思——就像鹦鹉可以模仿声音而不真正理解它在说什么一样。

GenAI模型“看起来”理解它们使用和生成的文本,而“现实”是它们不理解语言和现实世界,这两者之间的脱节可能导致教师和学生对输出产生某种程度的信任,而这并不能保证。这给未来的教育带来了严重的风险。

iv)生成深度伪造

GenAI可以用来改变或操纵现有的图像或视频,以生成难以与真实图像区分的假图像或视频。GenAI正在让制造这些“深度造假”和“假新闻”变得越来越容易。GenAI正在使某些演员更容易做出不道德、不道德和犯罪的行为,比如传播虚假信息、宣传仇恨言论,以及在不知情或未经同意的情况下将人们的面孔融入完全虚假的、有时是妥协的电影中。

v)伦理问题

教育中的基因系统可能会加剧在获得技术和教育资源方面的现有差距,进一步加深不平等。

教育中的基因系统可能会减少人与人之间的互动以及学习中关键的社会情感方面。

它可能通过提供预定的解决方案或缩小可能的学习经验范围来限制学习者的自主性和能动性。它们对年轻学习者智力发展的长期影响需要调查。

模拟人类互动的基因系统可能会对学习者产生未知的心理影响,引起人们对他们的认知发展和情感健康以及被操纵的可能性的担忧。

随着更复杂的基因人工智能系统的开发和在教育领域的应用,它们可能会根据模型使用的训练数据和方法产生新的偏见和歧视形式,从而导致未知的和潜在有害的输出。