竞技宝JJB官方平台下载|测速入口,成立于2002年,是一家专业从事电力电子产品研发、制造、销售的高新技术企业。
了解更多随着以ChatGPT为代表的生成式人工智能的问世及快速迭代,生成式AI对教育和研究产生巨大的推动作用,同时也带来前所未有的风险和挑战。2023年9月7日,联合国教科文组织发布首部关于生成式AI应用的全球指导性文件——《教育和研究领域生成式人工智能使用指南》。通过对该指南的文本分析,介绍文件的出台背景和内容梗概,讨论生成式人工智能所引发的争议和负面影响,呈现了教育和研究领域使用生成式人工智能的监管框架,绘制生成式AI在教育和研究领域的应用监管“路线图”,最后结合生成式AI在我国教育和研究中的使用现状,向政府部门、科技公司、学校等教育学习管理机关、教师、研究人员、学生分别提出相关建议:政府部门要完善政策框架,加强公众参与;科技公司要坚持以人为本,维护数字正义;学校等教育学习管理机关要优化校本政策,重塑学习环境,开展AI培训;教师要变革教育学生的方式,开展人机合作,进行伦理示范;研究人员要拓展研究领域,提升研究效能;学生要合理使用工具,强化传统技能。
关键词:联合国教科文组织;生成式人工智能;教育和研究;指南;监管;路线图
2022年11月30日,美国人工智能研究实验室OpenAI公司在其社交网络上向全世界免费推出大型预训练模型——ChatGPT(又称GPT3.5),引发全球关注。ChatGPT自上线]随着ChatGPT以及谷歌公司的Bard、微软公司的Bing Chat、百度公司的“文心一言”等陆续火爆网络,生成式人工智能(Generative Artificial Intelligence,简称GenAI)以迅雷不及掩耳之势突入公众视野,并引发全球热议。
2023年UNESCO《2023教育地平线报告(教与学版)》指出,“GenAI已经被许多高等教育专家认定为我们这个时代最具颠覆性的技术之一”。[2]GPT为代表的GenAI以其骄人的性能和免费使用等特征在教育及研究领域获得广泛青睐。然而,由于GenAI在学校中的推广速度太快,世界各国相应监督管理体系尚未同步建立,GenAI引发人们对包括学术环境在内的误用和滥用可能性的广泛担忧。2023年9月7日,UNESCO发布《教育和研究领域生成式人工智能使用指南》(Guidance for generative AI in education and research,以下简称《指南》)。[3]
从“人工智能”一词由计算机和认知科学家约翰·麦卡锡(John McCarthy)创造出来至今,[4]已有60多年波澜壮阔的历史,从1997年IBM的“深蓝”(DeepBlue)击败卫冕世界象棋冠军加里·卡斯帕罗夫,[5]到2016年的世界冠军李世石与谷歌AlphaGo的“人机对决”,再到2018年的AI与生物技术的跨界融合,这些标志性事件引发人们对AI越来越强烈的研究热情。[6]
生成式AI是一种可根据自然语言对话界面的提示自动生成内容的人工智能,这一些内容的格式包括用自然语言编写的文本、图像、视频、音乐、软件代码等。作为AI领域的后起之秀,GenAI的历史相对较短,然而它给世界带来的震荡却非同一般。GenAI凭借其模仿人类产生文本、图像、视频、音乐、软件代码等能力,一经问世就在整个世界引起轩然。由于复制了构成人类学习基础的高阶思维,这种信息处理和知识生产的能力对教育和研究具有潜在的巨大影响力。
GenAI的出现及其突飞猛进也引发人们对安全、数据隐私、版权、操纵等诸多问题的关切。教育领域最初的担忧是ChatGPT和类似的GenAI工具会被学生用来在作业中作弊,从而破坏学习评价、认证和资格证书的价值。[7]一些学者还担心,论文作为一种学习评价工具的终结可能马上就要来临,因为ChatGPT等GenAI工具可以轻松生成关于任何特定主题的具有说服力的段落、章节和论文。[8]慢慢的变多的学者开始呼吁出台有关GenAI使用的世界性指导文件。[9][10]
《指南》正是为了回应这一迫切需求而制定的。根据2019年通过的《A与教育北京共识》,UNESCO要在咨询会员国意见的基础上制定相关指导纲要,并开发资源,以支持各国政府制定促进教育领域有效、公平应用AI的政策和战略。[11]人工智能作为一种认知技术,其内容与UNESCO所服务的核心领域——教育、科学、文化和通信紧密关联。UNESCO在全球AI治理中一直具备极其重大影响,先后出台《青岛宣言》《A与教育北京共识》《A与教育:政策制定者指南》《人工智能伦理问题建议书》等一系列全球指导性文件。当前,AI已经成为引领新一轮科技革命和产业变革的重要驱动力,正在深刻改变人们的生产、生活和学习方式。[12]生成式AI工具迅速兴起,版本迭代的速度超过了国家监管框架的适应速度。目前,大多数国家缺乏GenAI方面的国家法规,很多教育学习管理机关也没做好对GenAI工具做验证的准备。“生成式AI可以为人类发展带来非常大机遇,但它也会造成伤害和偏见。如果没有公众参与以及政府的必要保障和监管,它就无法融入教育。”UNESCO总干事奥黛丽·阿祖莱(Audrey Azoulay)在一份公开声明中说道。[13]
《指南》正文包括6个部分。第1部分介绍GenAI的概念和工作原理;第2部分探讨GenAI所引发的争议和对教育的负面影响;第3部分是对GenAI的监管建议,包括监管理念、监管步骤、关键要素等;第4部分呈现教育和研究领域使用GenAI的政策框架;第5部分是关于创造性使用GenAI的建议,包括使用策略、方法和具体案例;第6部分对GenAI在教育和研究领域中的未来议题进行了预测。
《指南》作为UNESCO发布的全球第一部关于GenAI在教育和研究领域使用的规范性文件,旨在支持各国迅速采取行动、规划长期政策和发展人的能力,通过制定适当的法规、政策和能力提升方案,确保GenAI成为真正有利于教师、学习者和研究人员的工具,从而保护人的能动性,促进包容性、公平性、性别平等,以及文化、思想和语言的多样性。
GenAI的发展离不开海量数据和超强算力。那些无法获取数据或无力支付数据费用的国家和人民将陷入“数据贫困”的境地。[14]GenAI在发达国家和地区的迅速普及,加快了人工智能财富向全球北方集中的速度。其直接后果是,数据匮乏的地区被进一步排除在外,不得不面临被GenAI模型中嵌入的标准所殖民的潜在风险。
由于GenAI发展速度太快,与之相关的法律起草和实施工作往往滞后于技术更新的节奏。因此,各国在法律和法规建设方面受到挑战。其中一个明显问题就是如何对国内数据的获取和使用进行监管。《指南》认为,需要制定适当的法律,使地方政府能够对汹涌而来的GenAI浪潮进行某些特定的程度的控制,以确保将其作为公益产品做管理。
训练GenAI模型需要大量数据(如文本、声音、图像和代码),而这一些数据大多来自互联网,通常未经过其所有者的使用授权。许多图像GenAI系统因此被指控侵犯知识产权。如最近美国作家协会(The Authors Guild)和17位作者就对OpenAI公司提起集体诉讼,指控该公司利用他们的作品训练GPT,从而侵犯了版权,这已是作家针对OpenAI侵犯版权提起的第四起诉讼。[15]
人们早已认识到,人工神经网络(ANN)通常是一个“黑箱”,即其内部工作原理无法公开检查。这就导致产生某些内容无法解释的问题。随着GenAI变得愈发复杂,以上问题也变得日益严重。此外,GenAI模型通常会“继承”其训练数据中的“偏见”。由于模型的不透明,致使这些“偏见”很难被发现和纠正,进而影响人们对GenAI的信任。
GPT等GenAI工具的训练数据通常来自互联网,而网络数据不可避免地包含歧视性和其他不可接受的语言。尽管研发人员实施了所谓的“防护栏”(guardrails)策略,但由于缺乏严格的监管和有效的机制,GenAI产生的带有偏见的材料在整个网络上广为传播,从而对互联网造成污染。
包括GPT在内的大型语言模型有时被戏称为“随机鹦鹉”[16]。为何会出现这样一种情况,是因为它们通常只会从随机模式开始,重复在其训练数据中所发现的语言模式,其实并不理解其含义,就像鹦鹉只会模仿声音,但实际上并不理解在说什么一样。因此GenAI无法生成有关现实世界和各类关系的真正新颖的内容。
由于提前预设了训练数据创建者的价值观,GenAI工具只能输出所谓的“标准答案”。如果训练数据中频繁出现一个词序列,那么GenAI在其输出中很可能会重复出现这个组合。这种现象不可避免地会对多元化意见和多样性思想的表达产生阻碍。那些数据匮乏的群体,在互联网上的“数字存在”非常有限。因此,他们的声音和所关注的问题很少会出现在GenAI的训练数据中,从而导致这些的声音被进一步边缘化。
“深度伪造”(deepfake)是指使用人工智能对图像、声音、视频进行篡改,生成真假难辨的伪造图像、声音或者视频。[17]最典型的“深度伪造”是“AI换脸”[18]。GenAI能让制造这些“深伪”和所谓的“假新闻”变得轻而易举。
创造人工智能的终极目标不是创造拥有智能的机器,而是创造让我们人类变得更加聪明的机器。[19]GenAI作为人工智能的高级形态,自然也应该服从于人类的发展。UNESCO认为,要想有效解决与GenAI有关的各种争议,必须依照“以人为本”的原则对其实施监管,确保AI技术的使用服务于人的能力发展,保护人的能动性、提高透明度和加强公共问责,以实现包容、公正和可持续的未来发展。具体到教育领域,以人为本的监管原则旨在通过使用GenAI技术增强人类可持续发展能力,以及在生活、学习和工作中实现有效人机协作的能力,确保也能够平等地获得AI支持,同时促进语言和文化的多样性。
为有效落实以人为本的监管理念,《指南》建议各国采取全政府(whole-of-government)、跨部门和多利益相关者的方法来整体规划教育领域的人工智能政策,利用GenAI实现以下五大目标:①实现残疾学习者等对学习资源的平等获取;②支持个性化和开放式的学习;③通过改善数据管理,增加学习机会和提升学习质量;④监测学习过程并向教师提醒学生学习失利的风险;⑤增强人们合理有效使用GenAI的能力。
为有效监管GenAI并重申公共控制,发挥其在教育、研究领域的潜力,UNESCO在对全球监管并促进创造性使用GenAI的政府战略进行调研和审议的基础上,提出政府机构可以采取的7项举措。
为规避数据保护和个人隐私风险,《指南》呼吁各国制定相关法律框架,用于监管生成式人工智能收集和处理个人数据。在这方面,欧盟于2018年颁布的《一般数据保护条例》(General Data Protection Regulations, GDPR)为规范人工智能的提供者收集和处理个人数据提供了法律框架。作为全球数据保护立法方面的先导,可为其他国家制定类似法规提供借鉴。
UNESCO调查数据显示:到2023年初,约有67个国家已制定人工智能国家战略,其中61个国家制定了独立的人工智能战略,而其中7个国家将人工智能内容作为全国数字化战略的一部分。[19]不过,所有这些战略都没有将GenAI作为一个专门的议题来对待。因此,《指南》建议各国修改人工智能国家战略,将GenAI的内容纳入其中。
世界上大多数国家未能在人工智能战略中确立伦理问题并提出相应预防措施。许多国家仅在技能发展层面将人工智能与教育联系起来,而没有对在教育领域使用人工智能所涉及的伦理问题进行专门讨论。《指南》敦促各国紧急制定人工智能伦理规范并予以实施,确保包括教育在内的所有部门合乎伦理地使用GenAI。
GenAI的广泛使用给版权保护带来新的挑战。该挑战不仅涉及模型训练时所用到的受版权保护的内容或作品,也涉及模型所产生的“非人类”知识的身份问题。未经同意或未经许可使用受版权保护的作品进行人工智能训练成为GenAI行业和政府需要解决的一个重要问题。目前,只有中国、美国等少数国家以及欧盟对版权法进行了调整。美国版权局(The US Copyright Office)裁定,GenAI的产出不受美国版权法保护,原因在于“版权只保护人类所创造的材料”。[20]2023年7月中国发布《生成式人工智能服务管理暂行办法》,要求生成式人工智能的输出内容贴上“数字合成”产品的标签。[21]《指南》敦促各国尽快完善或调整现有版权法,以规范人工智能训练中受版权保护的材料的使用,并对GenAI输出内容的身份进行明确定义。
人工智能技术的快速发展正迫使国家和地方政府加快其监管制度更新的步伐。《指南》对中国要求适当、合法标注人工智能生成的内容的做法表示赞赏,并敦促其他国家在评估现有地方法律法规差距的基础上制定类似的GenAI监管框架。
《指南》建议学校等教育机构开展GenAI能力建设,让教师和研究者了解使用人工智能对教育的潜在益处和风险,通过培训、辅导等方式,持续提升教师和研究人员使用GenAI的能力。新加坡就已经启动此类能力建设项目,通过人工智能政府云集群为包括教育部门在内公共机构的人工智能能力提升建立了一个专门平台。[22]
GenAI对教育和研究的影响才刚刚开始,大多数国家正处于利用GenAI的早期阶段。人们对教育和研究的影响还有待充分探索。为确保以人为本地使用GenAI,《指南》建议各国应立即就其长期影响展开公开辩论和政策对话,通过开展由政府、私营部门和其他合作伙伴共同参与的辩论和对话,为法规和政策的更新提供见解、投入。
《指南》不仅明确了监管GenAI的4个重要利益相关方:政府监管机构、GenAI工具提供商、机构用户、个人用户,而且对各自可以采取的行动提出建议。
《指南》认为政府需要综合协调GenAI法规的设计、调整和实施,并重点采取以下7项行动:加强跨部门协调,通过建立一个全国性机构,对GenAI实施统一领导,并协调各部门的合作;保持立法的一致性,对现有法规进行评估,并根据 GenAI 提出的新问题进行必要调整;在监管GenAI和促进人工智能创新之间取得平衡,促进跨部门合作,共同开发可靠模型,鼓励构建开源生态,促进资源和数据共享,支持跨部门创作;对人工智能潜在风险实施评估和分类;保护数据隐私,起草和实施保护用户个人信息的相关法律;确定和执行使用GenAI的年龄限制,并规定GenAI提供商在年龄核实方面的责任以及父母或监护人监督未成年儿童使用GenAI方面的责任;保护国家数据所有权和防范数据贫困风险。
GenAI的提供者包括负责开发、提供GenAI工具的组织和个人,以及使用GenAI技术提供服务的组织和个人。《指南》建议GenAI提供商应该对产品的设计伦理负责,包括执行相关的伦理原则,并认真履行以下责任:承担人类责任,秉持人类核心价值观和合法目的,尊重知识产权,维护伦理实践,防止虚假信息和仇恨言论的传播;提供可靠的数据和模型;不得生成歧视性内容,应确保建立健全 “防护栏”,防止GenAI生成有攻击性、有偏见或虚假的内容;保证GenAI模型的可解释性和透明度;对GenAI生成的内容进行合理标注;坚持安全和安保原则,确保在GenAI系统的整个运行期间提供安全、稳定和可持续服务;建立有关访问和使用规范,对其服务受众、应用场景、目的提供明确的规范,帮助用户进行理性和负责任的决策;承认局限性并积极防范可以预见的风险;建立投诉和救济机制;对非法使用的监督和举报提供便利。
机构用户包括大学和中小学校等教育机构,他们负责决定是否采用,以及采购和部署哪些GenAI工具。《指南》敦促机构用户履行如下职责:要对GenAI的算法、数据和产出进行审核,包括定期审核、评估、保护用户数据以及自动过滤不当内容;要验证适切性和保护用户福祉,实施国家分类机制或制定机构政策对GenAI系统、应用进行分类和验证,确保不会对机构用户,特别是儿童和造成可以预见的伤害;审视并应对长期影响,对在教育中长期依赖GenAI工具可能会对批判性思维能力、创造力等人类能力的潜在影响进行评估和妥善应对;要设置使用GenAI的最低年龄限制。
个人用户主要是指正规教育机构里的教师、研究人员和学生,或参加非正式学习课程的个人。《指南》建议个人用户采取以下行动:了解GenAI的使用范围,在签署或同意服务协议时,应了解协议中规定的义务以及协议背后的法律或法规;合乎伦理地使用GenAI工具,避免损害他人名誉;监控和报告非法 GenAI应用程序,在发现GenAI违反法律法规时,应及时报告政府监管机构。
随着使用GenAI的人数越来越多,人们必须保持谨慎,以免因过度依赖而导致人的能动性受到削弱。正如UNESCO教育部助理总干事斯特凡尼娅·贾尼尼(Stefania Giannini)指出的那样,“人工智能绝不能篡夺人类智慧。相反,它应当引发重新考虑我们对知识和人类学习的已有理解”。[22]为此,《指南》建议政策制定者在制定教育和研究政策时采取以下措施保护、增强人的主动性:让学习者了解GenAI可能从他们那里收集的数据类型、数据使用方式以及可能对其教育产生的影响;在使用GenAI进行教学、学习和研究的过程中强化人的控制或选择;在从事实践观察、科学实验、社交互动、讨论、逻辑推理这些对学习者发展认知能力和社交技能至关重要的活动时,避免使用GenAI;利用GenAI工具来缓解而不是加大作业和考试的压力;鼓励教师、学生和研究人员对GenAI可能强制推行的标准或教学法提出质疑;避免在进行高风险决策时将人类责任拱手交给GenAI工具。
在部署使用GenAI系统之前,监控和验证其道德风险、教学适当性、严谨性,及其对学生、教师、课堂乃至学校的影响至关重要。《指南》建议采取如下措施:建立GenAI系统的偏见检测机制;应对知情同意问题;检查GenAI的输出材料中是否含有深伪图片、不实新闻、仇恨言论等违规内容;正式采用GenAI工具之前,学校等教育机构必须开展必要的伦理验证;确保GenAI应用程序对学生无害、具有教育效果、符合目标学习者的年龄和能力特征,并遵循恰当的教学原则。
学习者良好的人工智能素养是安全、合理、有效使用人工智能的重要保障。要想驾驭GenAI工具,人们必须了解人工智能的工作原理及其对利益相关者的影响。然而,UNESCO的数据显示,到2022年初,只有大约15个国家制定并实施或正在制定政府认可的学校人工智能课程。[23]《指南》建议采取以下紧急行动:为各类教育和培训提供政府认可的人工智能课程;对高校和科研单位培养本地人工智能人才提供支持;打造性别均衡的人工智能专业人才库;根据预测的未来岗位变化培养学习者适宜的能力;为年长学习者提供个性化帮助。
根据UNESCO的调查数据,目前只有中国、芬兰等7个国家已经或正在开发教师人工智能培训项目。[24]该数据表明,大多数国家的教师没有机会获得关于在教育中使用GenAI的培训。鉴于此,《指南》提出如下建议:制定或调整当地政策,对GenAI工具的研发和选用提供指导;保障教师和研究人员合理利用GenAI工具的权益;通过明确价值取向等手段,引导教师有效、合理利用GenAI工具促进师生共同发展;动态审视教师利用GenAI进行教学和学习的能力,并将其整合到教师相关培训项目当中。
受制于其工作原理、训练材料和研发人员的默会观点,GenAI的输出内容往往复现了当前世界的主流观点,由此对少数和多元意见造成破坏。我们必须意识到,要发展先进的人类文明,任何领域都不能将GenAI的输出内容作为最具权威的知识来源,必须批判性地看待GenAI生成的内容。为此,《指南》建议:使用者必须充分认识到GenAI作为“快速但往往不可靠的信息来源”的有限作用;鼓励多元化思想表达以应对同质化和标准化意见的问题;为学习者提供足够的机会去尝试、犯错和实证实验,以探索不同的观察结果。
UNESCO报告指出,GenAI模型目前以来自北半球的数据为主,而其他地区的代表性数据相对缺乏。需要采取合成数据或由计算机生成数据等措施,让此类模型更加关注当地社区的背景和需求。对此,《指南》建议采取以下行动:对GenAI工具的设计和选用进行战略规划;鼓励GenAI的研发人员重点聚焦开放式、探究式和多元化学习;强调根据教育重点,考查和扩展基于证据的人工智能在教育中的应用案例;引导使用GenAI通过复杂技术激发研究方法的创新和改进;根据已证实的教学研究和方法建立具体标准,并为GenAI的有效性建立证据基础;积累GenAI对社会和伦理影响的相关证据;分析大规模使用GenAI所付出的环境成本,制定人工智能公司必须达到的可持续性目标,以避免加剧气候变化。
《指南》建议政策制定者与人工智能提供商、教师、研究人员、家长以及学生代表开展合作,实施课程体系和评价手段的全面改革,以探索GenAI的潜力并减轻风险。同时建议让学习科学家、人工智能工程师、其他利益相关者代表的跨部门和跨学科专业知识参与进来,共同审视GenAI对学习和知识生产、研究和版权、课程和评估、人类协作以及社会动态的长期影响。此外,《指南》还建议要为制度升级提供信息支持。
需要说明的是,以上框架是建立在2022年UNESCO发布的《人工智能与教育:决策者指南》的基础之上的。框架中的建议措施可以视为对前一个文件的有益补充。
2018年教育部发布的《高等学校人工智能创新行动计划》提出,要加快人工智能在教育领域的创新应用,利用智能技术支撑人才培养模式的创新、教学方法的改革、教育治理能力的提升。[25]在此背景下,UNESCO这份《指南》可以指导我们认真审视GenAI与教育的关系,为我国借助教育数字化推动教育优质发展的战略提供新的思路。本文从政府部门、科技公司、学校等教育机构、教师、研究人员、学生几个层面分析其启示意义。
GenAI为我们的教育变革带来重大契机的同时,也引发巨大挑战。政府部门需要针对GenAI在教育中的使用制定健全的法规和政策,为其在教育和研究领域的健康、快速、可持续发展提供坚实的制度保障。
目前,我国对人工智能的治理已经走在世界前列。2023年7月发布的《生成式人工智能服务管理暂行办法》,是世界上首个有关GenAI监管的全国性政策文件。[26]为了保持我国在GenAI治理方面的优势,笔者建议还可以从以下四个方面着力。一是推进人工智能基础性立法,通过基础性立法,将散落在已有法律法规中有关数据、算法、算力等内容的规定加以整合,为新兴技术当前和未来的发展绘制蓝图并设置红线,为AI领域的治理明确方向。[27]二是制定有关教育和研究领域使用GenAI的专门法规,并组建相应的监管机构。对拟进入教育行业的GenAI工具进行准入性审查,定期对这些GenAI工具进行安全评估,并建立合理的用户权益保护和投诉机制。值得一提的是,在制定法律和实施监管的问题上,我们要放眼未来,做到未雨绸缪,努力克服“科林格里奇困境(Collingridge’s Dilemma)”,[28]即试图控制一项新技术通常非常困难,因为在其早期的可控阶段,人们对其有害后果的了解还不足以证明有必要对其实施控制;但当这些后果开始显现时,控制起来已经变得非常昂贵而缓慢。三是出台教育和研究领域GenAI使用伦理框架,为教育和研究机构制定校本伦理规范提供政策导向。四是建立一体化的学生人工智能能力体系。UNESCO于2022年发布《中小学阶段人工智能课程:政府认可人工智能课程的调研》(K-12 AI curricula: a mapping of government-endorsed AI curricula),为各国研发人工智能课程提供支持性工具与框架。[29]该框架可以为我国制定面向大中小学学生的一体化人工智能能力体系提供借鉴。
在教育领域使用生成式人工智能会引发一些道德问题,如隐私、数据安全、公平性等。为了有效应对这样的一种情况,公众的参与自然必不可少。政府应当鼓励公众对生成式人工智能可能引发的伦理等问题进行公开讨论,借此消除对教育领域用AI的误解和恐惧。鼓励公众参与决策过程,在用户和从事人工智能工作研发的机构之间建立信任,从而建立GenAI在教育领域中使用的友好环境。政策制定者还应与研究人员、教育工作者和技术专家携手合作,就如何安全、建设性地使用这些不断发展的GenAI工具来改善教育和支持学生学习展开磋商。政府通过与学校、高科技企业等开展合作,推动教学模式更加智能化、学习方式更加个性化、教育资源更加开放化,不断提高教育教学效果。另外,政府应当牵头建立国际或国内数据共同体等机制,加强优质数据共建共享,提高数据资源的使用效率。
科技公司在推动GenAI在教育和研究领域的应用中起到“急先锋”的作用。在推进教育和研究领域转型的同时,既有诸多赞誉也引来不少“非议”。在这个“数字技术和科技公司的力量广受质疑”的时期,[30]科技公司必须直面质疑和挑战,坚持以人为本,维护数字正义,为优化GenAI的发展生态展现更大的责任担当。
科技公司及其技术人员在GenAI的研发中要始终坚守“技术服务于人类”的鲜明立场,不断探索破解深度学习算法中不可解释性问题的路径和方法。秉持“如果存在处理过程和结果都绝对不可解释的人工智能技术,这些技术应被禁止用于人类”[31]的原则。如何确保公平地获取由人工智能研究组织和公司开发的此类技术也很重要。随着GenAI技术在教育和研究领域中的使用越来越普遍,与落后的弱势学生相比,家庭富有的学生能够从教育技术中获益更多。随着2023年3月14日ChatGPT的升级版GPT-4的发布,每月20美元的资费标准可能会使很多不发达经济体的用户望而却步,从而形成一道事实上的“数字屏障”。有学者预测,如果软件变成付费形式,则在其可访问性上可能存在高收入国家和低收入国家之间的潜在不平衡。[32]科技公司有义务考虑技术使用的公平问题,通过降低成本、共享数据、投放广告等措施调低使用价格,让更多人能公平地使用先进的GenAI工具,减小“教育技术的马太效应”[33]的影响。
作为GenAI工具的创造者、推广者和最大受益者,高科技公司必须恪守科技伦理,维护数字正义。数字正义主要表现为分配正义、程序正义、互动正义和信息正义四种形式。[34]数字分配正义涉及数据处理者与产出者之间的利益分配,以及个体能否获得在数字舞台上平等参与的机会。科技公司一方面要维护数据产出者的合法权益,另一方面,要尽可能让更多的人获取和使用最先进的数字技术。程序正义指数字技术应用背后的过程和逻辑。科技公司要通过排除偏见、听取意见和说明理由,履行“技术性正当程序”[35]。与教育系统中使用GenAI有关的重要问题之一,是可能出现偏见和歧视。有学者指出,“人工智能和机器学习系统在商业、医疗、教育、政府等领域越来越多地取代了人类决策者。然而,不仅没有完全消除人类的错误和偏见,这些算法在某些情况下还被复制或放大”[36]。因此,我们要防范“小数据”所带来的风险,警惕“热炉效应(hot stove effect)”[37],通过确保原始数据的准确性,以及科学、公平的算法来提升数据的准确性。互动正义涉及个体尊严,研发公司应当允许用户对生成式智能系统提出异议,自觉接受相关伦理审查并及时纠正错误。信息正义涉及向用户提供相应的信息与解释。信息正义要求科技公司克服数据黑箱和算法黑箱的弊端,实现数据化过程的可见性、可解释性,注重保护知识产权和数据隐私。
UNESCO的《人工智能与教育:政策制定者指南》提出,政策制定者要“与人工智能提供者和教育者合作,确定应对课程框架和评估方法变化的最适当方式,为探索人工智能提供有利的政策环境和课程空间”[38]。尽管学生和教师已广泛采用GenAI工具,然而,对全球450多所学校进行的一项调查发现,只有不到10%的学校制定了有关使用GenAI工具的政策或指南。[39]在当前GenAI发展如此迅猛的态势下,学校等教育机构要迅速开展GenAI治理的顶层设计,及时出台相关规章制度和管理流程,引导师生负责任和合乎伦理地使用GenAI工具,以满足教学、学习和研究的需要。具体可通过采用以下4项举措来实现这一目标:在机构实施道德准则,确保研究人员、教师、学生负责任和合乎伦理地使用GenAI工具,并以批判的态度对待产出内容的准确性和有效性;为研究人员、教师、学生提供相关指导和培训,确保他们了解数据标注和算法中的偏差等伦理问题,并遵守有关数据隐私和知识产权的法规;提升GenAI提示工程能力;检测书面作业中基于GenAI的抄袭行为。在制定政策和流程时要特别注意以下两点:一是坚持以人为本的基本立场,大力倡导“数字人文主义(Digital Humanism)”[40];二是注重信息安全和隐私保护,通过加密技术等手段保护师生的信息隐私和安全。
学校要大力营造GenAI的良好环境,借助GenAI这个“非凡的技术奇迹”,努力构建智慧教育新生态。具体而言,可以通过创设多样化的学习情境,促进学习者开展自学和小组共同学习,促进项目式学习、探究式学习、协作式学习;可以借助智慧学习系统、在线智能教室和“智能学伴”,推动形成人机共教、人机共育的新型教学模式;还可以融通数字化和智能化的物理空间、信息空间、社会空间,实现多空间融合,推动高质量的协同育人服务创新。[41]另外,有学者设计的AI生态教育的政策框架,或许对我们有一定的借鉴作用。该框架包含教学、治理和运行三个维度,每个维度涉及若干关键领域。[42]学校通过将人工智能与教育深度融合,真正实现从人工智能教育到教育人工智能的转向,从而最终实现教育人工智能的终极目标——建立智能化的网络学习空间。[43]
UNESCO的《人工智能时代的能力培养综合报告》指出,世界公民需要了解人工智能的潜在影响、作用和局限,需要具备一定的“人工智能素养”[44]。人工智能素养指人们在人工智能方面的知识、理解、技能和价值取向,包括数据素养和算法素养。学校要通过开发人工智能课程,将计算思维、机器学习、自然语言处理、神经网络等内容纳入课程,确保学生能获得使用GenAI的实际经验,并让学生为未来的职场做好准备。学校应整体规划人工智能教育。不仅对学生进行培训,还要将全体教师和行政人员也纳入培训对象。因为对人工智能系统的不了解,也是引发教师与智能教学系统冲突的主要原因之一。[45]
随着ChatGPT的推出,GenAI正在迅速改变着我们思考、创造和生活的方式。有理由相信,人们对GenAI的也会像先前对计算器、计算机和互联网的一样,最终将烟消云散。GenAI也将成为教育生态系统中的一项必备工具。教师应接纳ChatGPT等人工智能工具,将其视为助力学生学习和教师教学的智慧“合作伙伴”[46],通过变革教学方式,开展人机合作、进行伦理示范,充分利用GenAI带来的教学便捷,直面新技术所引发的各种挑战。
GenAI技术虽然具有创新性和颠覆性,但它们并不能取代人类思维。人类教师要主动与其开展合作,将它们作为工具使用。教师要利用GenAI工具开展人机合作,共同设计GenAI在教学中的应用,通过提供额外支持和个性化关注,从而让学生更多受益。有人担心,GenAI工具可能会阻碍学生批判性思维和知识接受能力的发展。实际上,学生可以做到运用技术和保持发展“两不误”。教师可以将GenAI工具和技术融入教学,帮助学生发展批判性思维和解决问题的能力。一种方法是使用GenAI生成的答案作为课堂讨论的基础,即向学生展示GenAI生成的多种方案,并要求学生对这些方案的准确性和推理过程进行评价,从而提升学生的分析能力。另一种方法是鼓励学生理解GenAI在解决某项问题所采用的逻辑。这将有助于学生理解思维步骤,并认识结构化思维在解决问题中的重要性。通过分析GenAI的每一个步骤,学生可以学习如何将复杂问题分解成易于处理的各个部分,并应用相应原理加以解决。此外,教师还可以利用GenAI生成答案当中的错误,从而实现更高层次的教育目标。教师在使用GenAI工具时,应优先考虑人的能动性以及人与工具之间的良性互动。具体而言,使用工具应有助于满足人类需求,并使学习或研究更加有效;教师和学习者对工具的使用应基于人的内在动机;工具的使用过程应由教师和学生共同把控;应根据学习者年龄、预期成果和目标知识类型或目标问题,合理选择工具及其生成的内容;使用过程应确保人类与GenAI的互动和高阶思维的参与,确保人类对GenAI输出内容的准确性、教学或研究策略及其对人类行为影响的相关决策负责。
“教师既要注重自身技术伦理的示范性,还要加强对学生技术伦理的价值引领。”[48]教师自己必须意识到,GenAI并不理解它所生成的文本,它可能而且经常生成不正确的语句,这些输出仅代表最常见或最主流的世界观,其中有些还是错误或有偏差的(如刻板的性别角色),有的甚至含有攻击性和不道德的内容。因此,教师要对GenAI生成的内容保持理性态度,批判性地看待GenAI所包含的价值取向和文化标准。与此同时,教师还要对学生开展包括学术诚信在内的伦理教育,引导学生以道德和负责任的态度与人工智能技术开展互动。
GenAI工具对科学产生了颠覆性的影响。有人认为,GenAI将会改变科学的规则。[49]GenAI的出现同样给广大研究人员带来机遇,例如,它可以扮演研究大纲的AI顾问、文献综述者的角色,帮助列出研究问题,自动收集信息,开展数据分析等。与此同时,也带来诸如编造虚假文献信息、侵犯他人隐私等诸多挑战。为了最大限度发挥其积极作用,研究者可以利用GenAI工具拓展研究领域,提升研究效能。
有学者认为,理论缺失可能是教育技术学领域的一项综合症。[50]国外相关学者对教育领域中AI应用研究的综述显示,与人工智能驱动教育技术相关的教育学和心理学理论进步的证据非常少,该领域还存在对挑战和风险缺乏批判性反思,教育领域中人工智能的应用与教育理论脱节,以及教育人工智能相关伦理和教育方法有待进一步探索等问题。[51]鉴于以上情形,教育领域的研究人员应当进一步拓展研究领域,继续探讨GenAI工具在教育中使用的伦理和社会影响,包括它对人类教师的潜在影响、适当的法规和政策的必要性,及其在教育中使用的有效策略;开展有关提示工程和人工智能素养的研究,特别是人工智能伦理和机器学习方面的研究。另外,深度学习的理论还处于起步阶段,[52]研究空间巨大,值得研究者关注。
学生大多属于“数字原住民”,往往能比其老师更轻松、更便捷地使用GenAI技术。学生应当在法律和伦理框架之下合理使用GenAI工具,与此同时,强化对批判性思维能力、问题解决能力的培养。
学生应尽快掌握必要的GenAI相关知识和技能,以及与之相关的使用规范和伦理要求,提升人工智能素养,熟练操作GenAI工具。为了从GenAI获取理想的内容,学生要具备相应的“提示工程”(prompt engineering)能力。以下技巧可供参考:使用简单、清晰、易于理解的语言,避免使用复杂或模棱两可的措辞;提供示例,以说明所需的回答或生成的回答格式;提供上下文;必要时进行细化和迭代,尝试不同的变化;遵守伦理规范,避免使用可能生成不恰当、有偏见或有害内容的提示。笔者认为,有学者提出的IDEE框架可以作为学生使用GenAI工具的指导原则。该框架由4部分组成:确定预期成果(Identify the Desired Outcomes)、确定适当的自动化程度(Determine the Appropriate Level of Automation)、确保伦理考量(Ensure Ethical Considerations)、评估有效性(Evaluate the Effectiveness)。[54]已有数十项研究表明,过度的技术使用与心理健康水平下降之间存在较强相关性,“过度使用技术的数字用户”更容易感到悲伤、不快乐、无聊,更易于陷入困境。[55]同样,过度依赖GenAI生成的答案也可能导致混乱和误解。需要记住的是,GenAI只是一种辅助工具,它不能替代人类的指导和专门知识,其使用应该根据学习环境的独特需求和情形进行调整。
从以人为本的角度来看,GenAI工具的设计应扩展或增强人类的智力和社会技能,而不是削弱它们。同时,人们要在理性规制框架下合理利用GenAI技术,而不是无原则地依赖它们。人们一直期望人工智能工具能够进一步整合,成为人类可用工具的一部分,以支持分析和行动,实现更具包容性和可持续性的人类未来。为了使人工智能在个人、机构和系统层面成为人机协作中值得信赖的重要组成部分,应根据GenAI等新兴技术的特点,进一步明确和落实“以人为本”的理念。只有这样,才能确保GenAI成为研究人员、教师和学习者值得信赖的工具。以ChatGPT为代表的生成式人工智能工具正在冲击甚至重塑学校教育生态,“人工智能+教育”成为未来教育发展的必然趋势。[58]
[4][5]安东尼·塞尔登,奥拉迪梅吉·阿比多耶.第四次教育革命:人工智能如何改变教育[M].吕晓志,译.北京:机械工业出版社,2019:83-84,86.
[11]联合国教科文组织.人工智能与教育——北京共识[R].巴黎:联合国教科文组织,2019:63.
[16]托雷·霍尔,李思琦,孙波.生成式AI对欧洲教育的影响及对中国的启示[J].中国教育信息化,2023,29(6):8-16.
[17]姚志伟,李卓霖.生成式人工智能内容风险的法律规制[J].西安交通大学学报(社会科学版),2023,43(5):147-160.
[18]曹建峰.深度伪造技术的法律挑战及应对[J].信息安全与通信保密,2019(10):35-40.
[29]曾海军,张钰,苗苗.确保人工智能服务共同利益,促进教育系统变革——《A与教育:政策制定者指南》解读[J].中国电化教育,2022(8):1-8.
[31]苗逢春.教育人工智能伦理的解析与治理——《人工智能伦理问题建议书》的教育解读[J].中国电化教育,2022(6):22-36.
[35]刘东亮.技术性正当程序:人工智能时代程序法和算法的双重变奏[J].比较法研究,2020(5):64-79.
[40]苗逢春.从“国际人工智能与教育会议”审视面向数字人文主义的A与教育[J].现代教育技术,2022,32(2):5-23.
[43]徐晔.从“人工智能教育”走向“教育人工智能”的路径探究[J].中国电化教育,2018(12):81-87.
[45]张缨斌,吴若乔,何雨轩,等.感知情境与人在回路的智能教育——《A与教学的未来:见解与提议》要点与反思[J].开放教育研究,2023,29(4):11-20.
[48]周玲,王烽.生成式人工智能的教育启示:让每个人成为他自己[J].中国电化教育,2023(5):9-14.
《中国教育信息化》创刊于1995年8月,是由中华人民共和国教育部主管,教育部教育管理信息中心主办,面向国内外公开发行的国家级学术期刊。期刊内容力求全面深入地记录我国教育信息化的建设进展、研究与应用成果和行业发展状况,开展我国教育信息化发展状况调研和教育信息化国际比较研究,服务于国家教育宏观决策;力求全面准确地把握教育信息化相关的方针政策和标准规范,及时追踪ICT前沿技术的发展的新趋势及其与教育的融合,深度挖掘教育信息化建设与应用的体制、机制创新,服务于我国教育信息化实践。
Copyright © 2019 竞技宝JJB官方平台下载|测速入口 保留所有版权 陕ICP备09009982号-1
陕公安备 陕ICP备09009982号-1