首页 > 新闻 > 观点 > 正文

新一代人工智能在教育应用中的法律风险与防范
2023-09-20 16:43:51   来源:第一新闻网   评论:0 点击:

  技术的变革不断引领社会的变化,也推动着社会规则的不断更新。随着人工智能技术的不断发展与进步,其在教育领域的融合也愈加迅速,包括智慧校园,智能辅助教学,等等。这些应用场景打破了教育时空的限制,提供了广阔的教学资源,满足了教育现代化的需求。然而,人工智能在厘革教育生产力的同时,也为教育领域带来了诸多的风险和挑战,相应的法律规范尚未跟上人工智能融合教育变革的步伐,不利于人工智能创新助推教育的长远发展。本报告从新一代人工智能融合教育过程中可能触及的相应法律问题出发,主要探讨了域外人工智能管理的相关立法和政策以及探寻了我国人工智能法律规制的一般路径。

  一、新一代人工智能融合教育的法律疑难问题:三重风险

  1.数据安全风险

  新一代人工智能深度学习能力依赖大量的数据训练,因此人工智能技术应用风险在数据安全领域表现尤为突出,主要包括三种情形:其一,数据源合规性风险。新一代生成式人工智能通过开放语料库训练获得文本生成能力,然而设计者对这些训练数据并没有采取筛选过滤措施,无法保证数据的可靠性,进而导致人工智能所输出的文本内容很可能真伪不明,存在数据内容不合规风险。其应用在教育领域时,很可能会误导学生,损害教育权威,而且数据获取过程也可能涉及侵权问题,所爬取的相关内容易侵犯他人知识产权。其二,算法黑箱风险。人工智能依赖算法做出决策,我们只能看到其所执行的指令结果,其自身并不能表达为何执行此种行为,代表其行为逻辑的算法编写者隐藏在人工智能背后,因而可能会存在算法黑箱的问题。这种不公开、不透明的风险很大程度上会导致个人取向影响算法编写方向和数据选择,最终造成算法歧视,即提供带有明显倾向性内容从而影响相关应用使用者获取内容的客观性。其三,隐私泄露风险。人工智能所使用的训练数据包括互联网中存在的海量个人用户数据,尤其在进行人机交互问答时,使用者的对话数据也可成为机器学习内容,普通用户个人信息安全难以保证,人工智能随时可能提取个人隐私进而针对性的个性化内容推荐。而这些信息数据一旦被不法分子利用实施违法犯罪活动时,将会造成巨大危害。

  2.责任主体争议

  随着人工智能教育应用的日益加增,由人工智能侵权致损并不罕见,甚至人工智能还可能涉及刑事犯罪,因此讨论人工智能是否具备法律人格,能否成为责任主体十分有必要。目前主要有三类观点:一是工具说,即认为人工智能不能成为责任主体,只是人类所应用的一种工具,本质仍然是物,客体属性并没有改变;二是主体说,即认为人工智能具备一定的“思维”能力,有别于纯粹的物,可以像拟制“法人”一样,成为拟制责任主体,具有相应的责任能力;三是有限资格说,即认为虽然目前无法赋予人工智能独立主体地位,但是未来的超级人工智能应当具有有限主体资格,人工智能的智慧特性决定其应当具有法律人格,然而它却又难以以其自身履行相应责任,因而应赋予其有限法律人格,在一定范围作为责任主体。

  3.著作权争议

  教育领域的人工智能产品很多都涉及到内容领域的文章或图片的输出,而这类生成式人工智能所产生的作品是否受著作权保护,以及如果享有著作权,著作权归属何方,都是备受争议的问题。依照《中华人民共和国著作权法》的规定,著作权所保护的是具有独创性并能以一定形式表现的智力成果。对于人工智能所产生的作品是否具有独创性,肯定的观点认为,人工智能即便是依赖公开的数据进行内容生成,其在具体表达和创作中有对数据的独特编排、分析,符合“最低限度的创造性”这一标准要求;人工智能虽不具备享有著作权的主体资格,但并不能否认其产生作品的可著作权性,其权利归属可以是人工智能服务提供者或人工智能使用者。反对者认为人工智能是按照设计好的算法,对数据进行处理,并没有同人类一样利用思维进行创造,本质上是执行既有的流程,缺乏思想或情感表达,难以被认为是智力成果,因此其产生作品不应享有著作权。

  二、新一代人工智能管理的“他山之石”:美国和欧盟的经验

  1.美国新一代人工智能管理实践经验

  美国对人工智能的管理实践主要围绕两条主线展开,一是设立专门的人工智能委员会,协调、规范各方的人工智能运营;二是发挥政府监管人工智能的主体作用,联邦政府和地方各州协同加强监管。美国白宫科技政策办公室(OSTP)于2022年发布了《人工智能权利法案蓝图》(Blueprint for an AI Bill of Rights)(以下简称“《蓝图》”),这是美国规制人工智能健康发展的重要规范。其将公平和隐私保护作为核心内容,并围绕此提出了人工智能技术应用的五项原则:建立安全和有效的人工智能系统、建立算法歧视保护措施、数据隐私保护原则、透明度原则、鼓励开发选择退出机制。《蓝图》为人工智能的规范发展搭建了基本框架,在大数据隐私透明时代具有重要意义,有利于保证用户的基本权利,不过《蓝图》的规范内容尚且笼统,还需要进一步细化与完善。

  2.欧盟新一代人工智能管理实践经验

  欧盟有关人工智能的规章制度起步较早,早在2015年就已提出初步规划,并在2016年出台了《欧盟机器人民事法律规则》(European Civil Law Rules in Robotics)。文件认为人工智能具备在交互中不断学习的自主性能力,考虑到未来人工智能的不断进化,“人工智能电子人”的法律地位可试图赋予其责任主体资格。2023年欧盟审议通过了《人工智能法案》(EU AI Act),基于分级监管的方式,将人工智能划分为四个风险等级,并分别采取不同的监管措施,即禁用不可接受的风险型人工智能、重点监管高风险型人工智能、对有限风险型和轻微风险型赋予较高的自由度。同时所有人工智能系统都要符合透明度规则,即服务提供者应当将人工智能提供的服务内容已经收集信息范围进行披露和提示。

  三、新一代人工智能的法律规制路径:探索前进

  在人工智能规制领域,《新一代人工智能发展规划》(国发〔2017〕35号)于2017年印发,以此作为我国指导人工智能有序发展的纲领性文件。此后虽未有专门立法,但在我国的《网络安全法》《数据安全法》《个人信息保护法》中亦有相关条款。2023年,《生成式人工智能服务管理暂行办法》作为有关人工智能管理的首个专项法规(以下简称“《办法》”)为人工智能的发展提供了明确的规范指引。《办法》中明确了人工智能服务提供者是责任主体,并没有赋予人工智能本身责任主体地位,服务提供者要对数据的合规性、处理的合法性以及个人信息的保护负责,同时还要履行算法备案、披露等义务。《办法》确立了分级分类的监管原则,旨在为人工智能健康发展提供一个包容审慎的环境,对人工智能在不同领域的应用采取差异化的监管方式。目前《国务院2023年度立法工作计划》(国办发〔2023〕18号)已将《人工智能法草案》列为预备提请全国人大常委会审议的法律草案,与《办法》以及《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》等一起,形成了较完备的人工智能法治监督体系。

  《办法》的出台无疑是推动我国人工智能与各领域融合规范发展的重要一步,不过其内容多数还是原则性规定,尚需进一步细化完善,加强法制监管的系统性。首先,在数据安全方面,《办法》强调产品提供者要对数据的合法性、安全性负责,但对其享有的数据权利不作规范,不利于数据在广阔的市场间有序的开放流通,可能会影响人工智能的可持续性发展。因此一方面要明确产品提供者具有对合法数据源的管理权和流转权,另一方面也要出台完善数据开放规则,建立统一标准,在合理保护和有效应用间寻找平衡。其次,在责任主体方面,《办法》明确了责任承担者为产品提供者,在后续运行过程中还需与其他上位法联动,厘清其所承担的民事责任、行政责任、刑事责任的边界。

  【作者:谭颜宇,系湖南省中国特色社会主义理论体系研究中心湖南工商大学基地、湖南工商大学高等教育研究院专职研究员。本文系湖南省教育厅科学研究重点项目(20A123)、湖南省社科基金教育学专项重点项目(18ZDJO1)的阶段性成果。】

相关热词搜索:

上一篇:用教育家精神推动强师兴国伟大事业
下一篇:最后一页

分享到: 收藏
评论排行