圆桌丨学者谈人工智能伦理治理:要将伦理融入AI全生命周期

澎湃新闻记者 周頔 邵文
2022-06-04 19:14
来源:澎湃新闻

近年来,人工智能(AI)产业高速发展,其伦理与治理问题也备受各界关注。要如何在不同文化背景下认识人工智能伦理?该构建什么样的人工智能治理认知逻辑和框架范式?人工智能伦理又要怎样从理论、理念走向实践?

“新技术往往会给现有社会伦理规范带来冲击,人工智能技术也不是例外,这是人类社会在进步过程当中始终面临的问题。”6月1日,国家新一代人工智能治理专业委员会主任、清华大学文科资深教授、人工智能国际治理研究院院长薛澜在2022北京智源大会人工智能伦理、治理与可持续发展论坛上说道。

薛澜提出,要构建解决信息不对称的沟通交流平台,在此基础上求同存异,找到符合整个社会发展进程的解决机制,同时也要设置针对技术和观念更新迭代的更新机制。

近年来,我国接连发布了《新一代人工智能治理原则》《新一代人工智能伦理规范》等政策文件,明确提出八项原则,强调将伦理道德融入人工智能全生命周期。科技部中国科学技术信息研究所党委书记,所长、科技部新一代人工智能发展研究中心主任赵志耘表示,国家科技伦理委员会人工智能分委会正在研究起草人工智能伦理高风险清单,以更好地推动人工智能科研活动的伦理监管工作。

安全和法律问题是底线,不应泛化纳入到伦理治理范畴

据不完全统计,目前全球已经发布了100多个人工智能伦理治理相关文件,各国政府、国际组织、学术界和产业界四方力量高度关注人工智能伦理治理问题。

“不应把治理与发展对立起来,而是要通过治理更好地为人工智能发展护航,努力实现人工智能高质量发展与高水平治理的平衡。”赵志耘称,伦理治理对人工智能活动进行良性引导,是人工智能健康发展重要保障。

赵志耘表示,推动人工智能伦理治理有三项关键要求,分别是把握好人工智能发展规律和特点,明确现实的伦理问题;把握好人工智能伦理治理的边界,在适当范围内规范人工智能发展;把握好发展与治理的平衡关系,以治理促发展。

她指出,当前人工智能技术尚未达到强人工智能和通用人工智能的水平,因此,不能将未来的伦理风险当做现实的风险,以免给人工智能发展带来不必要的负面影响。此外,还要明确人工智能治理的底线要求,伦理治理着重要强调促进创新与防范风险相统一的更高需求,而安全和法律问题作为不能越过的底线,不应泛化纳入到伦理治理的范畴。

建设人工智能评测平台(体系),帮助人工智能治理落地

谈及人工智能技术发展与应用的社会属性问题,国家新一代人工智能治理专业委员会委员、上海交通大学人工智能研究院首席顾问教授李仁涵将其归结为三个方面:安全问题、伦理问题、变异安全问题。

安全问题主要包括国家安全、社会安全、经济安全、个人安全等方面,伦理问题主要包括隐私、公平、透明、歧视、就业等领域,这两类安全问题目前已经发生了。而对于变异安全,即人工智能可能不可控而产生对社会与人类的伤害问题,目前尚未发生,属于非常规问题。

李仁涵表示,人工智能是一种通过机器来模拟人类认知能力的技术,对它的要求也需要像对人的要求那样,才能和谐相处。对于规范人工智能的治理。应从标准、规则、法律、监管、执法等方面着手。

目前,国际有关组织制定人工智能标准已经进入井喷期,国际人工智能治理工作证加速可操作化。对此,李仁涵认为,当前迫切需要建立相应的规则体系,一方面促进AI可持续健康发展,另一方面有利于与国际接轨,实现全球化发展。同时,也要建设人工智能评测平台(体系),帮助人工智能治理落地。

李仁涵表示,人工智能评测平台(体系)将成为未来社会发展的重要基础设施之一,是人工智能产业赋能各行各业持续健康发展的基础保障。平台(体系)也将是相关人才培养、成长、发挥作用的重要舞台和参与国际规则制定的重要基础,因此,要尽早规划,以“三步走”战略的方式尽快让评测平台(体系)落地。

将伦理融入人工智能全生命周期

近年来,AI技术的应用带来的伦理争议越发频繁:美国研究机构发布论文称AI设计了可自我繁衍的生物机器人Xenobot;此前的2019年,亚马逊等多家公司使用AI监控系统对

员工进行考核与解雇;而越发普及的人脸识别技术应用也引发社会广泛关注个人信息安全等问题。

对于人工智能治理的问题,薛澜认为,要考虑人工智能技术应用给经济社会运行带来的直接、间接的收益与成本,进行利弊权衡。要考虑人工智能技术应用对社会各种行为准则规范的影响,此外还要考虑人工智能技术应用长远的经济社会影响。

薛澜建议,要健全人工智能伦理与安全的治理体系;推进法律法规、标准规范的落地实施;建立多主体参与的对话机制,跟踪技术发展前沿,发现新的安全和伦理问题;建立人工智能前沿研究和应用的伦理评估、预警及管控机制;加强对人工智能研究及应用各相关利益群体的伦理教育,提高伦理意识;积极培育健康的智能文化与数字人文思想;加强人工智能前沿进展的科学传播和伦理普及,提高公众的认知水平。

“要将伦理融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构提供伦理指引,促进人工智能发展。”薛澜称。

谈及将伦理融入人工智能全生命周期,赵志耘表示,政府的责任是引导各类主体去重视伦理规范,嵌入操作,要充分体现全生命周期的理念。她举例表示,2019年科技部批复了18个城市试点为新一代人工智能创新发展试验区,在试验区建设中必不可少的环节是要做伦理治理规范试验,在每一个试验区方案中,对于伦理规范,各类主体如何去落实都有相应的操作规范。

人工智能变革创新模式与社会治理模式

人工智能领域的伦理问题与其他领域伦理问题何本质差异?这种差异对人工智能伦理治理范式又提出了怎样的要求?

对此,中科大机器人实验室主任、CAAI人工智能伦理治理工委会主任、全球人工智能理事会执行委员陈小平表示,最根本的差异是技术本身。过去的自动化技术只能替代人的一部分劳动,但现在人工智能,哪怕只是专用的人工智能,在专用领域远远超过了人、取代了人。有哲学家预测,除了做人工智能的人和做决策的人以外,其他97%的行业从业者工作都将被替代,这个根本原因还是在于技术。

谈及与其他行业伦理的差异,陈小平提出三点看法。

第一是可控性问题。如果未来实现了通用人工智能、强人工智能,或许所有的行业领域都可以被人工智能替代。陈小平表示,虽然目前看可能性不大,但理论上不能排除。一旦人工智能拥有通用能力,或许可以实现不依赖于人类的生存,对此必须高度重视。

第二是人工智能对创新模式的挑战问题。此前人类的技术不足以强大到对创新模式提出挑战,而目前即使是专用人工智能,也深刻改变了创新模式。

第三是进入新技术时代,人工智能与社会治理融合的问题。随着人工智能技术应用越发广泛,人类社会进入了一个本质上全新的时代,传统的社会治理模式不再完全有效,必须发展新的社会治理模式。

 

    责任编辑:李跃群
    校对:张亮亮