“未来10-20年,AI技术将渗透到与人类密切相关的领域,如医疗、司法、生产、金融技术等风险敏感领域。如果AI技术出错,会造成更大的系统风险。”2020年12月29日,在未来科学奖周举行的“青年对话”上,清华大学计算机系任命的副教授、中国科协全国委员会委员崔鹏说。
活动期间,腾讯科协秘书长张谦表示,面对AI技术带来的风险问题,首先要注意的是保持AI产品的底线,即避免技术之恶。
对此,美团首席科学家夏华夏认为,在法律法规方面还有很多工作要做,包括制定AI行业的标准和规范,从国家层面完善和颁布相关法律法规,以控制AI技术的发展。
谈到AI标准化的实践,中国人民大学法学院副教授、未来法治研究所社会责任与治理中心主任郭锐提到了两个原则:根本利益原则和——人的责任原则。“这两个原则的目的是使AI的决策和行动尽可能避免通过人为干预对人造成伤害”。
“法律对自己来说是不够的。”郭锐承认法律本身有局限性。要规避AI技术的潜在风险,管理者需要对AI技术有一个透彻的了解,这样才能对其进行有效的控制。“法律是建设包容性社会的重要工具,法律职业必须与企业合作。技术等领域的专家可以通过法律达到管理AI技术的目的。”
星杰资本管理合伙人方圆认为,所有核心数据平台都处于AI风险管理的重要位置。“在互联网和大数据时代,大平台是数据收集者和守护者。明确界定数据使用权很重要,对AI在全社会的发展意义重大。
“AI技术的风险管理需要科技工作者、企业管理者、政策制定者、相关法律专家和投资者的共同努力。”中国科学院计算技术研究所研究员山石光说。
与会者除了保持底线外,还提到要明确界限,引导技术好。
崔鹏指出,犯错并不是AI独有的风险,人也会犯错。“但大多数人的错误都是可控的、可预测的。目前AI技术是否出错是不可预测的,或者出错后人们会发现其错误机制无法从技术层面解释。这就涉及到AI在决策和行为上的边界问题。”
明确界限具体包括AI需要明白自己能做什么不能做什么,人需要明白AI能做什么不能做什么。崔鹏认为,如果不明确界限,AI会犯更多低级错误,带来更大风险。
郭锐认为,AI目前遇到的伦理问题,其实是因为它远没有达到人类的智力水平,而是被赋予了为人类决策的责任。“有人以AI技术为借口,以科学的名义做出不道德的决定,这是错误的。人需要做决定的地方,就应该做决定。”。
在2020年新冠肺炎爆发肺炎期间,一套算法被用来获得英国学生的分数。结果,近40%的学生分数低于老师的估计分数,导致许多学生错过了名校。山石光说,一些人工智能模型或数据模型没有考虑到社会公平和积累的优势,这使得计算过程看起来严谨,结果准确,但这不足以支持人工智能做出科学决策。
有专家说,这不是AI技术的错。夏华夏表示,使用AI技术的人和企业要承担社会责任。AI技术需要全社会发展到一定阶段,形成良好氛围。张谦提到技术并不可怕,而且