守住产品底线,防范人工智能作恶
“未来10—20年,AI技术将渗透至与人类密切相关的领域,比如医疗、司法、生产、金融科技等风险敏感型领域,AI技术如果犯错,就会造成较大系统风险。”2020年12月29日,在未来科学大奖周举办的“青年对话”活动中,清华大学计算机系长聘副教授、中国科协全国委员会委员崔鹏说。
活动中,腾讯科学技术协会秘书长张谦表示,面对AI技术所引起的风险问题,首先应该关注的是守住AI产品底线,即避免技术作恶。
在这方面,美团首席科学家夏华夏认为,法律法规方面需要做大量工作,包括制定AI行业的标准、规范,以及从国家层面完善、出台相关法律法规,从而对AI技术发展进行把控。
谈及AI标准化的实践,中国人民大学法学院副教授、未来法治研究院社会责任和治理中心主任郭锐提到两个原则——人的根本利益原则和责任原则,“这两个原则的宗旨是让AI的决策和行动尽可能通过人的干预来避免对人的伤害”。
“徒法不足以自行。”郭锐坦言,法律本身也存在局限,规避AI技术潜在风险,需管理者对AI技术有透彻的了解,这样才能对其进行有效管制,“法律是建立包容性社会的重要工具,法律界要和企业、技术等方面专家合作,这样通过法律来对AI技术进行管理约束的目标才能达成。”
星界资本管理合伙人方远认为,各大核心数据平台处于AI风险管理的重要位置,“在互联网和大数据时代,大平台是数据的采集者也是守护者。务必要对数据使用权做出清晰界定,这对整个社会的AI发展有重要意义”。
“AI技术的风险治理需要科技工作者、企业管理者、政策制定者、相关法律专家以及投资人多方努力。”中科院计算所研究员山世光说。
除了守住底线,与会者还提到,要厘清边界,引导技术向善。
崔鹏指出,犯错并非AI特有的风险,人也会犯错。“但人犯错大多数可控、可预测。而目前AI技术犯错的话是不可预测的,或者犯错后人们会发现其犯错机制是无法从技术层面解释的。这涉及到AI在决策和行为上的边界问题。”
厘清边界具体包括AI需要明白它会什么、不会什么,以及人需要明白AI什么事能做、什么事不能做等问题。崔鹏认为,如不厘清边界,AI还会犯更多低级错误,带来更大风险。
郭锐认为,目前AI遇到的伦理问题,实际上是因为它远未达到人类智能的程度,却已被赋予为人类做决策的责任,“还有人把AI技术当作借口,用科学的名义做不符合伦理的决策,这样做是不对的。需要人决策的地方应该由人决策”。
2020年新冠肺炎疫情期间,英国用一套算法得出学生成绩,结果近40%的学生成绩低于教师的预估分数,导致很多学生与名校失之交臂。山世光说,有些人工智能模型或数据模型没有考虑到社会公平、优势累计恶果,导致看起来运算过程很严谨、结果很准,但却并不足以支持AI做出科学决策。
有专家表示,这并非AI技术的错。夏华夏说,真正应承担社会责任的是使用AI技术的人、企业等。AI技术向善需要社会整体文明发展到一定阶段,形成良好氛围。张谦则提到,技术并不可怕,可以通过技术进一步发展解决技术存在的问题。
山世光称:“说到底,我们还是希望AI技术能得到健康发展,满足对科技真、善、美的追求。”
来源:科技日报