根据国际调研机构IDC于去年第三季公布,人工智能(AI)市场于2020年的全球收入超过1,500亿美元,按年比较增长约12.3%。(中新社资料图片) 根据国际调研机构IDC于去年第三季公布,人工智能(AI)市场于2020年的全球收入超过1,500亿美元,按年比较增长约12.3%,并预计至2024年,全球AI市场收入会超过3,000亿美元,5年复合年增长率(CAGR)为17.1%。然而,面对全球人工智能市场的增长,世界各地政府并没有盲目地接受,有政府对AI应用对社会及人民所造成的负面影响忧心忡忡。 针对此问题,欧盟委员会早于2020年初发布《人工智能白皮书》,探讨人工智能技术及应用在欧洲的优势及可靠性,并就欧洲如何促进人工智能发展及解决相关风险进行研究。该委员会更于今年4月进一步推出人工智能监管草案(简称《草案》),建议全面禁止大规模监控,以及基于人工智能的社会信用系统。 实际上,这草案被媒体视为《人工智能白皮书》的法律延伸,目的在于为具可靠性人工智能的实践提供牢固的法律框架。本文概论《草案》所提出的原则,以供本地科技创新业界参考。 人脸识别 禁大规模无差别应用 「人脸识别」技术在全球大行其道,尤其是在保安场境中的军事和民事应用,更是如雨后春荀。由于「人脸识别」存在侵犯个人隐私的风险,不少政府对于其广泛应用有保留,例如美国三藩市政府已全面禁止该技术在公开场合使用,而香港政府则因为民众团体反对,需要重新考虑多项基于「人脸识别」的保安应用方案。 不过,欧盟委员会成员并非一面倒全面禁止使用此技术,因此《草案》建议,在欧盟各地推动全面禁止无差别的大规模应用,但在以下3种特定情况下,可获宽松处理:1、寻找失踪儿童;2、解除恐怖袭击的威胁;3、在法律允许范围内追查特定的刑事犯罪嫌疑人。广义而言,「人脸识别」是生物识别的一种,因此《草案》的建议也适用于如指模、掌纹、虹膜等个人生物特征。 社会信用系统 势损公平公正原则 欧盟委员会认为,利用人工智能根据社会行为或人格等特征,进行用户信用评估,会造成不可预见的后果,导致个人或特定群体的权益受到损害。现实中不同的社会文化,会产生不同的算法(判断)偏见,而算法偏见将直接对信用评估产生影响,如此社会信用系统必然会侵蚀社会公平公正的基本原则,因此,《草案》提出禁止落实相关的人工智能应用。 在这方面的典型例子,首当其冲的是数码化的执法和法院系统。《草案》指出,执法当局使用人工智能技术,可能会导致权力严重失衡,侵犯个人基本权益。如果训练这些算法的数据质量不高,或算法的准确性及稳健性未能达到执法要求,那那么程序性正义、公平审判权、辩护权及无罪推定的权利就会受到严重冲击。 欧盟委员会尤其将个人风险评估、测谎仪、辨别情绪等应用归为高风险,而在刑事诉讼中,基于人工智能技术对证据进行可靠性评估,对嫌疑人的性格特征进行判断,或基于过去的犯罪行为进行推定等行为,也被归为高风险应用范围。 总言之,虽然《草案》没有明确地提出落实细节,但欧盟委员会在这方面的工作是具前瞻性的,是当今首个建议以法律手段禁止人工智能「操控」人类思想的机构。事实上,欧盟在科技立法工作上不断地追求体制创新,《草案》是继《一般数据保护条例》(GDPR)之后再一次领先全球之举,值得香港政府为加强创新及科技发展进行「检视现行法例和法规」过程中借镜。 (文章观点仅代表作者本人)作者为香港中文大学工程学院副院长(外务)、香港资讯科技联会荣誉会长来源:香港经济日报