「自主决策AI」与「开源AI」的监管方向成为全球热话。有鉴于此,岭南大学(岭大)与意大利博洛尼亚大学一连两日(10月25日至26日)合办「第二届人工智能治理技术国际研讨会」。该研讨会是「第28届欧洲人工智能大会」的一部分,汇聚多位世界顶尖专家、学者与政策制定者,旨在提升AI风险评估、责任追踪及安全保障等方面的监测,促进亚洲与欧洲在AI治理上的跨区域交流。为期两天活动共吸引逾150名学者和学生参与。
研讨会于博洛尼亚大学工程学院以线上及线下形式进行,聚焦三大核心议题,包括(一)「开源AI」的治理;(二)「自主决策AI」的风险与治理;以及(三)迈向「以人为本的AI」的技术。

岭大副校长(研究及创新)及唐天燊机器学习讲座教授姚新教授就「开源AI治理」发表专题演讲。他指出,人工智能正迅速改变世界,但AI透过内部运算所作出的建议或决策,背后原因仍然模糊,业界有必要透过技术提升AI模型的透明度和可解释性。他表示:「监管AI不仅是伦理或法律的问题,更需要利用技术支援监测、审计与问责,推动发展更可靠、可监管的AI系统。我们希望就AI治理的问题,将『亚洲观点』带入欧洲讨论平台,同时汲取欧洲的经验,促进全球在AI技术开发与应用方面制定蓝图。」

IBM研究部(东京)资深技术人员Takayuki Osogami博士指出,某些AI系统可以自己做决策、计划未来甚至制定策略,这类「自主AI」如果没有适当规管,可能带来严重风险,包括危及人类安全或引发全球性灾难。他认为,目前大部分规管只看AI的运算能力大小,这不足以判断真正的风险。他建议应观察AI系统「自主行动的程度」,即它能自己做多少决策,来作为评估风险的指标,这比单纯看它处理的数据或环境更准确。
欧洲人工智能、数据与机器人协会主席 Emanuela Girardi女士指出,近年出现的「自主决策AI」与「实体AI」,能在数码世界或现实中自行决策和行动,带来前所未有的管治挑战。这些AI系统几乎毋须人类监督就能运作,远超现有针对人类操作系统而设的规管范围,可能引发多层面的风险。例如,「自主决策AI」可能采取意想不到的方式完成目标,甚至透过心理手法影响用户;而「实体AI」则可能出现安全问题,从自动驾驶汽车到家用机械人,一旦出错可能造成伤亡或财物损失。无论是AI伴侣可能引发的心理操控,还是工业及家居自动机械人的部署,都显示政府和机构目前仍难以跟上快速发展的新技术。
她又指出,目前全球AI管治碎片化、缺乏协调,即使有不少国家推出伦理原则或指引,仍未有具约束力的规管框架。她提出,欧洲及全球层面都需要建立可行的管治框架,确保AI符合人类价值观并接受有效监管。
图尔库大学资讯系统科学教授Matti Mäntymäki教授在研讨会上指出,企业需要将伦理原则和监管要求这些抽象概念,转化为应用AI的实际决策流程和问责机制。他又分享与业界合作五年的研究成果,提出一套专为不同组织设计的AI治理框架,在实际应用中得到的宝贵经验和教训,能为不同企业建立可靠的AI治理提供清晰指引。

其他参与研讨会的讲者和嘉宾,均为世界各地学术界、产业界和政府部门等不同领域的知名且极具影响力的学者,包括岭大数据科学学院工业数据科学部副教授刘佳琳教授;慕尼黑工业大学人工智能伦理研究所所长Christoph Lütge教授;伦敦大学学院计算机科学系教授Mirco Musolesi教授;费拉拉大学数学与计算机科学系教授Fabrizio Riguzzi教授;博洛尼亚大学法律理论与人工智能与法律、法律哲学教授Antonino Rotolo教授;Convergence Analysis人工智能安全研究员Elliot Mckernon博士;特伦托大学博士后研究员Daniele Proverbio博士;麦基尔大学研究员Tomer Jordi Chaffer先生;弗劳恩霍夫智能分析与资讯系统研究所资深数据科学家Rebekka Görge女士;以及生成式人工智能共享平台联合主席Anni Lai女士。
请按此了解更多「第二届人工智能治理技术国际研讨会」的详情。
今日热搜
本周热搜
本月热搜
查看更多



