文|黄锦辉
本文就AI一词提出另类的解读,让读者能从多角度反思此技术的功能。
首先,“A”可以有两种解读:一是传统的Artificial,即是“人工”所为的;二是Alien“异形”,这里指的并非电影中的“外星人”,而是指“破坏者”所为的“坏人工”。而“I”也同样地可以有两个意思:一是传统的Inteligence,即“智能”,用作形容聪明的、正确的思维;二是Ignorance“愚能”,简单而言正是“智能”的相反。这些解读并非笔者信口雌黄,是有根有据的,出自于多个国际研究课题。以上解读引的不同配答会带出四个不同的AI定义。
“人工愚能”误判后果严重
(1)“人工智能”(Artificial Intelligence)技术全球炙手可热,应用遍布各行名业。它是由美国电脑科学家麦卡锡(John McCarthy)于1956年首次提出的,目的是研究如何让机器(软硬件)展现类似人类的智能,并能从经验中学习、解决问题的科学及工程学科。“人工智能”是普罗大众认识的AI定义,其终极目标是透过“图灵测试”(Turing Test)而达致“机器代人”的愿境。
(2)“人工愚能”(Artificial Ignorance)是指人类制造的愚蠢,主要是由“无知”而产生。“无知”只是缺乏知识,但不一定是代表甚么坏事。事实上,每个人都会对某些事物一无所知或了解不深。但从“机器代人”目标来看,一个愚蠢无知的机器人所作出的决定,非常危险。例如在医疗领域,如果诊断模型因偏差而误判的话,后果可能极为严重,影响健康甚至乎性命;在金融场景中,如果演算法过度依赖历史模式的话,极端情况下可能加剧系统性风险;在企业管理中,如果决策者过分依赖建议的话,就可能因缺乏背景常识而导致方向性的失误。因此,“人工愚能”凸显了AI的潜在缺点,提醒AI用户“人在回圈”(Human In The Loop,HITL)的重要性。
人类必须对AI生成的回应保持清醒,谨慎监控,删除因“无知”而生成的“愚蠢”、不尽不实的回应,减低“人工智能安全”风险(注:“人工智能AI安全”是国家安全中20大范畴之一)。
“异形智能”战场殃及无辜
(3)“异形智能”(Alien Intelligence)。最近哈佛大学理论物理学教授勒布(Avi Loeb)提出“异形智能”(Alien Intelligence)的观点。与电影系列《异形》(Aliens)类同,来自“外星”的“异形”怪物能量超高,破坏力极强,不时袭击人类。勒布教授相信未来“异形智能”亦同样会冲击人类的智能。当前AI应用犹如水银泻地,无孔不入;它的运作及文化很容易会操控人类的行为及思想。例如,以色列AI武器(例如“香薰草”,Lavender系统)载有行军作战知识,用作引导以军袭击行动,然而它在战场上误中副车的实例却多不胜数,殃及无辜。因此,“异型智能”对世界的影响极度深远,全球都非常担心。泰国前副总理兼外交部长Don于6月初在香港举办的“博鳌亚洲论坛国际科技与创新论坛2025年香港会议”中致辞,强调“异形智能”的杀伤力,对人类构成极大威胁。因些,他认为“AI向善”(AI for Good)对人类尤其重要,人类必须遏制“异形智能”的风险,防止“异形”(破坏者)企图控制人类。
(4)“异形愚能”(Alien Ignorance)顾名思义是指破坏者利用AI技术例如深度学习(Deep Learning,DL)中的无知漏洞,破坏AI的智慧,刻意制造“愚蠢”、能力极差的机器人,使AI弄巧反拙造成“机器愚人”。“机器愚人”不禁让笔者联想起英国作家奥威尔(George Owen)于1949年的政治讽刺小说《一九八四》,当中的“真理部”(Ministry of Truth)。这个部门主要负责根据“大洋国”政府对当时现实及宣传需要,改写历史文献、报纸及文学等著作。但实际上是“大洋国”领导人“老大哥”(Big Brother)因应所需,强行伪造的“真理”而已。
“异形愚能”成破坏者武器
在今天AI世代,资讯删改、文化洗脑等行为实在是易如反掌。当前世界大乱,以巴冲突、俄乌战争、南北韩对峙、南海争议等各参与国字都在实体和虚拟战场上激斗,“异形愚能”会是他们的尖锐武器。同样地,“异形愚能”亦会是商业非法分子用作诈骗之炙手可热的高新科技。
总体而言,“人工智能”面对“幻觉”(Hallucination)、“黑箱”(Black Box)、“偏见”(Biased)等3大技术问题,暴露出系统“无知”的弱点。它们都是“异形”(破坏者)的目标,会设法从中输入坏资讯及知识,破坏社会安宁。国际AI组职必须携手合作,杜绝这些高危的行为。
---------------------------------
【知识库】人工智能“黑箱”是甚么?
•在人工智能里,“黑箱”(Black Box)指一种看得到输入和输出,但无法清楚理解中间怎么运算和做决策的模型或系统。
•模型会给你一个看起来有用的答案,但人类通常说不出,它到底是怎么一步步得出这个答案的,这种“不透明的决策过程”就是黑箱问题。
•如果用黑箱模型来做医疗诊断、放贷审批、司法判决辅助等,使用者可能会问:“为甚么是这个结果?”却得不到可理解的理由。
•愈来愈多国家和行业要求“可解释性”,希望把黑箱变得更透明,至少能说出哪些特征或因素影响了决策。

(作者系立法会议员、香港中文大学工程学院副院长(外务)、香港专业及资深行政人员协会副会长,文章仅代表个人观点)
今日热搜
查看更多



