文 | 黄锦辉
以ChatGPT为代表的“生成式人工智能”(GenAI)技术于2022年横空出世,颠覆全球。普罗大众或迷信地认为人工智能无所不能,但事实上人工智能应用亦有隐忧。
工商业界担心“机器代人”,人类在职场的饭碗将被打烂,令打工一族忧心不已。但笔者更担心的是“机器杀人”,近期在“巴以冲突”及“俄乌战争”等乱局中,已经广泛应用军事人工智能。然而人工智能武器化是否洽当、是否合乎道德规范,一直备受争议。
有效行事常以目标为本,人工智能在军事应用上亦同出一辙,不论在数据分析、监察和侦测,人工智能都可以大派用场,提升军事效率及执行任务时的精准度,便利及优化军事决策。而且利用无人机、机器狗及其他机械人装置,能节省人手之余,亦能减少己方人命伤亡。
以国大量利用AI系统 轰炸加沙
再者,正规军队的前期培训需时,而且花费不菲,所以任何人员在战场上折损都是军方的极大损失。况且,对于一些人丁单薄的小国而言,人工智能的应用,可以弥补其军队数量不足的弱点,使它们不至于寡不敌众,任由他人无故欺凌。
此外,现时数码世界局势波谲云诡,危机四伏,应用人工智能更可令各国迅速作出反应。其中最能反映人工智能效益的是维护网络及信息安全。军队可以倚赖人工智能监察,并可以按预设指示,即时堵截网络攻击,甚至可以即时还以颜色。
然而,在现实战事中应用人工智能却引发许多问题。以以色列为例,该国使用“铁穹”防御系统,拦截敌方的火箭炮,据拦截率达85%以上,例如在今年4月抵挡伊朗无人机和导弹袭击上“铁穹”居功至伟。以色列在“巴以冲突”亦大量利用人工智能进行军事部署和攻击,“针对性”地轰炸“哈马斯”(Hamas)及“真主党”(Hezbollah)的据点和军事设施,大大削弱他们的作战能力。
当然,倚赖人工智能可以更精准地选择武器、把控攻击时间及命中目标。然而,“人”谁无错,人工智能也会失误的,例如以色列就曾发生误炸国际援助组织“世界中央厨房”(WCK)的事件,导致7名义务救援人员死亡。再者,有以色列记者发现以色列大量使用人工智能对加沙作攻击,是导致今次战争巴勒斯坦人伤亡枕藉的罪魁祸首。“巴以冲突”至今已造成巴勒斯坦地区4万余人死亡,远远多于2014年加沙战争的死亡人数。
以色列使用的人工智能轰炸系统名为“福音”(Gospel)。以“牧羊少年”(Alchemist)人工智能应用程式收集加沙武装分子的数据,再通过另一个人工智能系统“火药工厂”(Fire Factory)去分析“牧羊少年”所收集得来的数据,由人工生成目标。生成的目标会输送至“福音”系统,再由“福音”来决定轰炸目标、需用的弹药,并作出危险评估等。“福音”标示轰炸目标的速度远比人手快,因此以军能在不出一个月之内“团灭”哈马斯领导。再者,据报“福音”的目标是要对哈马斯造成人命伤亡的压力,不少平民家园因此而被炸毁,平民百姓因而无辜丧命。
误判占1成 不少百姓无辜丧命
此外,有传以色列另一套人工智能系统“薰衣草”(Lavender)是专门针对哈马斯特工家庭,这套系统准确率只有九成,换言之有一成目标是误判的,包括在加沙社区提供义务工作的医生和救援人员,死伤人数不少。
人工智能运算速度超轶绝尘,以人工智能进行军事部署,可以于极短时间内做到“团灭”工作。最近叙利亚政府军在10日内被打败,相信人工智能功不可没。叙利亚反对派武装能够直捣黄龙,显然是洞悉到叙利亚政府军的靠山伊朗及俄罗斯军队之行军布阵,了解到他们为应付其他战事而大幅撤军,叛军方能乘虚而入,最终占领首府大马士革(Damascus)。但叛军又如何掌握相关情报呢?如何能如此迅速作出部署和出击呢?相信由信息收集、战略策划、战术运用,都充分利用了人工智能技术,以迅雷不及掩耳的突袭,令叙利亚总统阿萨德(Al-Assad)政权倒台。
人工智能应用于军事,不论是其速度还是杀伤力,均令人毛骨悚然,与道德规范背道而驰。然而,商业界却对此潜在危害置若罔闻。如去年OpenAI公司的使用政策,倡议人工智能不该用于“具有高身体伤害风险的活动,特别是武器开发、军事及战争”;但经今年初修改后只保留了“不得使用其技术伤害自己或他人,并用作开发或使用武器为目的”,删除了“军事及战争”字眼。
联国须共商准则 规范军事用途
更恐怖的是各个军事强国都深怕落后,齐齐加入人工智能技术军事竞赛,不惜斥巨资研发军用人工智能。由此看来今日电影中的“人工智能战争”跷段,似乎已非天方夜谭。要防止此噩梦成真,联合国(UN)必须促使各国团结一起,共同努力定立准则,严谨地规范人工智能在军事(只在防护)上的用途。
【知识库】“薰衣草”系统是甚么?
•“薰衣草”(Lavender)是以色列国防军开发的人工智能系统,主要用于军事用途。
•这系统在加沙地区的空袭中,标记所有怀疑为哈马斯和巴勒斯坦伊斯兰圣战组织(PIJ)成员的军事人员作为潜在的轰炸目标,包括低级别的成员。
•系统的核心功能,是利用人工智能对加沙地区的230万居民进行大规模监控,然后评估和排名每个人参与哈马斯或PIJ军事分支的可能性。
•这个系统在战争初期,标记了多达3.7万名巴勒斯坦人及其住所为可疑的激进分子和可能的空袭目标。
•系统的准确度大约为90%,这意味系统可能会出现误判,将无辜平民误认为目标,引发了大量平民伤亡。
(作者系立法会议员,文章仅代表作者个人观点)