文|黄锦辉
人工智能(AI)研究始于上世纪五十年代,目标是“机器代人”,就此AI系统的可信性尤其重要。顾名思义,这里的“可信性”是指AI所产出的答案是否可靠。科技发展日新月异,过去将近70年AI的功能不断地在进步,本文以科普教育为目的,简介科学家为提升AI可信性所引进的不同技术。
第一代AI系统主要基于规则(Rule-based),其运算方法是模拟人类如何利用经验(Experience)及知识(Knowledge)去解决问题。但由于当时硬件(包括记忆体、处理器等)能力的局限,第一代AI系统仅能有效地调用少量的规则,约束了其应用覆盖面。因此当时的市场认为AI技术偏弱、不可靠,只适合作制造玩具系统而已,不切实际。所以,AI研发初期遇上严重瓶颈,进展缓慢。
第三代AI的突破在于内容生成
为弥补低应用覆盖率的短板,电脑科学家引进数据驱动(Data Driven)的人工智能。改进的基本概念是透过“集思广益”,并采用“机器学习”技术去落实。做法是从“训练数据集”(Training Data Set)着手,让AI系统去获取更多相关的有用资料,从中吸取更广泛的经验。理论上,在完美的情况之下,训练数据越多,生成的AI系统的经验便会越丰富,解决问题的能力亦会更强。
透过海量数据的训练,第二代AI赋有极强的“分类”(Classification)功能,较为人津津乐道的应用包括图片分类、人脸识别等。分类的准确度非常关键,直接影响AI系统的可信性。因此,系统面世前一般会进行准确度测试。技术上,AI分类的决定可以“判对”(True)或“判错”(False);而数据内容则有“正面”(Positives)及“负面”(Negatives),例如数据是一堆“猫”和“不是猫”的圆片,一张“猫”的图片就是“正面”(Positives),一张“不是猫”的图片就是“负面”(Negatives)。所以,测试时系统产出的分类结果有四个可能性:(一)“判对正面内容”(True Positives,TP),即正确地判断“猫”的图片是猫;(二)“判对负面内容”(True Negatives,TN),即正确地判断“不是猫”的图片不是猫;(三)“判错正面内容”(False Positives,FP),即错误地判断“猫”的图片不是猫;(四)“判错负面内容”(False Negatives,FN),即错误地判断“不是猫”的图片是猫。高度可信AI必须确保系统每次都“判对”,即(一)及(二)皆要达到最高值,而同时(三)及(四)则要达最低值。
随着全球5G、大数据、深度学习、AI硬件技术的突飞猛进,AI研究已进入新纪元,能够解决更多、更复杂的问题。除了“分类”功能之余,第三代AI的突破在于内容生成。用户提出要求(“提示”,Prompt),“生成式人工智能”(GenAI)技术便会产出相应的结果。类似地通大规模的“深度廖习”,GenAI系统建立一个“大语言模型”(Large Language Model,LLM),当中深度分析了前人的经验和知识,并基于这些“已知”(Knowns)的智慧,生成满足用户要求的答案。
希望“不懂”时乾脆拒绝作答
为保障系统的可信性,第二代AI的做法是减少误判,从输出(Output)着手,确保产出的结果“判对”值高企;而第三代AI更进一步地从“提示”(输入,Input)端出发。从知识角度看,“大型语言模型”拥有广泛的世界知识,而基于LLM培训出台之GenAI系统的认知能力,其实依然会受限于LLM的知识范圈。因此,在现实操作中,面对开放式的用户“提示”(例如“问答”(O&A))的知识密集型任务时,在有限的知识基础下,GenAI回答难免会出错。这些错误可能会对社会产生重大风险,并降低GenAI的可信性。所以,GenAI需要提供与现实世界一致的准确识息,它要知道自己知道什么和不知道什么,并通过“自然语言”(Natural Language)表达出来。
GenAI系统面对用户输入的要求(即“提示”),作答时要么是“懂”(Know)或“不懂”(Unknow);同时系统背后“大语言模型”的内容要么是“已知”(Knowns)的或“未知”(Unknowns)的知识。在此基础之下,GenAI的输出有四个可能性:(一)“懂已知(Know Knowns);(二)“懂未知”(Know Unknowns);(三)“不懂已知”(Unknow Knowns);(四)“不懂未知”(Unknow Unknowns)。当前AI研究希望达到的是每当GenAI系统碰上“不懂”的用户要求时,便乾脆拒绝作答(say no),免得它信口雌黄。如此这般,GcnAl的可信性便可大大提升。
人工智能全球普及化,势不可当。例如,最近新加坡政府在新一份《财政预算案》中提出将在未来5年投资10亿坡元(约58亿港元)发展AI,包括大力发展AI晶片、超算中心、11个不同语言的LLM等。概括而言,AI发展除了在科技层面力求突破之余,AI的可信性亦非常关键,绝对不容忽视,它不但影响商业,更其者会对国家安全造成隐患。
(作者系立法会议员、香港中文大学工程学院副院长(外务)、香港专业及资深行政人员协会副会长,文章观点仅代表作者本人)
https://res.youuu.com/zjres/2024/2/26/Frw5kdwoIkz4EryjA2h0bHFP6tqJdepVvXh.jpg
扫描二维码分享到手机
+关注
文|黄锦辉
人工智能(AI)研究始于上世纪五十年代,目标是“机器代人”,就此AI系统的可信性尤其重要。顾名思义,这里的“可信性”是指AI所产出的答案是否可靠。科技发展日新月异,过去将近70年AI的功能不断地在进步,本文以科普教育为目的,简介科学家为提升AI可信性所引进的不同技术。
第一代AI系统主要基于规则(Rule-based),其运算方法是模拟人类如何利用经验(Experience)及知识(Knowledge)去解决问题。但由于当时硬件(包括记忆体、处理器等)能力的局限,第一代AI系统仅能有效地调用少量的规则,约束了其应用覆盖面。因此当时的市场认为AI技术偏弱、不可靠,只适合作制造玩具系统而已,不切实际。所以,AI研发初期遇上严重瓶颈,进展缓慢。
第三代AI的突破在于内容生成
为弥补低应用覆盖率的短板,电脑科学家引进数据驱动(Data Driven)的人工智能。改进的基本概念是透过“集思广益”,并采用“机器学习”技术去落实。做法是从“训练数据集”(Training Data Set)着手,让AI系统去获取更多相关的有用资料,从中吸取更广泛的经验。理论上,在完美的情况之下,训练数据越多,生成的AI系统的经验便会越丰富,解决问题的能力亦会更强。
透过海量数据的训练,第二代AI赋有极强的“分类”(Classification)功能,较为人津津乐道的应用包括图片分类、人脸识别等。分类的准确度非常关键,直接影响AI系统的可信性。因此,系统面世前一般会进行准确度测试。技术上,AI分类的决定可以“判对”(True)或“判错”(False);而数据内容则有“正面”(Positives)及“负面”(Negatives),例如数据是一堆“猫”和“不是猫”的圆片,一张“猫”的图片就是“正面”(Positives),一张“不是猫”的图片就是“负面”(Negatives)。所以,测试时系统产出的分类结果有四个可能性:(一)“判对正面内容”(True Positives,TP),即正确地判断“猫”的图片是猫;(二)“判对负面内容”(True Negatives,TN),即正确地判断“不是猫”的图片不是猫;(三)“判错正面内容”(False Positives,FP),即错误地判断“猫”的图片不是猫;(四)“判错负面内容”(False Negatives,FN),即错误地判断“不是猫”的图片是猫。高度可信AI必须确保系统每次都“判对”,即(一)及(二)皆要达到最高值,而同时(三)及(四)则要达最低值。
随着全球5G、大数据、深度学习、AI硬件技术的突飞猛进,AI研究已进入新纪元,能够解决更多、更复杂的问题。除了“分类”功能之余,第三代AI的突破在于内容生成。用户提出要求(“提示”,Prompt),“生成式人工智能”(GenAI)技术便会产出相应的结果。类似地通大规模的“深度廖习”,GenAI系统建立一个“大语言模型”(Large Language Model,LLM),当中深度分析了前人的经验和知识,并基于这些“已知”(Knowns)的智慧,生成满足用户要求的答案。
希望“不懂”时乾脆拒绝作答
为保障系统的可信性,第二代AI的做法是减少误判,从输出(Output)着手,确保产出的结果“判对”值高企;而第三代AI更进一步地从“提示”(输入,Input)端出发。从知识角度看,“大型语言模型”拥有广泛的世界知识,而基于LLM培训出台之GenAI系统的认知能力,其实依然会受限于LLM的知识范圈。因此,在现实操作中,面对开放式的用户“提示”(例如“问答”(O&A))的知识密集型任务时,在有限的知识基础下,GenAI回答难免会出错。这些错误可能会对社会产生重大风险,并降低GenAI的可信性。所以,GenAI需要提供与现实世界一致的准确识息,它要知道自己知道什么和不知道什么,并通过“自然语言”(Natural Language)表达出来。
GenAI系统面对用户输入的要求(即“提示”),作答时要么是“懂”(Know)或“不懂”(Unknow);同时系统背后“大语言模型”的内容要么是“已知”(Knowns)的或“未知”(Unknowns)的知识。在此基础之下,GenAI的输出有四个可能性:(一)“懂已知(Know Knowns);(二)“懂未知”(Know Unknowns);(三)“不懂已知”(Unknow Knowns);(四)“不懂未知”(Unknow Unknowns)。当前AI研究希望达到的是每当GenAI系统碰上“不懂”的用户要求时,便乾脆拒绝作答(say no),免得它信口雌黄。如此这般,GcnAl的可信性便可大大提升。
人工智能全球普及化,势不可当。例如,最近新加坡政府在新一份《财政预算案》中提出将在未来5年投资10亿坡元(约58亿港元)发展AI,包括大力发展AI晶片、超算中心、11个不同语言的LLM等。概括而言,AI发展除了在科技层面力求突破之余,AI的可信性亦非常关键,绝对不容忽视,它不但影响商业,更其者会对国家安全造成隐患。
(作者系立法会议员、香港中文大学工程学院副院长(外务)、香港专业及资深行政人员协会副会长,文章观点仅代表作者本人)
https://res.youuu.com/zjres/2024/2/26/Frw5kdwoIkz4EryjA2h0bHFP6tqJdepVvXh.jpg