文|黄锦辉「生成式人工智能」(GenAI)应用日渐普及。以ChatGPT为例,「生成式人工智能」技术改变了过往人工智能以「检索」为主的功能,至今天以「对话」为主。这改变近年引发起社会科学家对「人机交互」对社会之影响的好奇,推出「人工智能社会科学」(Social Science for AI),例如心理学家(Psychologist)研究「实体人」与「虚拟人」之间沟通的关系。这关系无疑会对现实社会中的决策(例如商务、政策等)影响甚深,政府绝对不容忽视。因此这领域的研究非常重要,有助避免决策时产生不必要的错误,降低社会风险。本文以「虚拟人」为主角,简介它在扮演不同角色时所用的技术和潜在风险。「人机交互」影响社会一般而言,非技术人士认识的人机对话应用(例如ChatGPT)中「现实人」是主体,而「虚拟人」是客体,通常是被动被操作。用户输入「指示」(Prompt),ChatGPT因应地作回答解题或执行任务。例如在「问与答」(Q&A)应用中,「指示」是问题导向的,基本上宜以RPGS公式来设计。角色(Role, R):指定系统背后「大型语言模型」(LLM)所扮演的角色或人设;问题(Problem, P):清晰描述用户需要解决的问题及背景,描述的讯息愈详细具体,人工智能对问题的理解便愈到位,解决方案便愈具针对性;目标(Goal, G):用户期望人工智能回答、解决、完成的具体目标要求;方案(Solution, S):要求人工智能如何输出方案,如格式、风格、口吻、示例等。然而,一般用户(特别是大老板)下指示时未必能细节入微,若然指示不加纠正的话,回应质素便会差强人意,甚至导致风险。因此,「虚拟人」要具备系统端的「指示工程」(Prompt Engineering)技术,整理并优化不完整的指示。推荐系统难知悉客户情绪现实中,「虚拟人」担当主体而「现实人」为客体的应用案例比比皆是,较为人津津乐道的非「推荐系统」莫属。「虚拟人」设法不断地在社交网络上透过与「现实人」交谈对话,从中去了解「现实人」用户的日常喜好,经仔细数据分析之后,主动向他提出产品推荐。在正常情况下,「推荐系统」技术可派用场;但由于人工智能技术在对话中的「情感分析」(Sentiment Analysis)技术,用作了解客户当刻情绪还未完全可靠,所以实时推荐的准确度还有待完善。传统心理学研究较关注人的主体和客体角色,但在网络世界中「虚拟人」经常被用作「中介人」(或代理人),服务两端「现实人」用户,即老板和客人。老板给予「虚拟人」服务客人的指示(包括要求和目标等),它便奉命执行,以目标为本,在老板的目标之下,设法满足客人的要求,把客人提出的任务完成。在「中介」角色中,人们可以利用「虚拟人」来伪装、美化或执行他们不当的,包括引发不可靠、具偏见、不公平价值取向的重要非道德行为。「虚拟人」的谈吐举止,以至其表现,是透过「大型语言模型」训练而成的,所以如何识别此等不道德的「大型语言模型」内之潜讯息,以及如何回应它,是「生成式人工智能」研究的重要一环。最后,值得大家留意的是心理学家的道德观。「道德心理学」围绕着三类主体和客体:人类、其他动物和超自然存在物。随着人工智能迅速发展,相关学者很自然地把研究对象延申至第四类:智能机器。如此看来,人工智能在现实社会中似乎是与超自然体看齐,那么ChatGPT等工具是人、是神还是鬼呢?是好还是坏呢? (作者系立法会议员、香港中文大学工程学院副院长(外务)、香港专业及资深行政人员协会副会长,文章仅代表作者个人观点)来源:香港信报