文 | 黄锦辉
人工智能(AI)技术发展一日千里,为社会和产业应用注入了无限的想像。无论是“自然语言处理”(Natural Language Processing, NLP)、“图像识别”(Image Recognition),还是“推荐系统”(Recommendation System),人工智能都展现出前所未有的效率和能力。但舆此同时,人们愈来愈多地感受到人工智能的另一面,道些系统在展现“聪明(intelligence)的同时,也常常表现出近乎“愚蠢”(lgnorance)的一面。学界舆业界将遣种现象称为“人工愚能”(Artihcial lgnorance)。实际上,·“人工愚能”并非轻描淡窝的调侃,而是揭示了人工智能愿用中不可忽视的局限,·官、产、学、研各界绝对不容忽视。
“人工愚能”的表现形式多样。例如“生成式人工智能”(GenAI)能生成流畅的语句,却可能答非所问;“图像识别”能轻松区分猫与狗,却可能将乌龟误判为手袋包;“推荐系统”能捕捉用户偏好,却会执着地推送一次性商品等,仿佛无法理解需求的偶然性。这些错误暴露了 AI 模型对人类常识、语境与价值缺乏足够理解。
“术高于道”理解判断欠佳
这种现象的根源在于 AI 依赖统计规律进行学习。它能够从大规模数据中发现相关模式,却缺乏因果推理能力。一旦场景偏离训练经验,其“鲁棒性”(Robustness,又即是“稳健性”)便迅速下降。理由是,AI 系统通常只针对单一目标进行优化,例如最大化点击率或最小化准确率,这种单维优化算法很容易偏离人类的多维需求,从而影响决策和推荐的实际价值。正因如此,AI 虽然能展现惊人能力,却常在理解和判断上表现欠佳,体现出“术高于道”的局限。
这一问题已引发国内外学术界的持续探索。例如,针对“大型语言模型”(Large Language Model, LLM)的“幻觉”(Hallucination)现象,即模型偶尔生成的回应与用户输入的“指示”(Prompt)不符、与先前生成内容矛盾,或与已有世界知识不一致的回答。为此,部分团队通过优化高质量的数据源来减少噪声,修正训练数据中的错误知识,并在模型训练与推理阶段调整参数,从而提升输出的准确性与一致性。此外,愈来愈多的研究尝试引入外部知识库或“知识图谱”(Knowledge Graph),实现动态讯息补充,使模型能够超越固有训练的知识边界,生成更贴近现实的答案。同时,研究者也致力于提升模型对自身知识局限的认知能力,让模型能够“知之为知之”,对回答的不确定性进行自我评估,从而生成更加稳健、可信的内容。这些方法旨在减少“人工愚能”的发生,使 AI 在实际应用中保持灵活性,并且增强其可控性。
医疗模型倘误判后果严重
“人工愚能”是风险所在,用户不容掉以轻心。在医疗领域中,若诊断模型因偏差而误判,后果可能极为严重;在金融场景中,若算法过度依赖历史模式,极端情况下可能加剧系统性风险;在企业管理中,若决策者过分依赖 AI 的建议,就可能因缺乏背景常识而导致方向性的失误。因此,“人工愚能”突显了 AI 的能力边界,提醒我们必须保持谨慎。
化解“人工愚能”的关键建在于人机协作。AI 适合作为增强人类能力的工具,而非独立决策者。它擅长处理数据密集型任务,却需要人的监督与判断。系统设计不能只追求准确率或效率,还应关注“可靠性”(Reliability)、“公平性”(Equality)及“可解释性”(Explanability)。同时,AI 应用是动态迭代过程,通过持续监控和反馈,不断修正“愚能”的一面,使其逐步与实际应用需求对齐。在战略部署和日常管理中,人机协作与持续监督,是确保 AI 发挥价值、规避风险的关键。
《庄子》有言:“知其不可奈何而安之若命”,AI 的智能与愚能是并存的,应理性看待。AI 带来巨大潜力,而“人工愚能”提醒 AI 用户要保持清醒与审慎。面对 AI,人类既要欣赏其能力,也要审视其局限,在理性与协作的框架下,方能充分发挥智能潜力,同时避免“愚能”带来的风险,走得更稳、更远。
(作者系香港立法会议员、香港中文大学工程学院副院长(外务) 、香港专业及资深行政人员协会副会长。文章仅代表作者个人观点)
今日热搜
查看更多



