工作笔记

二级分类:

如何应对人工智能六大“癌症”?


据美国《福布斯》杂志网站9月2日发表题为《人工智能癌症:威胁人工智能未来的隐藏缺陷》的文章,作者是萨加尔·古普塔。内容如下:

当我们谈论人工智能(AI)时,通常是说起它取得的突破:提升生产力、优化运营效率、提供预测性洞见以及改进用户体验等。然而,尽管到处弥漫着一片乐观情绪,我们现在要面对AI阴暗的一面了:它的痼疾。

作为一名领导过企业级数字化转型、监管过AI系统在医疗、金融和物流领域部署的首席信息官,我已经认识到这些系统性问题不仅仅是漏洞或不足,而且是“AI癌症”。就像生物学意义上的癌症一样,这些缺陷通常悄无声息地扩散,破坏系统的完整性,如果不加以“治疗”,可能造成无法弥补的伤害。

AI癌症

以下是我认为反复出现、困扰AI系统的六大“癌症”。

1.固化不平等的偏见

AI的水平高低完全取决于我们“投喂”给它的数据。遗憾的是,其中很多数据反映了几十年来的社会、种族和经济偏见。从歧视女性的招聘算法到错误识别有色人种的面部识别系统,AI有可能复制甚至放大我们最腐朽的人类偏见。当这种偏见在决策过程中形成机制体系时,其造成的损害不仅仅是技术性的,也是社会性的。

2.捏造事实破坏信任

像聊天生成预训练转换器(ChatGPT)和“双子座”这样的大语言模型是语言学专家,但它们并不总是可信的讲述者。这些模型常常以令人不安的自信态度捏造事实、文献依据和统计数据。我们看到过它们以权威口吻提供臆想的医疗建议、伪造的法律参考文献以及完全错误的信息。在高风险环境中,一个臆想可能会葬送生命、引发诉讼或破坏名誉。

3.目标错位引发意外

AI优化了我们对它的指令,但是它并不总能理解我们的意思。一个推荐系统可能为提高用户参与度而进行优化,却意外助长了分裂性和有害内容的传播。一个欺诈检测模型可能会失衡地标记来自边缘社区的交易。当系统专注为狭隘的关键绩效指标(KPI)工作时,我们常常会无视更宏大的商业或道德目标。这是一个典型的目标错位,是战略失明的“癌症”。

4.数据投毒引发灾难

恶意行为者可通过不易察觉的手段毒害训练数据或操纵AI输入,从而引发灾难性故障。在网络安全领域,我曾目睹过对抗性攻击仅需对输入稍做调整,便能将稳定可靠的模型摧垮成一派胡言。而在自动驾驶领域,停止标志上的一个贴纸就足以欺骗视觉系统。

5.过度拟合崩溃失灵

过度拟合就像一个在不理解主题的情况下“记忆”了测试答案的模型。它在实验室中表现完美,但在现实世界中却崩溃失灵。我在放射科看到过建立在原始优质的医院数据集上的AI工具,但部署在使用不同机器和人口统计数据的农村诊所时,它们失灵了。如果模型不够稳定可靠,其优越性承诺就会在实际部署中荡然无存。

6.“黑匣子”效应难解决

AI决策通常是不透明的,甚至对构建它们的开发人员来说也是如此。这种“黑匣子”效应侵蚀了用户、合规官员和监管机构之间的信任。在银行或医疗等强制要求可解释性的行业,无法回答“系统为何做此决定”是根本行不通的。

我称它们为“AI癌症”并不是为了夸张,而是因为这个比喻很贴切。原因如下:它们在复杂系统中悄然蔓延;它们在下游应用程序和应用程序编程接口(API)之间扩散;如构建到基础模型中,可跨行业转移;不经过仔细诊断很难发现;它们需要进行系统性“治疗”,而不是零敲碎打地修补。

诊断治疗

我们必须在早期“诊断”这些“癌症”方面发挥引领作用。具体方法如下:

1.检测模型在不同人口群体中的性能差距。偏见不会自我修复。

2.在AI流程中配置SHAP或LIME等可解释性工具。

3.使用非训练分布数据和对抗性数据对模型进行压力测试。

4.让你的AI目标与长期价值导向、而不仅仅是短期KPI保持一致。

5.将数据集和合作方多样化。包容性不仅是伦理要求,更是战略优势。

6.绝不在没有治理框架的情况下部署AI。如果AI能做出决策,它就必须具备解释决策的能力。

强化治理

我们正在进入一个AI不再只是工具的时代;它是董事会、手术室和法庭上的副手。但是,伴随强大能力而来的是巨大的弱点。

AI的未来不仅仅取决于更快的芯片或更大的模型。它取决于无偏见的数据、一致的激励措施、透明的系统和道德远见。如果我们忽视AI流程中正在恶化的“癌症”,我们就有可能在一个有缺陷的基础上建立未来。

AI不会摧毁世界,但糟糕的AI治理可能会覆灭文明。作为领导者、技术专家和人类,我们有责任现在就行动起来。(编译/胡溦)