本文作者:adminddos

苏州少儿武术散打搏击(报名咨询)1891-5555-567::苏州少儿武术搏击(报名咨询)1891-5555-567:-新质观察|“虎崽论”背后的当下AI瓶颈和极限

adminddos 2025-08-12 07:41:18 6 抢沙发
苏州少儿武术散打搏击(报名咨询)1891-5555-567::苏州少儿武术搏击(报名咨询)1891-5555-567:-新质观察|“虎崽论”背后的当下AI瓶颈和极限摘要: ...

2025 世界人工智能大会 (WAIC)已经落幕,但它激起的讨论仍在持续。

其中,主论坛上深度学习“教父”杰弗里·辛顿(Geoffrey Hinton)提出的AI“虎崽论”尤为引人关注——他将超级智能的驯化比作“饲养幼虎”,今日可爱可控,明日或反噬其主。而不止辛顿,仅在这届WAIC的主论坛上,约书亚·本吉奥(Yoshua Bengio)、埃里克·施密特(Eric Schmidt)等众多重量级嘉宾,也都表达了对AI快速发展的警惕和忧虑。

然而,联系上下文审视这些警示的核心便会发现,他们敲响警钟的共同指向——强调构建全球性人工智能协作治理网络的重要性和紧迫性。所以说,如果仅仅因此就陷入对“超级”智能的“超级”担忧,那么就有如禅宗偈语所警示的——只见“指月”之指,而忽略月亮本身了。

因为就当下现实而言,实现超级AI还有一系列难以跨越的极限和瓶颈。对于从业者和更广大的公众来说,比起对于未知未来的担忧,正视这些局限并寻求突破之道,恐怕是更切实际的选择。具体而言,至少具有三个方面的瓶颈,限定着现下AI路径的发展极限。

AI模型的成本极限

大模型的算力成本早已不是一个新鲜话题了。而笔者的一个直观体会便来自不久前。一位从事大模型研发的朋友,邀我体验他们最新研发的大模型产品。他特别叮嘱我,千万不要对他们的模型“客气”——因为我输入的每一句夸奖,甚至每一个“请为我”,都会转化为token,成为他们算力资源的额外开销。而他们“子弹”有限,“自己人”就帮忙省一点。

这次体验充分展示了一个大模型经济的特征,就是不仅有着极高的训练成本,更有可观的每一次的推理成本。究其源头,这种成本来自现有大模型的共同鼻祖Transformer架构的工作原理。无论输入的问题多么简单(比如简单问候“你好”),或多么复杂(比如“请解释量子纠缠并原创一首七律来描述它”),每一次推理都要遍历模型的所有参数(通常的数量级是数百亿甚至数千亿)。虽然现在已有一些技术优化手段,能够在一定程度上降低简单请求的计算消耗,但面对庞大的基础参数量,这种优化仍然是相当有限的。

训练是“一次性”巨额投入,推理则是持续不断的“烧钱”。而这种持续消耗的规模和成本,远远不是互联网时代宽带费用能够相提并论的。因此,大模型并不符合边际成本趋近零的特点,严格来说目前并不能视为一种数字经济模式(尽管当前政府和民间都习惯性这样认定)。

更富有挑战性的是新近渐成趋势的“记忆模型”。其目标是让AI能够像人一样记住所有的对话历史,甚至需求、习惯和偏好。而在现有架构下,这些无疑会带来模型推理成本的爆炸。最新的技术报告显示,50轮对话规模的回答成本大约是每条几美元。而在100轮规模的对话中,成本会激增至50至100美元。对此,我们可以想想:我们体验过的在线知识付费问答和在线诊疗服务的价格。在这样的规模成本之下(还仅仅是每一次的推理成本),一名人类专家助手显然是更具有成本优势的。由此可见,智能未来可能很美好,但在算法、算力、能源完成突破性进展之前,人类专家还是能牢牢“端住饭碗”的。

AI推理的责任极限

最近,“懂车帝”对各大车企的智驾测评震惊了全网。抛开对于测评本身的技术性争议,AI“闯祸”,究竟谁来“背锅”,又成为拷问当事各方的“灵魂之问”。相较于到底智驾实现了L几级?到底AI智能水平几何?这一问题显然更为深刻,也更为棘手。

其根源在于,当前以深度学习为核心的AI技术,“黑箱”决策仍然是智能范式的绝对主流。这意味着AI决策过程的“黑箱”化,也就是针对具体结果无法精确归因。放到智驾场景中,一次驾驶判断失误的背后,到底是算法设计缺陷、训练数据偏差,还是特定环境(如天气、特殊路况等),抑或传感器硬件瞬间故障,这一切问题的答案都是“不好说”“说不好”。

正是这种技术本身“不好说”,使得责任划分也成为了“糊涂账”。出了事故,到底是驾驶员赔、车企赔,还是程序员赔?还是都不赔?诚然,这里存在着法律和监管的滞后性问题。但更为根本的是,当技术边界和责任边界本身都模糊不明的时候,再完备的监管规则也只能是“无的放矢”。而这一问题的解决,恐怕在可解释AI获得长足进步之前,还需要经历相当长时间的探索和等待。

除此之外,目前的AI还难以解决幻觉问题、偏见问题,包括还存在间或性的“智障”问题。叠加权责归属的模糊,这在大量需要“当回事”的政务、司法、医疗、风控、商业等严肃场景中,无疑是根本性的缺陷。事实上,在一片“拥抱AI”的冲锋号中,全球范围内第一批“开倒车”的企业已经出现了。2024年,外语学习“独角兽”多邻国(Duolingo)曾高调宣布“AI- First”战略并裁撤10%的员工,以AI代替。然而最新报道显示,因为大量的用户投诉和退订,该公司正回调部分被裁岗位。无独有偶,今年5月多家官媒集中发声,痛批AI智能客服“已读乱回”现象。从技术上看,这固然反映了AI能力还需提升的技术现状。然而从管理角度来说,何尝不是组织目标和技术能力间权责失衡的表现?

唯一可喜的是,这次智驾测评以及此前累积的围绕责任归属的种种现实困境,终于让很多人想明白了一件事——在AI没法坐牢之前,还是自己多费点力气把牢方向盘吧。

AI智能的体验极限

从诞生以来,人脑就是智能技术的终极摹本。艾伦·图灵(Alan Turing)、冯·诺依曼(John von Neumann)等先驱都深受脑机制的启发。而辛顿更是在早年直接从事认知心理学研究。后来他将神经原理转化为计算模型,由此开创了当下鼎盛的深度学习新纪元。

然而,很显然的是就算当下的大语言模型外在表现(如语言能力)再像人类,也不意味着其内在机制亦是如此。一个鲜明的例证是,现在的大模型已能展现出博士级的数学处理能力,但它的算法机制,对于理解人类如何进行运算推演几乎毫无作用。

更何况,人类还有独特的、内在的情感和体验。当然,大模型可以通过语言,例如使用特定词汇、句式、语气来模拟“共情”。但这背后,依旧来自海量文本“高频词组合”的概率性生成,而不是源自它“心”的真实感受。也正因此,在处理讽刺、幽默、潜台词、文化差异、微妙情绪变化时,大模型总是显得格外笨拙“不解风情”。

相反,对于人类而言,尽管可能不懂怎么模拟两个黑洞碰撞并产生引力波的过程,但属于人类的情感反馈也难以被现在的AI所替代。尤其是对于“喜不喜欢”“满意不满意”“好不好”——这样需要出自本心的问题,只有人类才能真正给出答案。而深入、细腻的人类评估和反馈,恰恰才是大量真实商业场景中的“金标准”。

正是因为这种根本性的差异,AI到BI(Brain Intelligence,脑智能)的演进才更加令人期待。类脑计算、脑机接口也被视为未来AI突破的重大方向。值得一提的是,脑机接口领域不单只是依赖于神经外科手术植入的侵入式模式。更多的非侵入式、可穿戴的BI应用,完全有理由在更广泛的商业领域中获得更大的增长潜力。通过帮助人们解析潜意识中的思维和情绪,从而开辟一条超越冰冷数理计算,融合人类情感体验独特优势,有温度的人机协同新路径。

回到辛顿的“虎崽论”,其警示意义毋庸置疑。然而,回望历史,一代人总会有一代人的“洪水猛兽”。它可以是电报、火车,可以是邓丽君、徐小凤,金庸、琼瑶,也可以是动漫、电视、游戏机、互联网、智能手机等等等,件件都有“可怖非常”的充足理由。但我们还是一路走来,并且能力越来越强,生活越来越好。因此,我们应该有理由相信“人”的智慧和力量,终究是推动时代进步的终极保障。

(作者钱学胜为复旦大学智慧城市研究中心高级研究员,连续多年参与WAIC开幕式和主论坛内容策划)

阅读
分享

发表评论

快捷回复:

评论列表 (暂无评论,6人围观)参与讨论

还没有评论,来说两句吧...