阿里巴巴集团CEO、阿里云智能集团董事长兼CEO吴泳铭:超级人工智能之路

吴泳铭认为实现通用人工智能AGI已是确定性事件,但这只是起点,终极目标是发展出能自我迭代、全面超越人类的超级人工智能ASI。

9月24日,2025云栖大会正式启幕!阿里巴巴集团CEO、阿里云智能集团董事兼CEO吴泳铭发表主旨演讲,他认为实现通用人工智能AGI已是确定性事件,但这只是起点,终极目标是发展出能自我迭代、全面超越人类的超级人工智能ASI。

超级人工智能之路

AGI的目标是将人类从80%的日常工作中解放出来,让我们专注于创造与探索。而ASI作为全面超越人类智能的系统,将可能创造出一批“超级科学家”和"全栈超级工程师"。

ASI将以难以想象的速度,解决现在未被解决的科学和工程问题,比如攻克医学难题、发明新材料、解决可持续能源和气候问题,甚至星际旅行等等。ASI将以指数级的速度推动科技的飞跃,引领我们进入一个前所未有的智能时代。

ASI

通往ASI之路将经历三个阶段——

第一阶段是“智能涌现”,特征是“学习人”。过去几十年的互联网发展,为智能涌现提供了基础。互联网将人类历史上几乎所有的知识都数字化了。这些语言文字承载的信息,代表了人类知识的全集。

基于此,大模型首先通过理解全世界的知识集合,具备了泛化的智能能力,涌现出通用对话能力,可以理解人类的意图,解答人类的问题,并逐渐发展出思考多步问题的推理能力。

现在,我们看到AI已经逼近人类各学科测试的顶级水平,比如国际数学奥赛的金牌水平。AI逐渐具备了进入真实世界、解决真实问题、创造真实价值的可能性。这是过去几年的主线。

第二个阶段是“自主行动”,特征是“辅助人”。这个阶段,AI不再局限于语言交流,而是具备了在真实世界中行动的能力。AI可以在人类的目标设定下,拆解复杂任务,使用和制作工具,自主完成与数字世界和物理世界的交互,对真实世界产生巨大影响。这正是我们当下所处的阶段。

实现这一跨越的关键,首先是大模型具备了Tool Use能力,有能力连接所有数字化工具,完成真实世界任务。人类加速进化的起点是开始创造和使用工具,现在大模型也具备了使用工具的能力。

通过Tool Use,AI可以像人一样调用外部软件、接口和物理设备,执行复杂的真实世界任务。这个阶段,由于AI能够辅助人类极大提高生产力,它将快速的渗透到物流、制造、软件、商业、生物医疗、金融、科研等几乎所有行业领域。

其次,大模型Coding能力的提升,可以帮助人类解决更复杂的问题,并将更多场景数字化。现在的Agent还比较早期,解决的主要是标准化和短周期的任务。要想让Agent能解决更复杂、更长周期任务,最关键的是大模型的Coding能力。因为Agent可以自主Coding,理论上就能解决无限复杂的问题,像工程师团队一样理解复杂需求并自主完成编码、测试。发展大模型Coding能力是通往AGI的必经之路。

未来,自然语言就是AI时代的源代码,任何人用自然语言就能创造自己的Agent。只需要输入母语,告诉AI你的需求,AI就能自己编写逻辑、调用工具、搭建系统,完成数字世界的几乎所有工作,并通过数字化接口来操作所有物理设备。 

未来,也许会有超过全球人口数量的Agent和机器人与人类一起工作,对真实世界产生巨大影响。在这个过程中,AI就能连接真实世界的绝大部分场景和数据,为未来的进化创造条件。

随后AI将进入第三个阶段——“自我迭代”,特征是“超越人”。这个阶段有两个关键要素:

第一、AI连接了真实世界的全量原始数据

目前AI的进步最快的领域是内容创作、数学和Coding领域。我们看到这三个领域有明显的特征。这些领域的知识100%是人类定义和创造的,都在文字里,AI可以100%理解原始数据。但是对于其他领域和更广泛的物理世界,今天的AI接触到的更多是人类归纳之后的知识,缺乏广泛的、与物理世界交互的原始数据。这些信息是有局限的。

AI要实现超越人类的突破,就需要直接从物理世界获取更全面、更原始的数据。

举一个简单的例子,比如一家汽车公司的CEO要迭代明年的产品,大概率会通过无数次的用户调研或者内部的讨论来决定下一款汽车将要具备什么样的功能,与竞对相比要实现哪些方面的长板,保留什么方面的能力。现在AI要去做还是很难的,核心点在于它所获得的数据和信息,全都是调研来的二手数据。如果有一天AI有机会,能够连接这款汽车的所有的资料和数据,它创造出来的下一款汽车会远远超过通过无数次头脑风暴所创作出来的。这只是人类世界当中的一个例子,更何况更复杂的物理世界,远远不是通过人类知识归纳就能够让AI理解的。

就像在自动驾驶的早期阶段,只靠人类的总结,Rule-based的方法去实现自动驾驶,无法实现很好的效果。新一代的自动驾驶,大部分采用端到端的训练方法,直接从原始的车载摄像头数据中学习,实现了更高水平的自动驾驶能力。即便我们现在看起来相对简单的自动驾驶问题,仅依靠人类归纳的知识和规则,也无法解决,更何况整个复杂的物理世界。只是让AI学习人类归纳的规律,是远远不够的。

只有让AI与真实世界持续互动,获取更全面、更真实、更实时的数据,才能更好的理解和模拟世界,发现超越人类认知的深层规律,从而创造出比人更强大的智能能力。

第二、Self-learning自主学习

随着AI渗透更多的物理世界场景,理解更多物理世界的数据,AI 模型和agent能力也会越来越强,有机会为自己模型的升级迭代搭建训练infra、优化数据流程和升级模型架构,从而实现 Self learning。这会是AI发展的关键时刻。

随着能力的持续提升,未来的模型将通过与真实世界的持续交互,获取新的数据并接收实时反馈,借助强化学习与持续学习机制,自主优化、修正偏差、实现自我迭代与智能升级。每一次交互都是一次微调,每一次反馈都是一次参数优化。当经过无数次场景执行和结果反馈的循环,AI将自我迭代出超越人类的智能能力,一个早期的超级人工智能(ASI)便会成型。

一旦跨过某个奇点,人类社会就像按下了加速键,科技进步的速度将超越我们的想象,新的生产力爆发将推动人类社会进入崭新的阶段。这条通往超级人工智能的道路,在我们的眼前正在日益清晰。随着AI技术的演进和各行各业需求爆发,AI也将催生IT产业的巨大变革。

大模型是下一代的操作系统

我们的第一个判断是:大模型是下一代的操作系统。我们认为大模型代表的技术平台将会替代现在OS的地位,成为下一代的操作系统。未来,几乎所有链接真实世界的工具接口都将与大模型进行链接,所有用户需求和行业应用将会通过大模型相关工具执行任务,LLM将会是承载用户、软件 与 AI计算资源交互调度的中间层,成为AI时代的OS。

来做一些简单的类比:自然语言是AI时代的编程语言,Agent就是新的软件,Context是新的Memory,大模型通过MCP这样的接口,连接各类Tools和Agent类似PC时代的总线接口,Agent之间又通过A2A这样的协议完成多Agent协作类似软件之间的API接口。

大模型将会吞噬软件。大模型作为下一代的操作系统,将允许任何人用自然语言,创造无限多的应用。未来几乎所有与计算世界打交道的软件可能都是由大模型产生的Agent,而不是现在的商业软件。潜在的开发者将从几千万变成数亿规模。以前由于软件开发的成本问题,只有少量高价值场景才会被工程师开发出来变成商业化的软件系统。未来所有终端用户都可以通过大模型这样的工具来满足自己的需求。

模型部署方式也会多样化,它将运行在所有设备上。现在主流的调用模型API的方式,来使用模型只是初级阶段,其实看起来非常原始。类似大型主机时代的分时复用阶段,每个人只有一个终端连接上大型主机分时复用。这种方式无法解决数据持久化,缺乏长期记忆,实时性不够,隐私无法解决,可塑性也不够。未来模型将运行在所有计算设备中,并具备可持久记忆,端云联动的运行状态,甚至可以随时更新参数,自我迭代,类似我们今天的OS运行在各种环境之中。

正是基于这个判断,我们做了一个战略选择:通义千问选择开放路线,打造AI时代的Android。我们认为在LLM时代,开源模型创造的价值和能渗透的场景,会远远大于闭源模型。我们坚定选择开源,就是为了全力支持开发者生态,与全球所有开发者一起探索AI应用的无限可能。

超级AI云是下一代的计算机

我们的第二个判断:超级AI云是下一代的计算机。

大模型是运行于 AI Cloud之上新的OS。这个OS可以满足任何人的需求。每个人都将拥有几十甚至上百个Agent,这些Agent 24小时不间断地工作和协同,需要海量的计算资源。

数据中心内的计算范式也在发生革命性改变,从CPU为核心的传统计算,正在加速转变为以 GPU为核心的 AI 计算。新的AI计算范式需要更稠密的算力、更高效的网络、更大的集群规模。

这一切都需要充足的能源、全栈的技术、数百万计的GPU和CPU,协同网络、芯片、存储、数据库高效运作,并且24 小时处理全世界各地的需求。这需要超大规模的基础设施和全栈的技术积累,只有超级AI云才能够承载这样的海量需求。未来,全世界可能只会有5-6个超级云计算平台。

阿里云的定位是全栈人工智能服务商

在这个新时代,AI将会替代能源的地位,成为最重要的商品,驱动千行百业每天的工作。绝大部分AI能力将以Token的形式在云计算网络上产生和输送。Token就是未来的电。

在这个崭新的时代,阿里云的定位是全栈人工智能服务商,提供世界领先的智能能力和遍布全球的AI云计算网络,向全球各地提供开发者生态友好的AI服务。

首先,我们有全球领先的大模型——通义千问。通义千问开源了300多款模型,覆盖了全模态、全尺寸,是最受全球开发者欢迎的开源模型。截至目前,通义千问全球下载量超6亿次,衍生模型超17万个,是全球第一的开源模型矩阵,可以说是渗透计算设备最广泛的大模型。

同时,阿里云提供一站式模型服务平台百炼,支持模型定制化以及Agent快速开发,同时提供AgentBay这样的Agent运行环境、灵码/Qoder等一系列开发者套件,让开发者可以方便地使用模型能力和创建使用Agent。

其次,阿里云运营着中国第一、全球领先的AI基础设施和云计算网络,是全球少数能做到软硬件垂直整合的超级AI云计算平台之一。在硬件和网络层面,阿里云自研的核心存储系统、网络架构、计算芯片,构成了阿里云大型计算集群最坚实的底座。

阿里云正在全力打造一台全新的AI超级计算机,它同时拥有最领先的AI基础设施和最领先的模型,可以在基础架构设计和模型架构上协同创新,从而确保在阿里云上调用和训练大模型时,能达到最高效率,成为开发者最好用的AI云。

AI行业发展的速度远超我们的预期,行业对AI基础设施的需求也远超我们的预期。我们正在积极推进三年3800亿的AI基础设施建设计划,并将会持续追加更大的投入。

从现在我们看到的AI行业远期发展以及客户需求角度来看,为了迎接ASI时代的到来,对比2022年这个GenAI的元年,2032年阿里云全球数据中心的能耗规模将提升10倍。这是我们的一个远期规划,我们相信通过这样的饱和式投入,能够推动AI行业的发展,迎接ASI时代的到来。

阿里云重磅升级全栈AI体系

阿里云重磅升级全栈AI体系

云栖大会上,通义大模型7连发,在模型智能水平、Agent工具调用和Coding能力、深度推理、多模态等方面实现多项突破。

Qwen3-Max性能跻身全球前三

在大语言模型中,阿里通义旗舰模型Qwen3-Max全新亮相,性能超过GPT5、Claude Opus 4等,跻身全球前三。Qwen3-Max包括指令(Instruct)和推理(Thinking)两大版本,其预览版已在 Chatbot Arena 排行榜上位列第三,正式版性能可望再度实现突破。

Qwen3-Max是通义千问家族中最大、最强的基础模型,预训练数据量达36T tokens,总参数超过万亿,拥有极强的Coding编程能力和Agent工具调用能力。在大模型用Coding解决真实世界问题的SWE-Bench Verified测试中,Instruct版本斩获69.6分,位列全球第一梯队;在聚焦Agent工具调用能力的Tau2-Bench测试中,Qwen3-Max取得突破性的74.8分,超过Claude Opus4和DeepSeek-V3.1。

1

Qwen3-Next及系列模型正式发布

下一代基础模型架构Qwen3-Next及系列模型正式发布,模型总参数80B仅激活 3B ,性能即可媲美千问3旗舰版235B模型,实现模型计算效率的重大突破。Qwen3-Next针对大模型在上下文长度和总参数两方面不断扩展(Scaling)的未来趋势而设计,创新改进采用了混合注意力机制、高稀疏度 MoE 结构、多 token 预测(MTP)机制等核心技术,模型训练成本较密集模型Qwen3-32B大降超90%,长文本推理吞吐量提升10倍以上,为未来大模型的训练和推理的效率设立了全新标准。

Qwen3-Coder重磅升级

在专项模型方面,千问编程模型Qwen3-Coder重磅升级。新的Qwen3-Coder与Qwen Code、Claude Code系统联合训练,应用效果显著提升,推理速度更快,代码安全性也显著提升。Qwen3-Coder此前就广受开发者和企业好评,代码生成和补全能力极强,可一键完成完整项目的部署和问题修复,开源后调用量曾在知名API调用平台OpenRouter上激增1474%,位列全球第二。

2

视觉理解模型Qwen3-VL重磅开源

在多模态模型中,千问备受期待的视觉理解模型Qwen3-VL重磅开源,在视觉感知和多模态推理方面实现重大突破,在32项核心能力测评中超过Gemini-2.5-Pro和GPT-5。

全模态模型Qwen3-Omni亮相

全模态模型Qwen3-Omni惊喜亮相,音视频能力狂揽32项开源最佳性能SOTA,可像人类一样听说写,应用场景广泛,未来可部署于车载、智能眼镜和手机等。用户还可设定个性化角色、调整对话风格,打造专属的个人IP。

通义万相推出Wan2.5-preview系列模型

通义万相推出Wan2.5-preview系列模型,涵盖文生视频、图生视频、文生图和图像编辑四大模型。通义万相2.5视频生成模型能生成和画面匹配的人声、音效和音乐BGM,首次实现音画同步的视频生成能力,进一步降低电影级视频创作的门槛。

通义万相2.5视频生成时长从5秒提升至10秒,支持24帧每秒的1080P高清视频生成,并进一步提升模型指令遵循能力。此次,通义万相2.5还全面升级了图像生成能力,可生成中英文文字和图表,支持图像编辑功能,输入一句话即可完成P图。

3

语音大模型通义百聆正式发布

2025杭州云栖大会上,通义大模型家族还迎来了全新的成员——语音大模型通义百聆,包括语音识别大模型Fun-ASR、语音合成大模型Fun-CosyVoice。Fun-ASR基于数千万小时真实语音数据训练而成,具备强大的上下文理解能力与行业适应性;Fun-CosyVoice可提供上百种预制音色,可以用于客服、销售、直播电商、消费电子、有声书、儿童娱乐等场景。

4

模型日均调用量增长 15倍阿里云百炼发布全新Agent框架

大会现场,阿里云发布全新Agent开发框架ModelStudio-ADK,该框架突破以预定义编排方式开发Agent的局限,可帮助企业高效开发具备自主决策、多轮反思和循环执行能力的Agent。使用ModelStudio-ADK,1个小时就能轻松开发一个能生成深度报告的Deep Research项目。随着模型能力的不断提升以及Agent应用的爆发,过去一年,阿里云百炼平台的模型日均调用量增长了15倍。

5

大会现场,阿里云百炼还升级了低代码Agent开发平台ModelStudio-ADP,该平台已广泛应用于金融、教育和电商等领域企业,目前,阿里云百炼平台已有超20万开发者开发了80多万个Agent。

同时,阿里云Agent Infra重要组件的无影AgentBay迎来重大升级。无影AgentBay是阿里云为Agent量身打造的“超级大脑” ,可动态调用云上算力、存储及工具链资源,大大突破了Agent在本地设备上的算力限制。

6

阿里云AI基础设施全面升级

阿里云围绕AI进行了软硬全栈的协同优化和系统创新,已初步形成以通义为核心的操作系统和以AI云为核心的下一代计算机。过去一年,阿里云AI算力增长超5倍,AI存力增长4倍多。

2025年云栖大会现场,全面升级的阿里云AI基础设施重磅亮相,全面展示了阿里云从底层芯片、超节点服务器、高性能网络、分布式存储、智算集群到人工智能平台、模型训练推理服务的全栈AI技术能力。

7

磐久128超节点AI服务器发布

在服务器层面,阿里云发布全新一代磐久128超节点AI服务器。新一代磐久超节点服务器由阿里云自主研发设计,具备高密度、高性能和高可用的核心优势,可高效支持多种AI芯片,单柜支持128个AI计算芯片,密度刷新业界纪录。磐久超节点集成阿里自研CIPU 2.0芯片和EIC/MOC高性能网卡,采用开放架构,扩展能力极强,可实现高达Pb/s级别Scale-Up带宽和百ns极低延迟,相对于传统架构,同等AI算力下推理性能还可提升50%。

8

新一代高性能网络HPN 8.0全新亮相

在网络层面,阿里云新一代高性能网络HPN 8.0全新亮相。为应对大模型时代对海量数据传输的需求,HPN8.0采用训推一体化架构,存储网络带宽拉升至800Gbps,GPU互联网络带宽达到6.4Tbps,可支持单集群10万卡GPU高效互联,为万卡大集群提供高性能、确定性的云上基础网络,助力AI训推提效。

分布式存储面向AI需求全面升级

在存储层面,阿里云分布式存储面向AI需求全面升级。高性能并行文件存储CPFS单客户端吞吐提升至40GB/s, 可满足AI训练对快速读取数据的极致需求;表格存储Tablestore为Agent提供高性能记忆库和知识库;对象存储OSS推出 Vector Bucket,为向量数据提供高性价比的海量存储,相比自建开源向量数据库,成本骤降95%,结合OSS MetaQuery 语义检索和内容感知能力,可快速构建RAG等AI应用。

9

智能计算灵骏集群能力全面升级

在AI智算集群层面,智能计算灵骏集群通过多级亲和性与拓扑感知调度设计,基于HPN 网络支持10万卡稳定互联,多级可扩展的架构让每张卡间互联路径更短、带宽更优。灵骏集群面向任务的稳定性设计、故障分钟级恢复能力,有效提高了模型训练任务的集群稳定性。

10

第九代企业级实例升级

依托自研的“飞天+CIPU”架构体系,阿里云第九代企业级实例采用英特尔、AMD的最新芯片,在大幅提升算力水平的同时,可为Agent提供稳定、安全、高性能的通用CPU算力。其中,九代AMD实例g9ae提供物理核的规格,性能最高提升67%,尤其适合企业离线数据分析处理、视频转码等高并发场景。

容器服务ACK新增灵骏节点池

容器服务ACK新增灵骏节点池,引入模型感知智能路由、多角色推理负载管理、故障自愈等核心功能,自动处理恢复时长缩短了 85% ,模型推理冷启动提速10倍。容器计算服务ACS强化网络拓扑感知调度,任务通信性能整体提升30%,并针对AI Agent场景深度优化,Serverless GPU算⼒开箱即用,支持每分钟15000沙箱的大规模并发弹性,结合安全沙箱、智能休眠与唤醒,实现Agent随需启用、高效响应。

人工智能平台PAI与通义大模型联合优化

阿里云人工智能平台PAI与通义大模型联合优化,印证了全栈AI的“1+1>2”的效果。在训练层,针对MoE模型,采用统一调度机制、自适应计算通信掩盖、EP计算负载均衡和计算显存分离式并行等优化手段,使得通义千问模型训练端到端加速比提升3倍以上;升级DiT模型训练引擎,通义万相单样本训练耗时降低28.1%;在推理层,通过大规模EP、PD/AF分离、权重优化、LLM智能路由在内的全链路优化,实现推理效率显著提升:推理吞吐TPS增加71%,时延TPOT降低70.6%,扩容时长降低97.6%。

来源:阿里云

相关推荐

发表评论