COPU会议纪要丨2026.04.28

4月28日,陆主席主持召开COPU例会。
本次会议发表了再谈COPU的《评DeepSeek V4》。
再谈COPU的《评DeepSeek V4》
(陆首群 2026.04.28)
在DeepSeek V4公开发布前,我们(于4月21日)提前发表了《评DeepSeek V4》的文章。4月24日,DeepSeek公开发布了《DeepSeek V4预览》。如果以《评论》和《预览》对照来看,可见COPU的《评论》是相当精准的。
一、COPU在《评论》中指出:DeepSeek最大的优势在于性价比(依据MoE的持续优化)。
应该说,MoE并不是DeepSeek的首创,他们性价比的优势得益于:① 梁的母校(浙江大学)。浙大是国内首个研究神经拟态计算系统(即类脑计算机)的机构,搭载异步脉冲神经网络(即生物神经网络)芯片(SNN),该种神经网络对脉冲信号处理具有稀疏和时间的动态特性,② DeepSeek采取作为性价比基础的稀疏特性的应用,③ DeepSeek更重视研究MoE稀疏特性的持续或迭代发展,进一步提高性价比(即DeepSeek不断改进MoE的稀疏化结构,以突出性价比效果)。
二、《评论》指出,DeepSeek V4的重大贡献不仅是推动国产算力与模型的简单适配,更是摆脱对英伟达硬件依赖,并倒逼中国建立一个算力完整、自主的生态闭环(+软件),实现算力自主可控。这与黄仁勋最近在讲话中的担忧是一致的。
三、DeepSeek曾透露据其内测与灰度测试情况,指出DeepSeek V4的编程可能登顶,但《评论》指出,DeepSeek V4与今天的Anthropic的Claude Opus 4.6/4.7的编程相比,登顶恐难,但有望跻身于全球编程的前列。从DeepSeek公布的《预览》看,证实了《评论》预测的正确性。
四、在《评论》中指出,DeepSeek原来存在的短板(如多模态、超长(token)上下文、处理复杂任务、AI Agent、世界模型等),对照《预览》来看,《评论》所指是准确的,过去COPU曾鼓励DeepSeek奋力追赶,解决短板问题。现在看来,效果如何呢?
超长(token)上下文解决短板做得好。DeepSeek V4 pro具有超长1M token(约75万字)的上下文(能一次处理海量信息),这是DeepSeek奋力追赶解决短板做得好的案例。它一口气解决《三体》三部曲,不卡顿、不断头!(《三体》是刘慈欣创作的科幻小说(巨著),是亚洲首获雨果奖的作品,DeepSeek V4在超长(1M)上下文上能一口气写完它(或读完它),展示了超长上下文的能力)。
多模态解决短板尚有差距。在4月24日发布的《预览》中指出:V4暂不支持多模态;主持多模态研究的阮翀已辞职(去自动驾驶公司任首席科学家)。
AI Agent的竞争力有待验证。号称全球AI Agent四大平台(Anthropic、DeepSeek、Google、OpenAI);在DeepSeek V4《预览》中读到DeepSeek V4的Agent能力可吊打同行,这种说法有待验证。
大模型竞争已从预训练的Chatbot时代全面转向后训练主导的Agent时代,从以聊天、问答为主转向Agent场景下具有整体组织、执行能力,以完成复杂任务。
本次会议发表了《立足COPU抓好三件事》。
立足COPU抓好三件事
陆首群 2026.4.23
一、超长(Token)上下文,二、AI Agent,三、算力国产化。
一、超长(Token)上下文
为适应百万(10⁶)Token级长效记忆,具备连贯性(不卡顿、不掉头)读完(或理解)长文本、长对话,长视频能力,需要消化长(或超长)上下文。
在执行(1M token)长上下文时,根据一些AI企业的经验是:能一次处理海量信息、处理大型代码库(实例修改4000行代码不卡顿,或处理30万行代码库,或可驾驭16万行跨文件代码库),可进行长时编程(12小时持续执行,或13小时不间断编程),直接理解整个数据仓库,可处理全年财报,可处理原生多模态统一架构,处理文本、图形、音频、视频无缝融合,跨模块修理Bug,连续读完巨著、文档、版本(一次性读完75万字),看完几十万行跨文件代码,不进行架构分析和漏洞追踪。
进一步理解上下文的作用:传统Transformer把所有的知识塞进参数,导致长上下文衰减,需要改进机制,提升长上下文能力。长上下文相对于多头(短)上下文而言,其优势可直接处理任务,不用重复上下文即可。函接复杂任务(工程),防止多头上下文断裂或逻辑不支问题。
时至今日,短上下文已不敷需要;如ClaudeOpus4.5-20251101Thinking32K,3.2×10⁴Token,上下文能力。
不能满足客户对上述长上下文提出的需要(ClaudeCode长上下文支持7小时1250行代码库的特定任务)。
据不完全统计:
Claude Opus 4.6、4.7,Context 为 1M(10⁶)
OpenAI GPT-5.2,1.1M(1.1×10⁶);GPT-6,200万 token(2×10⁶)
Gemini 3 Pro,1M(10⁶)
DeepSeek V4,百万上下文(10⁶)
Grok 3 Pro,1M(10⁶)
Kimi K2.5,202.1K(2×10⁵),Kimi K2.6,200万(2×10⁶)
Qwen 3.5-397ba/17b,202.1K(2×10⁵)
GLM 4.7,202.8K(2×10⁵)
探讨多媒体超长(token)上下文,请谭中意、宋可为、陈越研究提出方案。
二、AI Agent
1.全球四大AI Agent平台(Anthropic Claude,DeepSeekv4,Google Gemini、OpenAI GPT),各具特色,竞争激烈。均将企业应用(塑造企业级AI智能体协作平台作为起步方向,对比优势在企业场景落地;直指战略目标在一世界模型。
2.有人认为现在已进入“Agent时代”,也有人认为押注更长、更复杂、更系统的复杂任务的理解能力要走Agent路线。
大模型竞争已从预训练的Chatbot时代(以聊天、对话为主),全面转向后训练主导的Agent时代(成为一个具有可调用、可编排、可落地的组织、执行能力,能够完成复杂任务的系统)
据不完全统计,目前在研发AI Agent的机构有:
Anthropic、Deepseek、Google、Open AI、Kimi、小米、中兴通讯、Minimax、千问Qwen、Zai(GLM)等(很普遍)。
请章文嵩、袁泽、张侃确定各家Agent的特点、比较优势、发展方向,提出报告。
根据小米罗福莉的意见,比较不同AI Agent的特点或优势,不是看它得分多少,而是看它能否完成复杂任务,关键要看在Agent场景下整体组织能力,是否是一个可调用、可编排、可落地的大模型执行系统。
三、算力国产化
1. DeepSeek v4全面搭载华为昇腾950PR芯片等硬件,其模型底层从CUDA迁移至CANN(软件)架构,彻底摆脱外部算力依赖,构建自主可控国产化的技术体系和生态主导权。
2.分析哪些软硬件转移了,生长或优势,哪些尚未转移,阻力在哪里?而优势尚在英伟达手里?如与英伟达更先进的Blackwell 比尚有差距(不卖给我们),如何解决?
3.分析华为Atlas950SuperPoD已公开的多接点集群系统的通信网络架构的效率(总体及各打包的效率如何)。
请安泱、陈道清提出研究报告。
上面三个报告希望能在两周后提出。
本次会议发表了《阶跃星辰重磅推出两大开源项目》。
阶跃星辰重磅推出两大开源项目
Step Video和Step Audio
COPU 2026.4
中国AI独角兽公司阶跃星辰(Step Fun)主导研发两大开源项目Step Video和Step Audio。
Step Video是全球最大的视频开源生成模型,采用MIT协议,支持任意编辑和商业应用。
Step Audio是全球首个1300亿参数的语言理解和生成交互框架,支持多语言、方言和近代化语音,实现语言理解和生成一体化,在关键性能指标上在全球AI领域处于领先地位。
阶跃星辰公司成立于2023年,这是一家国内专注于多模态大模型的公司,创始人是前微软全球副总裁姜大昕,在2025年2月开源产业发布中,吉利汽车集团曾是其战略合作伙伴。
COPU鼓励他们选择全球权威的工业基准测试机构进行测试,以提高其产品优越性能的可信度。
COPU注:阶跃星辰(Step Fun)是中国的AI独角兽公司,该公司成立于2023年,创始人是前微软全球副总裁姜大昕。吉利汽车集团为其战略合作伙伴。
参会人员:陆首群、章文嵩、陈道清、袁怿、宋可为、孟迎霞、安泱、胡宇(线上) 、韩宪平(线上)、靳虹博(线上)、 陈伟(线上)、 刘澎(线上) 、陈越(线上)。
