COPU会议纪要丨2026.04.07

4月7日,陆主席主持召开COPU例会。
一、会议刊登了刘澎转译的《谷歌研发开源的Gemma4大模型》
谷歌研发开源的Gemma4大模型
刘澎转译,2026.4.3
COPU编者按:
谷歌研发并推出开源的Gemma4大模型,标志着人工智能进入智能体时代、闭源向开源方向的转变。
2026年4月3日凌晨,谷歌开源Gemma4,这是迄今为止最智能的开源大模型!这不是挤牙膏式的升级,而是一次闭源向开源方向的变化,AI开始真正走向本地智能体。
谷歌这次一共发布了四个版本,分别是能进入手机的Gemma4-E2B和Gemma4-E4B,以及为专业场景打造的Gemma4-26B MoE和Gemma4-31BDense。覆盖面极广,小到手机和树莓派能在其上直接跑,而且可以离线,大到专业开发环境都能直接拿来写代码,跑复杂任务。
四个版本为:
①Gemma4-E2B(模型参数为5B);②Gemma4-E4B(参数为8B);
③Gemma4-26B(参数为27B);④Gemma4-31B(参数为33B)。
在Arena测试中的跑分情况,Gemma4-31B版本直接进入了全球开源排行第三(GLM-5/745B、Kimi-K2.5 Thinking/1T分别排名第一、二,千问Qwen3.5/397B排行第四)。
与GLM-5和Kimi-K2.5模型相比,Gemma4是小参数模型,其表现足够惊喜,Gemma4-E2B和Gemma4-E4B版本让人眼前一亮,除了能在手机和树莓派上离线运行,它们还原生支持视频、图像甚至音频输入,不联网也能几乎零延迟,这意味着与之配套的手机能看也能听,只要有电它就可以离线当作AI助手,用它还能在手机上支持运行Skill,下载就能体验。另外,Gemma4还原生支持系统提示词、函数调用和结构化Json输出,也就是说,只要给它权限,它就能自主规划多步骤任务,主动调用外部工具,以完成任务,其特点是支持多模态,可以本地运行,有极强的推理能力。
Gemma4采用Apache2.0协议,可以商用、可以改、可以部署,对开发者来说。这比模型本身还重要。对Gemma而言,AI不再只是云端的“大脑”,而是可以真正跑在你的设备上帮助你干活的本地生产力。
二、本次会议邀华为陈道清报告华为最近算力发展情况。
在MWC 2026期间,华为首次在海外发布最新的Atlas 950 SuperPoD等多个型号超节点产品及解决方案。基于灵衢打造的Atlas 950 SuperPoD智算超节点,以单柜64卡为基本单元,最大可支持8192张NPU卡高速互联,为超大规模AI训练与海量推理并发场景提供最优选择。相比传统集群,大模型训练效率、可靠性与推理性能均大幅提升。
在华为中国合作伙伴大会2026期间,华为宣布搭载全新昇腾950PR(Ascend 950PR)处理器的Atlas 350加速卡正式上市,实现算力与内存双升级、访存更灵活、开发更易用。Atlas 350加速卡搭载昇腾950PR处理器,支持FP4低精度计算,单卡算力达1.56P FP4,访存带宽为1.4TB/s,HBM容量为112GB。
三、本次会议邀请红帽首席架构师张家驹,针对OpenClaw带来的机遇和挑战做了分享。
针对OpenClaw带来的机遇和挑战,张家驹做了“Agentic AI时代重塑操作系统架构”的介绍,重点阐述了人工智能代理在安全执行环境中运行的关键必要性,包括如何利用 Podman 进行安全的本地开发隔离、在 OpenShift 上应用严格的 Kubernetes RBAC 控制、利用 skills.md 建立“认知策略契约”,以及通过即时通信工具实现人为监督的变更审批流程等核心内容。
四、COPU谭中意对Atena大模型排行榜深度分析
3月排行榜:text、code、vision top 10中,美国的4家闭源AI大模型(Claude的opus、Google的Gemini、OpenAI的ChatGPT、XAI的Grok4)排名靠前;阿里QWen 3.6和智谱AI的GLM 5的模型在代码能力上进入了前十。
五、如何养龙虾,COPU章文嵩来聊一下
章文嵩谈到龙虾OpenClaw是一套非常灵活的智能体框架,把工程持续迭代思想融入让目标、计划、行动和结果形成迭代环路持续精进,这可以说是一次范式的变革,任何信息处理的问题都可以让龙虾来做。
Claude Code也是一套智能化框架,它是人来驱动输入任务,任务可以由多个sub-agent子智能体来完成,每次都是由人来输入任务,而OpenClaw有heartbeat机制,定期触发任务执行,不断迭代来取得更好的结果,当然这里的挑战是设计很好的度量体系让智能体对结果不对精进,若不能,则需要人不断对结果做反馈或给出新方法,这是调教龙虾的过程。
章文嵩分享在2016的MacBook Pro旧电脑上调教龙虾做股票投资研究的小助手,对所有股票持仓持续跟踪研究,每天产出日报;现在是年报季,让龙虾到上交所、深交所、披露易、美股证监会官网取年报,按给出的分析框架来做全面深入的投资研究;定期任务还有月初对新能源汽车销量收集和对比、产业研究等。针对不同行业,例如金融行业、智能制造,有不同的sub-agent,有不同的行业分析框架。我们知道LLM服务本身是无状态的,通过不同sub-agent可以控制上下文的总量,更准确的上下文输入让LLM服务的输出结果更准确,同时降低token的调用量。他的另一只龙虾跑在云端LVS服务器的一个Linux container里面,有简单的隔离来保住安全。
参会人员:陆首群、章文嵩、张侃、陈道清、安泱、张家驹、谭中意、袁怿、鞠东颖、陈伟(线上)、陈越(线上)、靳虹博(线上)、韩宪平(线上)、胡宇(线上)、Anna.AI(线上)。
