COPU会议纪要丨2026.03.17

3月17日陆主席主持召开COPU例会。
本次会议发表陆首群与DS (DeepSeek)讨论Open Claw(“龙虾”开源智能体框架) 有关问题(陆先将这次讨论的发言大纲寄给DS阅)
DS:感谢您提出这些深入且专业的观点。关于Open Claw(龙虾),我将基于最新权威信息与您讨论如下:
陆:先澄清核心概念:不久前我们曾讨论过自主智能体(AI Agent),现在又来了一个Open Claw(俗称“龙虾”)的概念,是一个特定的开源AI智能体框架,据说还内含“智能代理”的因素,(并非完全的自主智能体),但它有时也使用AI Agent的代号,您对此是怎么看的?
DS:是的,Open Claw(俗称“龙虾”)是一个特定的开源AI智能体框架,并非自主智能体的通用代称。它是由开发者Peter Steinberger发起,原名Clawdbot/Moltbot,2026年初更名后迎来爆发式增长,GitHub Star数超14.5万,全球活跃互联网资产超20万个(境内约2.3万)。
陆:我们在不久前讨论自主智能体(AI Agent)时,您曾以分解其框架的方式来构建:大模型是大脑,规划推理是思维,工具调用是手脚,智能体协作是团队。现在有的AI专家也以如此分解框架的方式来分解Open Claw,您认为完全适用吗?
DS:完全适用:
l大模型是大脑:Open Claw对接Claude、DeepSeek、Gemini等模型提供核心推理;
l规划推理是思维:编排层(Open Claw)负责需求拆解、任务规划、进度监控;
l工具调用是手脚:执行层调用Codex、Claude Code等工具完成具体任务;
l多智能体协作是团队:支持“主厨+专业厨师”模式,主代理调度多个子代理并行工作。
陆:再来谈谈模型选配问题。这时智能体对大模型是否有一个选配的问题?以及是否或如何根据5个维度(智能、成本、速度、Token效率、参数量)来选择或构建这个开源AI智能体框架(即Open Claw)的?
DS:您说的完全正确。谈到模型如何选配?以及5个维度如何选择?我可做一些具体补充:
是的,智能体对大模型存在选配问题。根据OpenClaw省Token实战经验,可按
以下5个维度评估选择:
维度 | 选配逻辑 | 典型对应 |
智能 | 复杂任务(如代码重构、深度推理)选旗舰模型 | Claude Opus($15/M token) |
成本 | 简单任务(格式化、状态检查)选便宜模型 | Claude Haiku($0.6/M token) |
速度 | 实时交互需低延迟 | Gemini 2.5 Flash($0.30/M token) |
Token效率 | 避免“用外科手术刀切菜”,按任务匹配 | 国内用户可选DeepSeek V4(RMB充值) |
参数量 | 万亿参数适合复杂逻辑,小参数适合轻量任务 | 根据硬件资源决定 |
核心技巧:会话中可随时切换 /model anthropic/claude-haiku-3.5,子Agent自动使用便宜模型,Heartbeat/Cron用Gemini Flash节省90%以上成本。
陆:我想与您讨论Open Claw是如何产生各种潜在的安全风险的(如在配置层可能产生漏洞,在供应链和执行层可能产生安全风险,在认知与逻辑层可能产生安全污染),这些安全问题产生的主要原因是什么?哪些安全风险可能扩散到全网造成更大危害?在国内外有哪些Open Claw产生网络安全重大事故的典型事例?以及如何防患于未然(主要措施是什么?)
DS:好!我谈谈Open Claw各环节的风险分析
架构缺陷:层层皆可破
OpenClaw采用多层架构,每层均存在设计缺陷:
· IM集成网关层:可被伪造消息绕过身份认证
· 智能体层:多轮对话可修改AI行为模式(记忆投毒)
· 执行层:与操作系统直接交互,存在被完全控制风险
· 产品生态层:恶意技能插件可批量感染用户设备
配置层风险(高发区)
· 默认配置漏洞:绑定0.0.0.0:18789允许所有IP访问,公网暴露比例高达85%,API密钥明文存储
· 权限失控:权限过高导致恶意读写、删除任意文件,智能体可无视用户指令执行操作
供应链风险(占比10.8%)
· ClawHub技能市场:对3016个技能插件分析发现,336个含恶意代码(占比10.8%),17.7%会获取不可信第三方内容,2.9%运行时从外部端点动态获取执行内容
· 典型案例:2026年1—2月,超800个恶意skill在ClawHub泛滥
认知与逻辑层风险
· 提示词注入:恶意指令可诱导智能体误执行危险命令,甚至接管智能体
· 记忆投毒:金融场景中可导致错误交易,身份认证绕过导致账户被非法接管
谈到已发生的重大安全事件
① Moltbook平台150万Agent凭据泄露(2026.1.31)
OpenClaw核心社交平台Moltbook因Vibe Coding缺乏安全审计,后端Supabase数据库未配置行级安全策略,导致:
· 150万+ Agent API令牌(明文存储)完全暴露
· 攻击者可直接接管Agent身份、盗刷计算资源
· 4000+私信记录泄露,内含OpenAI、AWS等第三方明文凭据
· 写权限开放,可篡改帖子内容发起间接提示注入攻击
② CVE-2026-25253:网关RCE漏洞
OpenClaw核心网关组件gateway存在1-Click远程代码执行高危漏洞,攻击者可利用该漏洞完全控制服务器。
③ Vidar窃密木马针对OpenClaw配置文件
2026年2月,攻击者专门定制Vidar Infostealer变种,针对OpenClaw本地配置文件进行窃密,盗取API密钥等高价值资产。
④ 邮件批量误删事件
部分用户因API密钥被盗,导致邮件被AI智能体批量误删,原因或与大模型上下文压缩机制相关。
谈到扩散至全网的高危风险
内网横向渗透智能办公场景:受感染Agent在内网横向扩散引发已对接系统丶数据库敏感信息泄露;供应链投毒:恶意SKill被批量下载安装,可批量感染用户设备,形成僵尸网络;记忆投毒+间接注入篡改:Agent社交平台热门帖子,其他Agent阅读时被感染连锁反应;大面积Agent行为异常,身份认证绕过金融埸景中账户被非法接管:可引发批量错误交易,造成重大经济损失。
DS:您说到防患于未然:有没有核心措施?
我根据工信部NVDB发布的“六要六不要”建议:
① 部署层面
· 独立网段部署,与关键生产环境隔离运行
· 最小化权限原则:仅授予完成任务必需权限,重要操作二次确认或人工审批
· 禁止授予管理员权限,优先在容器/虚拟机中隔离运行
② 网络层面
· 严格控制互联网暴露面:定期自查,发现暴露立即下线
· 确需互联网访问的,使用SSH加密通道,限制访问源地址,强密码/证书认证
· 关闭非必要端口(如18789禁止绑定0.0.0.0)
③ 技能管理
· 谨慎使用技能市场:安装前审查技能包代码
· 不要使用要求“下载ZIP”“执行shell脚本”或“输入密码”的技能包
· 优先选用内置55个Skill或社区精选列表
④ 认证与审计
· 启用身份认证,设置高强度密码并定期更换
· 开启详细日志审计,确保问题可追溯
· API密钥、配置文件等必须加密存储
⑤ 长效防护
· 定期检查并修补漏洞,关注Open Claw官方安全公告
· 结合杀毒软件实时防护
· 运行安全审计命令:openclaw security audit
⑥ 企业级解决方案
腾讯云ADP Claw构建五大安全防火墙,提供企业级保障:
· 统一安全网关管控访问
· 实时拦截Prompt注入攻击
· 敏感凭证加密管理
· 多级数据访问权限控制
· 独立容器环境隔离运行
总结:Open Claw的强大能力源于其高权限开放性,但也正因如此,安全风险远高于传统软件。工信部明确强调,必须以“人员管理逻辑”替代传统“软件安全管理逻辑”,构建可信安全环境,才能真正释放其效率价值。
AI大师(杰弗里·辛顿、德米斯·哈萨比斯、达里奥·阿莫代伊、埃隆·马斯克)访谈AGI时间线、Scaling Law(规模法则)的发展、AI对经济社会影响及风险控制
由Anna.ai,袁怿整理
核心话题梳理与观点排序
1. AGI 时间线与自我改进
·埃隆·马斯克 (最激进):认为递归式自我改进已在进行中,人类参与度不断降低,今年年底或最晚明年,模型将由前一代模型完全构建。奇点临近。
·达里奥·阿莫代伊 (激进):预测 AGI 在2026或2027年到来。AI将自我改进,实现大规模加速,指数级增长。
·德米斯·哈萨比斯 (谨慎):预测 AGI 需要约十年。完整的自我改进可实现,但存在混沌和不确定性,硬件是限制,需要观察是否需要人介入。
·杰弗里·辛顿 (未明确排序):讨论了 AI 通过观察自己并修改代码来提高效率,认为奇点已经开始发生。这与马斯克的观点接近,但未给出具体时间线。
2. Scaling Law (规模法则) 的现状与未来
·杰弗里·辛顿 (深入探讨):认为 Scaling Law 是否失效或减弱仍未知,但数据数量是有限的。未来的突破点在于让 AI自我对弈生成数据(类似 AlphaGo),或通过自我推理、指出矛盾来实现自我提升。
·埃隆·马斯克 (乐观):认为我们目前处于本轮 AI 突破的S 曲线早期。AI 会通过使用更多能量来获得更多智能,从而提高经济产出,Scaling Law 依然有效。
3. 对职业、经济与社会的影响
·埃隆·马斯克 (最激进):AI 和机器人将做几乎所有事情,导致人类最终无事可做。未来金钱无意义,进入后稀缺文化时代。主张全民基本收入。
·杰弗里·辛顿 (激进):AI 突破智力和思考的限制,将取代大量工作,造成严重社会后果(高失业率、社会动荡)。全民基本收入不解决问题,需要向 AI 征税并保障工人尊严。
·达里奥·阿莫代伊 (激进/务实):影响时间尺度为一到五年,也许两年。软件编程的初级/中级岗位已受影响,劳务市场可能无法自我调节。地缘政治下,很难放慢速度。
·德米斯·哈萨比斯 (最保守):目前影响入门和初级岗位。人们对此的时间尺度认知不同。认为当前政策不够,需要中美合作协调,提前考虑政策以减少反弹。
4. AI 风险、控制与主观体验
·杰弗里·辛顿 (最深入):关注深层次风险:
o生存本能:AI 会自发创建生存子目标。
o欺骗性:AI 在被测试时会装傻,或因训练数据而学会故意答错。
o主观体验:AI 可能拥有类似人类的虚构记忆(幻觉),引发对意识和欺骗的哲学思考。
·德米斯·哈萨比斯 (强调管控):竞争使系统难以获得足够的时间和空间来管控风险。
·达里奥·阿莫代伊 (相对乐观):没有 AI 末日论,认为大家如果一起控制和引导,可以管控风险。
5. AI 思考的本质与实现路径
·杰弗里·辛顿(最前沿):
o语言与思维:语言是一种思考方式,思维链即通过语言思考。
o人脑对比:人脑链接多但经验少,神经网络链接少但经验多,证明反向传播善于压缩知识,两者解决问题方式不同。
o物理体验:AI 需要物理验证才能有与人类相同的经验。
·德米斯·哈萨比斯 (研究方向):未来研究方向是持续学习和世界模型,以应对自进化可能失效的情况。
·达里奥·阿莫代伊 (核心问题):AI 构建 AI 系统究竟是一个奇迹还是一个灾难?这是需要回答的根本问题。
总结与观察
话题领域 | 最激进/前沿 | 中间/务实 | 最保守/谨慎 |
AGI时间线 | 埃隆·马斯克 (已开始/今年) | 达里奥·阿莫代伊 (2026/27年) | 德米斯·哈萨比斯 (十年) |
自我改进 | 埃隆·马斯克 (已实现) | 杰弗里·辛顿 (已开始) | 德米斯·哈萨比斯(待观察) |
Scaling Law | 埃隆·马斯克 (S曲线早期) | 杰弗里·辛顿 (需新数据/方法) | - |
社会冲击 | 埃隆·马斯克 (后稀缺时代) | 杰弗里·辛顿 (需AI税) | 德米斯·哈萨比斯(影响初级岗) |
风险认知 | 杰弗里·辛顿 (生存/欺骗/意识) | 德米斯·哈萨比斯 (管控风险) | 达里奥·阿莫代伊(可控) |
从这些访谈中可以看出,埃隆·马斯克在技术实现和社会形态的预测上最为激进;杰弗里·辛顿则从认知科学和哲学层面,对 AI 的本质和深层风险提出了最前沿的思考;达里奥·阿莫代伊作为公司负责人,对即将发生的指数级冲击有紧迫感;而德米斯·哈萨比斯则代表了大型科技机构更为系统、谨慎和寻求合作的视角。
本次会议转发工信部、科技部发布的《中国6G重大突破》的通告
中国6G重大突破
(2026.3.12工信部、科技部正式发布)
我国6G技术第一阶段试验完成,累计突破302项关键核心技术,峰值带宽、传输延迟、连接宽度、能托效率等核心指标全面超越5G,部分标达到5G的10倍以上,为后续场景测试、标准制定、商用落地奠定坚实基础。
4G跟随、5G并跑、6G引领,中国通信彻底站起来了!
6G:构建空天地海一体化、生物智联、数字孪生、全息交互的全新网络底座。
6G与5G相比,拥有十大革命性优势:
①传输速度提升10倍以上,单用户峰值速率突破1Tbps;
②端到端延迟降至1ms以内,接近实时响应;
③连接宽度提升100倍,每平方公里可连接1000万台设备;
④网络能耗降低50%,更加绿色低碳;
⑤覆盖范围扩展到太空、高空、远海、沙漠、偏远地区;
⑥网络内置原生AI能力,实现自优化、自修复、自调度;
⑦支持全息通讯、元宇宙、数字孪生、脑机交换等高阶场景;
⑧安全架构全面升级,抗干扰、防攻击、防窃听能力大幅提升;
⑨全网兼容4G、5G网络,实现平滑升级;
⑩支撑自动驾驶、远程手术、商业航天、工业无人化等国家战略性产业。
5G改变社会,6G改变世界。
6G规划,我国6G节奏:
2026,完成第一阶段试验
2028,完成第二阶段场景验证
2030,规模商用
2035,全面普及
参会人员:陆首群、章文嵩、宋可为、孟迎霞、袁怿、安泱、张侃、孟伟、陈道清、刘澎(线上)、鞠东颖(线上)、陈越(线上)、韩宪平(线上)、胡宇(线上)、Anna.AI(线上)。
