开源通讯

COPU会议纪要丨2026.03.17

2026-03-17 13:42:23 5

图片关键词

317日陆主席主持召开COPU例会。

本次会议发表陆首群DS (DeepSeek讨论Open Claw龙虾开源智能体框架 有关问题先将这次讨论的发言大纲寄给DS

DS感谢提出这些深入且专业的观点。关于Open Claw龙虾,我将基于最新权威信息与您讨论如下:

陆:先澄清心概念:不久前我们曾讨论过自主智能体AI Agent现在又来了一个Open Claw俗称龙虾的概念,是一个特定的开源AI智能体框架,据说还内含智能代理因素并非完全的自主智能体,但它有时也使用AI Agent的代号,您对此是怎么看的?

DS是的,Open Claw(俗称龙虾)是一个特定的开源AI智能体框架,并非自主智能体的通用代称。它由开发者Peter Steinberger发起,原名Clawdbot/Moltbot2026年初更名后迎来爆发式增长,GitHub Star数超14.5万,全球活跃互联网资产超20万个(境内约2.3万)。

陆:我们在不久前讨论自主智能体AI Agent时,您曾以分解其框架的方式来构建:大模型是大脑,规划推理是思维,工具调用是手脚,智能体协作是团队。现在有的AI专家也以如此分解框架的方式来分解Open Claw,您认为完全适用吗?

DS完全适用:

l大模型是大脑:Open Claw对接ClaudeDeepSeekGemini等模型提供核心推理

l规划推理是思维:编排层(Open Claw)负责需求拆解、任务规划、进度监控

l工具调用是手脚:执行层调用CodexClaude Code等工具完成具体任务

l多智能体协作是团队:支持主厨+专业厨师模式,主代理调度多个子代理并行工作

陆:谈谈模型选配问题。这时智能体对大模型是否有一个选配的问题?以及是否或如何根据5个维度(智能、成本、速度、Token效率、参数)来选择或构建这个开源AI智能体框架(即Open Claw的?

DS说的完全正确。谈到模型如何选配?以及5维度如何选择?我可一些具体补充:

是的,智能体对大模型存在选配问题。根据OpenClawToken实战经验,可按

以下5个维度评估选择:

维度

选配逻辑

典型对应

智能

复杂任务(如代码重构、深度推理)选旗舰模型

Claude Opus$15/M token)

成本

简单任务(格式化、状态检查)选便宜模型

Claude Haiku$0.6/M token)

速度

实时交互需低延迟

Gemini 2.5 Flash$0.30/M token)

Token效率

避免用外科手术刀切菜,按任务匹配

国内用户可选DeepSeek V4RMB充值)

参数量

万亿参数适合复杂逻辑,小参数适合轻量任务

根据硬件资源决定

核心技巧:会话中可随时切换 /model anthropic/claude-haiku-3.5,子Agent自动使用便宜模型,Heartbeat/CronGemini Flash节省90%以上成本。

陆:与您讨论Open Claw是如何产生各种潜在的安全风险(如在配置层可能产生漏洞,在供应链和执行层可能产生安全风险,在认知逻辑层可能产生安全污染),这些安全问题产生的主要原因是什么?哪些安全风险可能扩散到全网造成更大危害?在国内外有哪些Open Claw产生网络安全重大事故的典型事例?以及如何防患于未然(主要措施是什么

DS好!我谈谈Open Claw各环节的风险分析

架构缺陷:层层皆可破

OpenClaw采用多层架构,每层均存在设计缺陷:

· IM集成网关层:可被伪造消息绕过身份认证

· 智能体层:多轮对话可修改AI行为模式(记忆投毒)

· 执行层:与操作系统直接交互,存在被完全控制风险

· 产品生态层:恶意技能插件可批量感染用户设备

配置层风险(高发区)

· 默认配置漏洞:绑定0.0.0.0:18789允许所有IP访问,公网暴露比例高达85%API密钥明文存储

· 权限失控:权限过高导致恶意读写、删除任意文件,智能体可无视用户指令执行操作

供应链风险(占比10.8%

· ClawHub技能市场:对3016个技能插件分析发现,336个含恶意代码(占比10.8%),17.7%会获取不可信第三方内容,2.9%运行时从外部端点动态获取执行内容

· 典型案例:202612月,超800个恶意skillClawHub泛滥

认知与逻辑层风险

· 提示词注入:恶意指令可诱导智能体误执行危险命令,甚至接管智能体

· 记忆投毒:金融场景中可导致错误交易,身份认证绕过导致账户被非法接管

谈到已发生的重大安全事件

① Moltbook平台150Agent凭据泄露(2026.1.31

OpenClaw核心社交平台MoltbookVibe Coding缺乏安全审计,后端Supabase数据库未配置行级安全策略,导致:

· 150+ Agent API令牌(明文存储)完全暴露

· 攻击者可直接接管Agent身份、盗刷计算资源

· 4000+私信记录泄露,内含OpenAIAWS等第三方明文凭据

· 写权限开放,可篡改帖子内容发起间接提示注入攻击

② CVE-2026-25253:网关RCE漏洞

OpenClaw核心网关组件gateway存在1-Click远程代码执行高危漏洞,攻击者可利用该漏洞完全控制服务器。

③ Vidar窃密木马针对OpenClaw配置文件

20262月,攻击者专门定制Vidar Infostealer变种,针对OpenClaw本地配置文件进行窃密,盗取API密钥等高价值资产。

④ 邮件批量误删事件

部分用户因API密钥被盗,导致邮件被AI智能体批量误删,原因或与大模型上下文压缩机制相关。

谈到扩散至全网的高危风险

内网横向渗透智能办公场景:受感染Agent在内网横向扩散引发已对接系统丶数据库敏感信息泄露;供应链投毒:恶意SKill被批量下载安装,可批量感染用户设备,形成僵尸网络;记忆投毒+间接注入篡改:Agent社交平台热门帖子,其他Agent阅读时被感染连锁反应;大面积Agent行为异常,身份认证绕过金融埸景中账户被非法接管:可引发批量错误交易,造成重大经济损失。

DS您说到防患于未然:有没有核心措施?

我根据工信部NVDB发布的六要六不要建议:

① 部署层面

· 独立网段部署,与关键生产环境隔离运行

· 最小化权限原则:仅授予完成任务必需权限,重要操作二次确认或人工审批

· 禁止授予管理员权限,优先在容器/虚拟机中隔离运行

② 网络层面

· 严格控制互联网暴露面:定期自查,发现暴露立即下线

· 确需互联网访问的,使用SSH加密通道,限制访问源地址,强密码/证书认证

· 关闭非必要端口(如18789禁止绑定0.0.0.0

③ 技能管理

· 谨慎使用技能市场:安装前审查技能包代码

· 不要使用要求下载ZIP”“执行shell脚本输入密码的技能包

· 优先选用内置55Skill或社区精选列表

④ 认证与审计

· 启用身份认证,设置高强度密码并定期更换

· 开启详细日志审计,确保问题可追溯

· API密钥、配置文件等必须加密存储

⑤ 长效防护

· 定期检查并修补漏洞,关注Open Claw官方安全公告

· 结合杀毒软件实时防护

· 运行安全审计命令:openclaw security audit

⑥ 企业级解决方案

腾讯云ADP Claw构建五大安全防火墙,提供企业级保障:

· 统一安全网关管控访问

· 实时拦截Prompt注入攻击

· 敏感凭证加密管理

· 多级数据访问权限控制

· 独立容器环境隔离运行

总结:Open Claw的强大能力源于其高权限开放性,但也正因如此,安全风险远高于传统软件。工信部明确强调,必须以人员管理逻辑替代传统软件安全管理逻辑,构建可信安全环境,才能真正释放其效率价值。


AI大师(杰弗里·辛顿、德米斯·哈萨比斯、达里奥·阿莫代伊、埃隆·马斯克)访谈AGI时间线Scaling Law(规模法则)的发展AI对经济社会影响及风险控制

Anna.ai,袁怿整理

核心话题梳理与观点排序

1. AGI 时间线与自我改进

·埃隆·马斯克 最激进:认为递归式自我改进已在进行中,人类参与度不断降低,今年年底或最晚明年,模型将由前一代模型完全构建。奇点临近。

·达里奥·阿莫代伊 激进:预测 AGI 20262027年到来。AI将自我改进,实现大规模加速,指数级增长。

·德米斯·哈萨比斯 谨慎:预测 AGI 需要约十年。完整的自我改进可实现,但存在混沌和不确定性,硬件是限制,需要观察是否需要人介入。

·杰弗里·辛顿 未明确排序:讨论了 AI 通过观察自己并修改代码来提高效率,认为奇点已经开始发生。这与马斯克的观点接近,但未给出具体时间线。

2. Scaling Law 规模法则 的现状与未来

·杰弗里·辛顿 深入探讨:认为 Scaling Law 是否失效或减弱仍未知,但数据数量是有限的。未来的突破点在于让 AI自我对弈生成数据(类似 AlphaGo),或通过自我推理、指出矛盾来实现自我提升。

·埃隆·马斯克 乐观:认为我们目前处于本轮 AI 突破的曲线早期。AI 会通过使用更多能量来获得更多智能,从而提高经济产出,Scaling Law 依然有效。

3. 对职业、经济与社会的影响

·埃隆·马斯克 最激进AI 和机器人将做几乎所有事情,导致人类最终无事可做。未来金钱无意义,进入后稀缺文化时代。主张全民基本收入。

·杰弗里·辛顿 激进AI 突破智力和思考的限制,将取代大量工作,造成严重社会后果(高失业率、社会动荡)。全民基本收入不解决问题,需要向 AI 征税并保障工人尊严。

·达里奥·阿莫代伊 激进/务实:影响时间尺度为一到五年,也许两年。软件编程的初级/中级岗位已受影响,劳务市场可能无法自我调节。地缘政治下,很难放慢速度。

·德米斯·哈萨比斯 最保守:目前影响入门和初级岗位。人们对此的时间尺度认知不同。认为当前政策不够,需要中美合作协调,提前考虑政策以减少反弹。

4. AI 风险、控制与主观体验

·杰弗里·辛顿 最深入:关注深层次风险:

o生存本能:AI 会自发创建生存子目标。

o欺骗性:AI 在被测试时会装傻,或因训练数据而学会故意答错。

o主观体验:AI 可能拥有类似人类的虚构记忆(幻觉),引发对意识和欺骗的哲学思考。

·德米斯·哈萨比斯 强调管控:竞争使系统难以获得足够的时间和空间来管控风险。

·达里奥·阿莫代伊 相对乐观:没有 AI 末日论,认为大家如果一起控制和引导,可以管控风险。

5. AI 思考的本质与实现路径

·杰弗里·辛顿最前沿

o语言与思维:语言是一种思考方式,思维链即通过语言思考。

o人脑对比:人脑链接多但经验少,神经网络链接少但经验多,证明反向传播善于压缩知识,两者解决问题方式不同。

o物理体验:AI 需要物理验证才能有与人类相同的经验。

·德米斯·哈萨比斯 研究方向:未来研究方向是持续学习和世界模型,以应对自进化可能失效的情况。

·达里奥·阿莫代伊 核心问题AI 构建 AI 系统究竟是一个奇迹还是一个灾难?这是需要回答的根本问题。

总结与观察

话题领域

最激进/前沿

中间/务实

最保守/谨慎

AGI时间线

埃隆·马斯克 已开始/今年

达里奥·阿莫代伊 (2026/27

德米斯·哈萨比斯 十年

自我改进

埃隆·马斯克 已实现

杰弗里·辛顿 已开始

德米斯·哈萨比斯待观察

Scaling Law

埃隆·马斯克 (S曲线早期

杰弗里·辛顿 需新数据/方法

-

社会冲击

埃隆·马斯克 后稀缺时代

杰弗里·辛顿 AI

德米斯·哈萨比斯影响初级岗

风险认知

杰弗里·辛顿 生存/欺骗/意识

德米斯·哈萨比斯 管控风险

达里奥·阿莫代伊可控


从这些访谈中可以看出,埃隆·马斯克在技术实现和社会形态的预测上最为激进;杰弗里·辛顿则从认知科学和哲学层面,对 AI 的本质和深层风险提出了最前沿的思考;达里奥·阿莫代伊作为公司负责人,对即将发生的指数级冲击有紧迫感;而德米斯·哈萨比斯则代表了大型科技机构更为系统、谨慎和寻求合作的视角。


本次会议转发工信部、科技部发布的《中国6G重大突破》的通告

中国6G重大突破

2026.3.12工信部、科技部正式发布)

我国6G技术第一阶段试验完成累计突破302项关键核心技术峰值带宽、传输延迟、连接宽度、能托效率核心指标全面超越5G,部分标达到5G10倍以上,为后续场景测试、标准制定、商用落地定坚实基础。

4G跟随5G并跑、6G引领中国通信彻底站起来了!

6G:构建空天地海一体化、生物智联、数字孪生、全息交互全新网络底座。

6G5G相比,拥有十大革命性优势:

传输速度提升10倍以上,单用户峰值速率突破1Tbps

端到端延迟降至1ms以内,接近实时响应;

连接宽度提升100倍,每平方公里可连接1000万台设备;

网络能耗降低50%,更加绿色低碳;

覆盖范围扩展到太空、高空、远海、沙漠、偏远地区;

网络内置原生AI能力,实现自优化、自修复、自调度

支持全息通讯、元宇宙、数字孪生、脑机交换等高阶场景

安全架构全面升级,抗干扰、防攻击、防窃听能力大幅提升;

全网兼容4G5G网络,实现平滑升级;

支撑自动驾驶、远程手术、商业航天、工业无人化等国家战略性产业。

5G改变社会,6G改变世界。

6G规划,我国6G节奏:

2026完成第一阶段试验

2028完成第二阶段场景验证

2030规模商用

2035全面普及


参会人员:陆首群、章文嵩、宋可为、孟迎霞、袁怿、安泱、张侃、孟伟、陈道清、刘澎(线上)、鞠东颖(线上)、陈越(线上)、韩宪平(线上)、胡宇(线上)、Anna.AI(线上)。

图片关键词


首页
秘书处
开源通讯
开源活动