点击右上角
微信好友
朋友圈

请使用浏览器分享功能进行分享

作者:王振宇 李瑞
近日,“龙虾”(OpenClaw)火遍全网。它是由外国程序员开发的一款开源的、可部署在本地电脑或服务器上的人工智能代理软件,因其标志为一只红色的卡通龙虾,故被称为“龙虾”。与仅用于对话的AI软件不同,“龙虾”通过整合多渠道通信能力与大语言模型,具备了持久记忆、主动执行能力,是一款定制化的AI助手。
想象一下,你不再需要亲自打开一个个软件,只需对电脑输入一句指令:“整理上周的会议记录和邮件,按项目分类,并生成待办清单发送至手机”,片刻之后任务便自动完成。这样近乎科幻的场景,因“龙虾”的出现已初步实现。因此,它的快速走红不足为奇。从民间极客到产业巨头再到地方政府,都对这一新生事物给予高度关注。
我们为这样的技术跃迁感到振奋。“龙虾”的出现,说明人工智能正从“聊天机器”迈向“执行机器”,真正开始嵌入人们的生产生活。但在“养虾”热潮中,也需保持理性思考。
技术发展史一再表明,几乎每一轮重大技术浪潮都会经历“过度期待”的阶段。在围绕“龙虾”的讨论中,也已经出现类似迹象:有人将其视为“打工人的终极外挂”,有人将其包装成“一人创业”的万能工具,仿佛只要部署一个智能体,个人生产力就可以无限放大。然而,技术演示与产业成熟之间,往往隔着很长一段距离。能够在极客圈惊艳亮相,并不意味着马上就能在复杂的社会环境中稳定运行。若将局部场景中的成功经验简单外推,很容易把技术热度误读为产业现实。
更重要的是,当人工智能开始“动手”,风险也随之发生变化。过去,大模型主要带来的是信息风险,例如内容失真、虚假信息等。但AI智能体不仅生成内容,还能够调用工具、访问系统、执行操作。换句话说,它不只是“说错话”,还可能“做错事”。 近日,工业和信息化部网络安全威胁和漏洞信息共享平台发布提示,“龙虾”在部分配置环境中存在较高安全风险,可能导致网络攻击或数据泄露。
当一个智能体拥有持续运行能力、网络访问能力以及任务执行能力时,它就像一个拥有钥匙和权限的数字助手。一旦被诱导、劫持或恶意利用,其影响就不再只是“回答错误”,而可能是系统被入侵、数据被窃取甚至设备被控制。与此同时,技术热潮往往也会吸引灰黑产业“搭便车”。近期已有安全研究发现,一些仿冒安装包、恶意插件甚至木马程序正借助“龙虾”的热度传播。
这提醒我们,在技术创新的浪潮中,风险并不会自动消失,反而往往与创新同步增长。因此,对这些新事物最理性的态度,既不是盲目追捧,也不是简单否定,而是保持必要的清醒。越是技术拐点,越需要加入一份审慎。
与传统生成式人工智能相比,智能体的核心特征在于“行动能力”。这意味着治理思路也需要同步升级——不仅要关注人工智能“说什么”,更要关注它“做什么、怎么做”,为“会动手”的智能体立规矩。
首先,将过程管理和伦理审查前移,为智能体装上“刹车系统”。过去对生成式人工智能,大家最关心的是输出内容是否失真、失范;但到了智能体阶段,真正关键的是任务执行链条本身。它调用了哪些工具、访问了哪些数据、拥有多大权限、关键节点有没有人复核,这些都应该成为治理重点。特别在医疗、金融、政务等高敏感领域,应建立更严格的准入与审查制度,为风险设置硬边界。
其次,以敏捷治理回应技术快跑,扭转“一步到位”的管理思路。智能体技术更新速度极快,插件生态、模型能力和应用场景都在不断变化。传统的“规则先定、技术后走”模式很难适应这种节奏。更现实的路径是,通过监管沙盒、风险分级、动态备案、快速通报、漏洞协同修补等机制,合力形成“边发展、边评估、边校正”的治理节奏,让创新有空间,让安全有底线。
再次,推动技术治理与制度治理协同发力,让“安全设计”与“规则设计”同时“在线”。我们既要在技术层面嵌入身份认证、权限控制、异常监测、行为审计、安全沙箱等防护手段,把风险尽量拦在系统内部;也要在制度层面完善标准规范、责任认定和行业指引,明确开发者、平台和使用者之间的责任边界。
更长远看,“龙虾热”真正提出的问题是:我们应以何种姿态迎接 AI 智能体时代?不能只顾着看它跑得多快,也要思考如何为其划跑道、设护栏、装刹车,让智能体真正成为可靠的助手。
(作者分别系中国科学院科技战略咨询研究院学部综合研究支撑中心执行副主任,中国科学院科技战略咨询研究院学部科学规范与伦理研究支撑中心助理研究员)
