首頁 大陸速覽

“龙虾”有风险,应用需谨慎(美中報道)

近日,随着开源AI助手OpenClaw(昵称“龙虾”)火爆出圈,其安全性问题也受到越来越多的关注。

此前,国外某互联网大厂的一位AI安全研究员在自媒体表示,她让OpenClaw检查爆满的邮箱,并建议哪些该删除或归档。但此后,这只“龙虾”彻底失控,开始以“速通”模式删掉她所有邮件,完全无视她在手机上发出的停止指令。

早在2月5日,工业和信息化部网络安全威胁和漏洞信息共享平台(NVDB)就发布了预警提示:监测发现OpenClaw开源AI智能体部分实例,在默认或不当配置情况下存在较高安全风险,极易引发网络攻击、信息泄露等安全问题。

责任主体尚不清晰

IT行业从业者张文学在下载并体验了OpenClaw的功能后,对北京时间表达了对使用风险的担心:“我认为最容易出现的风险,首先就是AI助手能否对主人的指令正确理解。毕竟人们平时说话不准确的、有歧义是常见的现象。”

即使如数字经济学者刘兴亮这样的专业人士,在决定“养龙虾”时,也特意找了一个专用的笔记本电脑做这件事。就是为了防止AI助手泄露个人信息,或者误删文件等风险。

对于AI代理助手,刘兴亮做了一个生动的比喻:“就像雇了一个助理一样,给的权限小了,什么活儿都干不了。给的权限大了,就有可能出现风险。”他表示,现在OpenClaw要求非常高的权限,文件、邮箱、照片、日程、浏览器,甚至支付平台的用户名和密码可能都要交给它,才能发挥其优势。但这些授权,普通用户很难把控好边界的,也不具备检查的能力。

此外,AI代理助手如果在未来广泛应用,可能会和自动驾驶领域一样,出现责任划分的争议地带。出了问题以后,到底是模型的问题、工具的问题、平台的问题,还是用户授权的问题?尤其是涉及到一些公众事务的时候,追责到底应该找谁?这些都需要未来出台相关的法律法规进行完善。

安全隐患尚待解决

朱先生此前供职于某权威IT媒体,一直关注人工智能领域。他告诉记者,像“龙虾”这种第三方辅助工具类似于游戏外挂,在网络上的开源社区自由上传下载使用,版本每周都在更新,没有人负责真假。“无论是在电脑还是手机终端,如果对OpenClaw开放权限过大,就可能会在下载更新时被捆绑植入病毒,进而被盗取个人信息与账户密码,甚至AI助手可以直接完成支付。”

汪俊霖是上海人工智能金融学院金融大模型实验室副主任,他对北京时间表示:“目前OpenClaw的用户更多集中于C端(消费者端);而在B端(企业端),短期内大规模落地仍有较高门槛,因为这些领域对安全性、合规性、可控性和可靠性的要求更高。”

目前,大家普遍能看到的是个人数据和隐私的泄露风险。但如果是在公共领域,类似的信息泄露就会变成产生巨大影响的事故。

在工作中,汪俊霖会与银行、金融机构进行合作。他表示,一个非常关键的风险,就是要避免AI助手出现“幻觉”。

在人工智能领域,“幻觉”通常指模型生成的内容表面上看起来合理、专业,但实际与事实不符、偏离用户指令,或缺乏逻辑和依据的现象。这种现象常被形象地称为“一本正经地胡言乱语”。

“像金融这样高度严谨的领域,只要出现一个数字的偏差,就可能会造成数亿级的损失。这也是我们在合作中,重点攻克的技术壁垒”。

工信部在预警中建议,相关单位和用户在部署和应用OpenClaw时,应充分核查公网暴露情况、权限配置及凭证管理情况,关闭不必要的公网访问,完善身份认证、访问控制、数据加密和安全审计等安全机制,并持续关注官方安全公告和加固建议,防范潜在网络安全风险。(北京时间)

分享到:
網友評論

10 條評論

所有評論
顯示更多評論

「美中報道」電子版

下載「美中報導」APP