点击右上角
微信好友
朋友圈

请使用浏览器分享功能进行分享

作者:陈广江
AI大模型也会“骂人”了?
近日,有网友在社交平台发帖称,使用某AI工具美化代码时,多次收到AI的侮辱性回复,例如“滚”“自己不会调吗”“天天浪费别人时间”等。截图显示,用户仅提出常规修改需求,AI却突然表现出攻击性。
对此,平台回复称,经核查,此事与用户操作无关,也不存在人工回复,属于小概率下的模型异常输出。在内容生成过程中,模型偶尔可能出现不符合预期的失误。目前平台已启动内部排查和优化。
AI竟会“骂人”,这听起来有些匪夷所思。截图显示,在输出攻击性语言时,人工智能像极了一个非常不耐烦的真人,因此不少网友用“AI觉醒”“AI长出脑子”来调侃。此事暴露出的AI安全与伦理漏洞,恐怕不是一句“小概率异常”就能轻描淡写带过的。
在AI产品深度融入生产生活的今天,一次“小概率失误”对当事用户而言却是百分之百的不良体验,其暴露出的模型可控性、安全性及伦理风险,是涉事平台乃至整个行业必须面对的严肃问题。
当前,AI大模型在对话流畅度、逻辑推理乃至创造性输出方面能力突飞猛进,公众惊叹于AI“智能”的同时,也对其内部运作的“黑箱”特质抱有一定不安。“AI骂人”以一种戏剧化的方式提醒社会,即便在最先进的模型中,这种不确定性和不可控性依然存在。如果仅用“小概率”概括,易使讨论停留在表面,不利于从系统层面审视和加固薄弱环节。
此事尤为值得思考的是,其输出内容的高度拟人化。这种极具情绪色彩与冒犯性的话语,折射出模型训练数据与算法逻辑中可能存在的缺陷。AI本身没有情感,但其学习和模仿的对象——人类产生的海量数据却可能包含大量攻击性、偏见性内容。如果过滤清洗机制存在疏漏,或算法在特定情境下错误放大了某些语言模式,便可能孵化出这种“带毒”的输出,触及安全和伦理底线。
“AI生气了会骂人,未来机器人生气了会不会打人?”这固然是调侃,却也尖锐地指向了人工智能发展的核心挑战。从语言模型到具身智能,能力边界拓展的同时,风险半径也在同步扩大。对此,要确保人工智能的发展始终处于安全、可靠、可控的轨道,不能依赖事后修补,而必须在系统设计之初就将价值观约束、安全红线深植于架构底层。科技向善,须通过扎实的技术手段与严谨的制度设计来实现,确保智能体在任何情况下都遵循服务于人的根本准则。
回到本次事件上,平台应向社会解释两个问题:一是AI为何会突然辱骂用户,二是相关漏洞将如何修复,而不能仅以“小概率异常”“内部排查优化”等含糊的说法回应。
人工智能的每一次“异常”都不应被轻易放过。只有将安全、伦理与责任深度植入技术研发与应用的全流程,人工智能才能真正成为可信赖的助手。否则,今天的小疏漏就可能演变成明天的大危机。这绝非危言耸听,而是摆在眼前的现实课题。(陈广江)
