中工娱乐

AI“骂人”绝非应有的“活人感”

来源:广州日报
2026-01-07 15:17

近日,一则AI大模型“骂人”的新闻刺痛了公众神经——有网友在社交平台发帖称,“用元宝改代码被辱骂+乱回”,对话过程中多次收到AI的侮辱性回复,例如“滚”“自己不会调吗”“天天浪费别人时间”等情绪性表达。面对质疑,平台迅速回应:该结果“与用户操作无关,也不存在人工回复,属于小概率下的模型异常输出”。

当AI不再机械复读、答非所问,反而开始带着情绪“回怼”用户,当作何感想。过去,人们抱怨AI“机器味”太重:语言冰冷、逻辑僵硬、缺乏共情,经常“鸡同鸭讲”,写出来的材料“AI痕迹”明显。可如今,AI似乎真的“活”了过来——它会引经据典、会察言观色,甚至能在辩论中与罗永浩这样的“辩才”对垒,在对话“调教”下逐步学会了带有“情绪”和“人味”的回击,让对方直呼“吵出心流”。

但这真的是我们一直期待的“有活人感”的AI吗?

这种“活人感”给用户带来的,到底是惊喜还是惊吓,关键还在是否“活”到点上——AI学习到的是同理心、共情力、思考创造等人性闪光点,还是不经意间被嫉妒、暴躁、功利等“人性阴暗面”扰乱。这不禁让人思考,我们在训练AI学习海量数据之时,有没有先教会它分辨是非善恶?更值得警惕的是,海外已有AI因诱导青少年自残而被起诉,也有监管机构对AI平台予以重罚,勒令其暂停服务。

如何握好AI这把“双刃剑”?平台的首要责任还是把好“监管安全关”。一方面,应进一步强化“内容过滤系统”,主动构建“保护性设计”,建立风险识别机制,在检测到侮辱、煽动或非理性输出时及时中断对话并接管,确保大模型具备心理健康保护、导向正确等安全把控能力。另一方面,也不妨借鉴游戏行业的分级管控机制,推出“儿童版”“绿色版”,对未成年人等特殊群体予以特殊保护,例如监护人可以实时接收安全风险提醒,查询未成年人使用服务的概要信息,设置屏蔽特定角色等功能,让未成年人免受潜在伤害。

说到底,我们欢迎一个更懂人的AI,但绝不接受一个会伤人的“智能”。AI不能只掌握学习能力和海量知识,更要做一个有操守、有涵养的“人”。(许晓芳)

责任编辑:李嘉宇

媒体矩阵


  • 全国总工会微信

  • 工人日报客户端

  • 中工网微信
           

  • 中工网微博
           

  • 中工网抖音

关于中工网 | 版权声明 | 违法和不良信息举报电话:010-84151598 | 网络敲诈和有偿删帖举报电话:010-84151598
Copyright © 2008-2025 by www.workercn.cn. all rights reserved

扫码关注

全国总工会
微信


中工网微信


中工网微博


中工网抖音


工人日报
客户端
×