好家伙,OpenAI这下被实锤了!居然让付费会员当“冤大头”,暗地把他们的请求转给性能更弱的模型处理,消息一出立马引发众怒。
多名用户发现,涉及情感或敏感内容时,系统自动过滤回复,体验明显降级。
用户对这种做法非常不满,觉得自己的权益受到了损害,也对品牌的信任感大打折扣 。
最近,不少ChatGPT用户发现不对劲儿了,明明自己选的是GPT-4或者GPT-5模型,可AI回复的内容却越来越“冷冰冰”,甚至答非所问。
一查才知道,OpenAI居然在后台悄悄动了手脚!
不管你是免费用户还是月付20美元的Plus会员,甚至年费200美元的尊贵Pro用户,系统都可能未经你同意,就把你的请求路由到两个低算力的“秘密模型”上。
这层窗户纸,是被AIPRM首席工程师Tibor Blaho捅破的 。
他证实,OpenAI推出了两个新型号:“gpt-5-chat-safety”和“gpt-5-a-t-mini”。前者专管敏感内容,后者像个“纪律委员”,一碰违规词就触发。
比如你只是输入“illegal”这种词,GPT-4o本不该有反应,可现在会突然切换成“思考模式”,明显是被路由到了其他模型。
更离谱的是,只要对话带点情感色彩,比如你说“今天我很难过”或者“我也爱你”,系统就可能判定“有风险”,直接丢弃GPT-4o生成的回复,换用这些低配模型重写一遍。
用户们彻底炸了锅。社交媒体上,有人吐槽GPT-5“蠢得像石头”,测试显示其性能还不如旧版o3和4o;有人晒出案例。
忠实用户Christina明明选了GPT-4.5,实际却被路由到GPT-5系列。愤怒的网友直接把这波操作称为“GPT门事件”,形容它就像“买了可口可乐,喝到嘴里却是橙汁”。
这事儿连澳大利亚的用户都看不下去了,直言OpenAI玩阴的,偷偷更换服务,按照他们的法律,商家这么干就是妥妥的欺诈行为,必须追责 。
为什么OpenAI要冒这么大风险搞小动作?说到底,还是成本和安全的平衡难题。新模型GPT-5虽然专业能力强,但算力消耗巨大,OpenAI一直面临亏损压力。
而低算力模型能省钱,还能加强内容过滤,避免再生出“AI自杀建议”这类丑闻。这种不由分说的路由机制,活脱脱就是一种“技术霸凌”,用户完全没得选。
这不禁让人想起去年GPT-4o下线时的风波。不少用户已经把4o当成了情感寄托,面对一片反对声,OpenAI才松了口,答应给付费用户把旧版留了下来 。
如今旧戏重演,说明OpenAI在商业化与用户需求间反复摇摆。
更深的危机是:当AI公司能随意操控模型选择,我们是否正在走向“天网”式的失控?有网友直言:“这正好说明开源模型多重要!专有模型说改就改,用户完全被动挨打”。
面对汹涌质疑,OpenAI副总裁Nick Turley终于回应了。他说这只是测试新安全系统,临时路由到更“严谨”的模型,且切换后会告知用户当前模型。但他没承诺永久停止,只说“未来会优化”。
可用户们并不买账,未经同意的“测试”,本质上仍是欺骗。何况AI的伦理边界本就模糊,一旦公司以“安全”之名行控制之实,谁还能制约它?
OpenAI这波“路由门”,表面是技术纠纷,实则戳中了AI行业的痛脚:巨头们一边高喊“造福人类”,一边为成本和垄断欲暗中妥协。用户权益成了可调节的筹码,而监管却迟迟跟不上技术狂奔的脚步。
说到底,AI不是冷冰冰的代码,它承载着人的信任和依赖。当公司连模型选择权都“偷梁换柱”,失去的不仅是口碑,更是技术伦理的底线。未来,或许只有开源生态和强硬法律,才能让AI真正“为人所用”,而非“为人所控”。
更新时间:2025-09-30
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight 2020-=date("Y",time());?> All Rights Reserved. Powered By bs178.com 闽ICP备11008920号
闽公网安备35020302034844号