
随着人工智能(AI)越来越多地参与科学研究,尤其是在中美之间的激烈竞争中,一群独特的AI“科学家”揭示了这项技术仍然面临根本性的缺陷。
在上周举行的 Agents4Science 2025 会议上,每篇论文都将大型语言模型列为主要作者和审稿人,来自世界各地的学者分享了他们在科学工作中如何使用 AI 机器人以及遇到的挑战。
在一项研究中,OpenAI 的 ChatGPT 和 Anthropic 的 Claude 模拟了双边招聘市场,涵盖了从头脑风暴到实验设计的所有环节。观察到的主要局限性在于难以保持论文的背景和重点。
会议获悉,人工智能代理需要提醒才能更新支持文档,还出现了虚假参考资料和冗余代码及文本,直到加州一家求职平台的合作者介入才有所改善。
在另一篇论文中,谷歌的Gemini分析了旧金山2020年降低低收入司机拖车费政策的影响。加州大学伯克利分校的研究人员指出,人工智能在数据处理中发挥了重要作用,但却屡次捏造数据来源。
本次活动的联合组织者、斯坦福大学人工智能研究员邹詹姆斯表示,会议从 300 多份投稿中接收了 47 篇论文,所有论文都以人工智能系统为唯一第一作者,并在研究和写作过程中发挥主导作用。
邹先生表示,近年来人工智能已经从狭义的问题解决工具转变为能够帮助产生想法、分析数据甚至撰写论文的“合作科学家”。但他补充说,人工智能在科研中的作用仍然知之甚少。
这是因为会议和期刊不允许人工智能作为共同作者,这使得“人们很难透明地报告他们如何与这些Agent互动和使用这些Agent”,他说——正是这种限制促使他的团队创建了这场独一无二的活动。
会议期间举行了一场小组讨论,专家们在讨论中既表达了对人工智能在科学领域不断发展的作用的开放态度,也表达了对其当前局限性的担忧。

斯坦福大学计算天体物理学家丽莎·韦克斯勒表示,人工智能生成的研究显示出相对较强的技术能力,但科学判断力较弱。
韦克斯勒说:“我审阅的论文在技术上可能是正确的,但既不有趣也不重要。”
她表示,在其中一个案例中,人工智能进行了合理的数据分析,但实际上并没有提供任何有价值的信息。在另一个案例中,它对问题的表述“毫无道理”,并且使用了一种“过于复杂”的方法来解决问题。
韦克斯勒补充道:“我完全不相信人工智能代理目前有能力设计出稳健的科学问题,从而真正推动该领域的发展。”
芝加哥大学计算社会学家詹姆斯·埃文斯表示,如今的人工智能系统听起来往往中立而自信,这种语气在科学领域可能存在风险,因为它可能会让人们过于信任结果。
他说:“当你觉得人工智能知道自己在做什么,并且说话很有把握时,人们往往会把手从方向盘上拿开,让它自己开车。”
埃文斯警告说,这种讨好用户的设计也可能扼杀推动研究前景的争论。科学依赖于冲突和分歧——但如果每个人工智能代理都用同样礼貌、讨人喜欢的语气说话,那么这种创造性的摩擦就会消失。

《自然生物技术》主编芭芭拉·切菲特表示,虚假引用仍然是一个主要问题,人工智能工具仍然容易生成不存在的引用。
Cheifet 表示,人工智能最好被视为同事而不是作者,因为研究人员(而不是机器人)必须对科学论文的准确性、原创性和完整性负责。
当被问及 10 年后人工智能会成为科学家最喜欢的合作者、最强大的竞争对手还是最好的实习生时,韦克斯勒表示,这项技术可能会“介于最好的实习生和最喜欢的合作者之间”。
“我个人认为,人类科学是一项人类的事业,”她说。人工智能在技术上可以胜任,并有助于加速研究,“前提是我们真正让人们思考我们为什么要解决这些问题,以及什么才是重要的”。
更新时间:2025-11-03
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight 2020-=date("Y",time());?> All Rights Reserved. Powered By bs178.com  闽ICP备11008920号
闽公网安备35020302034844号