
信息来源:
https://www.nature.com/articles/d41586-025-03936-2
威利出版社2025年10月发布的调查显示,62%的受访研究人员在日常科研工作中使用人工智能工具,这一比例较2024年的45%大幅跃升。但在效率提升的光环背后,越来越多证据揭示出一个令人不安的现实:对AI工具的依赖正在改变科学研究的基本性质,而这些改变的长期影响可能远比表面上的时间节省更加深远。
这项针对超过2400名研究人员的调查发现,85%的受访者认为AI提高了工作效率,77%认为增加了产出量,73%认为提升了工作质量。但同一调查也显示,87%的科学家担忧AI的"幻觉"错误,这一比例较2024年的81%显著上升。这种矛盾态度折射出学术界正处于技术变革的十字路口:既渴望AI带来的便利,又对其可能引发的风险深感警惕。
算法加速下的学术生态变迁
发表在预印本平台arXiv上的一项研究通过分析1980至2024年间6790万篇论文,识别出超过100万篇由AI辅助完成的学术论文。研究发现,使用AI的科学家发表论文数量更多、引用次数更高,并且比未使用AI的同行提前四年成为研究团队负责人。这些数字看似证明了AI对个人职业发展的积极作用,但作者同时警告,AI可能正在降低科学的多样性,因为它倾向于加速成熟且数据丰富的领域,而对新兴或跨学科方向的支持有限。
这种担忧在其他研究中得到印证。《自然》期刊2025年发表的分析指出,大型语言模型正在重塑科学方法论,但其影响并非单向度的生产力提升。斯坦福大学人工智能研究所发布的2025年AI指数报告显示,虽然AI在要求严苛的基准测试中表现持续改善,但其在科研应用中的可靠性仍存在系统性缺陷。
MIT媒体实验室的报告揭示了更令人震惊的数据:95%的企业AI试点项目未能实现可衡量的投资回报。这一现象在学术界同样存在——许多研究团队引入AI工具后,发现其对实质性科研突破的贡献远低于预期。哈佛商业评论将AI生成的低质量内容称为"工作垃圾",认为这些产出正在摧毁而非提升生产力。
幻觉问题:从技术缺陷到认知风险
AI的"幻觉"现象本质上是预测误差而非精神错乱。联合国大学的分析指出,将这种现象称为"幻觉"可能模糊了问题的真正性质——它是系统设计固有的缺陷,而非偶然故障。OpenAI最新研究解释了语言模型产生幻觉的机制:当模型被训练为必须给出答案而非承认"我不知道"时,它会生成表面可信但实际错误的内容。
这一问题在科学研究中尤为危险。《科学》杂志的报道显示,AI被训练为自信地伪造它不知道的答案,这与科学精神中的诚实性原则根本对立。较新的AI平台声称已减少科学论文引用方面的幻觉,但牛津大学数学家奈杰尔·希钦指出,真正的危险在于研究人员会想当然地认为AI模型是正确的,而不去验证其逻辑和推理过程。

超过60%的受访研究人员表示,他们在工作中会使用人工智能。图片来源:MD Abu Sufian Jewel/NurPhoto via Getty
墨尔本斯威本科技大学天体物理学家马修·贝利斯分享了一个典型案例:他团队的一名学生使用ChatGPT生成代码,但未进行测试就提交了论文,结果导致计算错误。这种现象并非个例。科学研究的幻觉率数据显示,顶级模型的平均错误率为3.7%,但某些情况下可高达16.9%。在处理数百万条数据的天文学研究中,即使3.7%的错误率也可能导致数万个错误结论。
理解缺失:效率提升的隐性代价
AI工具对科研工作流程的渗透正在改变研究人员的思维模式。贝利斯使用Anthropic开发的Claude插件版本创建宇宙虚拟模拟系统,将其定位为"辅助教师",用于模拟球状星团演化并展示黑洞和中子星形成过程。他认为这一工具的教育潜力"非常巨大",但同时强调必须培养学生对结果的批判性评估能力。
这种担忧指向一个更深层次的问题:当AI能够快速生成答案时,研究人员是否还有动力去深入理解问题本身?《美国国家科学院院刊》发表的研究探讨了使用大型语言模型与传统网络搜索对学习深度的影响,结论显示LLM可能降低用户的认知投入,因为它提供的即时答案减少了探索和思考的必要性。
希钦警告,AI在科研中的最大危险是可能导致"学术懒惰",因为研究人员不再需要理解答案正确或错误的原因。这种现象在编程领域尤为明显。大量研究人员使用ChatGPT等工具生成代码,但对代码逻辑缺乏基本理解。ACM数字图书馆的研究证实,虽然使用LLM编程能显著提高速度,但程序员对生成代码的理解程度明显下降。
职业生涯早期研究者的高风险敞口
威利调查显示,处于职业生涯早期的科学家以及物理科学领域的研究人员最可能成为AI的早期采用者。这一发现值得关注,因为早期职业阶段正是研究人员建立基础技能和科学直觉的关键时期。如果过度依赖AI工具,他们可能错过培养独立判断能力和方法论严谨性的机会。
METR组织2025年7月发布的随机对照试验研究了早期AI工具对经验丰富的开源开发者生产力的影响,结果出人意料:允许使用AI工具的组别完成任务的时间反而增加了19%,与预期的效率提升完全相反。研究者认为,这是因为开发者花费大量时间验证和修正AI生成的代码,而这一过程的时间成本抵消了初始生成的速度优势。
这一发现与广泛流传的AI生产力叙事形成鲜明对比。Anthropic公司分析了10万个真实的Claude对话,估算AI带来的生产力提升,但这类由AI公司资助的研究往往选择性地关注积极案例。圣路易斯联邦储备银行的分析指出,宏观层面的生产力数据并未显示出与AI采用率相匹配的增长,表明微观层面的效率提升可能被其他因素抵消。
寻找平衡:批判性采纳而非盲目拥抱
尽管存在诸多风险,完全拒绝AI工具也并非明智之举。贝利斯团队使用AI识别中子星特征已近十年,这项技术确实帮助他们从海量数据中快速筛选候选目标。关键在于研究人员必须保持批判性思维,像对待所有科学成果一样对AI输出保持怀疑态度。
《自然》子刊发表的综述强调,大型语言模型在系统综述和元分析中具有潜在价值,但必须明确其局限性。《科学直通车》的指南建议,学术写作中使用AI工具应遵循透明度原则,明确披露AI的使用方式和范围,并确保人类研究者对最终成果承担完全责任。
教育层面的干预至关重要。贝利斯强调,必须教会学生如何验证答案,这需要培养对结果合理性的直觉判断能力。当AI给出一个物理常数或统计结果时,研究人员应该能够根据量纲分析、数量级估算或领域知识快速判断其可信度。这种技能的培养不能被AI效率所取代。
威利调查中87%的研究者对AI错误的担忧,以及对数据安全和伦理问题的关注,表明学术界对这一技术变革保持着必要的警惕。当AI采用率从45%跃升至62%的同时,担忧比例从81%上升至87%,这种同步增长本身就是一个积极信号——科学界并未被技术乐观主义蒙蔽,而是在实践中逐渐认识到工具的双重性。
未来的学术生态可能需要建立更明确的AI使用规范,包括强制性的验证流程、同行评审中对AI使用的专门审查,以及研究生培养中对批判性AI素养的系统训练。正如希钦所说,科技进步不应导致学术标准的降低,而应推动我们更深刻地理解什么是真正有价值的科学工作。
更新时间:2025-12-08
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight 2020-=date("Y",time());?> All Rights Reserved. Powered By bs178.com 闽ICP备11008920号
闽公网安备35020302034844号