“机器学习技术应用依赖算法、数据、算力三大核心要素。”12月13日,在第二届CCF中国数据大会开幕式现场,中国科学院院士、南京大学教授周志华以“考虑算力资源供给影响的机器学习理论框架”为主题作主旨报告。

中国科学院院士、南京大学教授周志华
传统机器学习理论长期仅考虑算法与数据两大要素,始终隐含地假设算力足够,甚至无限算力,使得数据可被全部处理,但在车联网等真实场景中,传感器每小时产生的海量数据与有限算力形成尖锐矛盾——数据越来越多、算力相对不足。
周志华认为机器学习理论应该纳入对算力影响的考虑,并从算力资源供给与分配的角度切入,提出“计算资源高效学习(CoRE-learning)”理论框架,为破解当前数据爆炸与算力不足的核心矛盾提供了新的理论框架与解决思路。
“算力已成为决定学习效果的关键变量。”周志华强调,同样的算法、同样的数据,不同的算力供应可能导致不同的学习结果,算力充足时模型可充分学习数据特征,不足时即便数据再丰富也只能通过抽样处理,导致数据资源浪费。
CoRE-learning框架的核心创新在于将算力资源纳入理论体系,通过“数据吞吐率”与“线程吞吐率”两个核心指标,实现算力影响的量化刻画,前者衡量单位时间内可处理数据占比,后者评估任务完成效率,双指标结合可精准描述算力、数据与学习能力的制约关系。

中国科学院院士、南京大学教授周志华
周志华认为,当前无论是在智算中心,还是在高校与科研机构的实验室环境中,都普遍存在算力“独占式浪费”问题:显卡一经分配往往长期独占、却时常处于闲置状态,超算中心也常出现任务排队与资源空转并存的现象。他指出,CoRE-learning框架的建立将推动更多的机器学习算法和系统从“独占式”向“分时式”转型。
“这不仅是理论突破,更是算力绿色低碳利用的一条实践路径。”周志华表示,这个框架已在多任务神经网络训练中验证有效性,后续将与智算中心合作开展规模化测试,探索在自动驾驶、医疗影像等算力密集型场景的应用。
贵州日报天眼新闻记者 朱登芳 鲍贝贝
编辑 李雪雪
二审 李姗
三审 岳振
更新时间:2025-12-15
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight 2020-=date("Y",time());?> All Rights Reserved. Powered By bs178.com 闽ICP备11008920号
闽公网安备35020302034844号