1、115单位、超1300项!2025年国家科技奖公示名单汇总
按照2025年度国家科技奖提名工作通知,通用项目网络填报截止时间为6月30日。将有120余单位(国家部委、省市、社会团队)以及院士专家提名超1300项成果(人选)申报国家科技奖(通用类)、约200项成果申报申报国家科技奖(专用类)。具体情况如下:
1、2025年国家最高科技奖,公示名单
国家最高科学技术奖,作为中国科技界的最高荣誉,每年评选不超过两名,旨在表彰在科学技术领域作出杰出贡献的科学家。目前有16名科学家拟提名国家最高科技奖,其中院士15人。
2、2025年国家三大奖,公示名单汇总(自然科学奖、技术发明奖、科技进步奖通用项目)
115个提名单位公示了1290余项成果申报国家三大奖(含院士专家提名),其中提名科技进步特等奖的成果17项。(注:数据来自高绩、科奖在线、各部委、各省市、各社会团队,数据可能存在误差,具体以政府公布信息为准)
文章来源:知情会
2、机器人马拉松冠军开源!北京人形正式发布运动控制框架Tien Kung-Lab
运动控制能力作为决定环境适应性与任务执行能力的核心技术,是人形机器人从实验室迈向规模化应用最重要的门槛之一。7月7日,北京人形机器人创新中心(后称北京人形)正式发布开源运动控制框架Tien Kung-Lab,将机器人马拉松冠军的运控算法面向行业开源,填补高性能人形机器人运动控制框架在开源领域的空白,为工业场景、物流场景与特种作业场景等高复杂环境下规模化应用提供核心基础技术支撑。
Tien Kung-Lab是一套基于Isaaclab开发的开源强化学习运动控制算法框架,该框架融合前沿的强化学习技术和人体运动数据,旨在让人形机器人实现自然、高效、稳定的运动控制。在此前进行的全球首届人形机器人马拉松比赛中,搭载该运控算法的天工Ultra以2时40分42秒跑完21.0975公里,夺得全球首个人形机器人马拉松冠军。
该方法首次融合了模仿学习与强化学习的优势,基于Adversarial Motion Prior(AMP)风格化奖励机制,通过引入动作捕捉数据作为先验,让人形机器人在走路、跑步等移动中具备面对复杂地形的高稳定性和高泛化性的同时,还保留了与人类高度相似的优雅姿态。Tien Kung-Lab所开源的针对人形机器人的步态奖励,可让开发者快速地训练出走路,跑步等策略。
为了帮助开发者更方便的进行感知策略训练,此次开源的算法框架,改进了相关的光线追踪技术,实现了训练环境中深度图和激光雷达点云的快速准确获取,让仿真环境下从感知到运动的端到端训练成为可能。同时,Tien Kung-Lab支持在高保真物理引擎MuJoCo进行Sim2Sim交叉验证,可实现从训练到交叉验证的无缝迁移。
当前,Tien Kung-Lab已在天工2.0全尺寸人形机器人上实现了具备高泛化性能的行走与奔跑,并在Open X-Humanoid开源社区、Github、Gitee等平台开放下载,加速全球人形机器人运动控制算法的研发迭代与生态构建。
如同人类需要稳健行走才能劳动,强大的运动控制能力是人形机器人执行各类产业任务的基础前提。基于Tien Kung-Lab,开发者可以快速让人形机器人具备面对复杂地形的泛化移动能力和快速移动能力,从而加快研发速度。
在北京亦庄举办的全球首届人形机器人马拉松比赛中,Tien Kung-Lab经历了超长赛程和真实路况的挑战,在运动控制层面保证了天工Ultra每一次迈步与落地的稳定、准确,跨越了真实道路中凸起、凹陷、减速带、细小石子等随机干扰,最终实现了顺利完赛。
早在2024年4月发布的天工1.0 lite上,北京人形就实现了多个运控技术的突破。天工1.0 lite是全球首个全尺寸纯电驱实现拟人奔跑的人形机器人,且能在斜坡、楼梯、草地、碎石、沙地等多种地形平稳移动。
在2024年11月的中关村仿生机器人大赛中,北京人形获得了竞速赛、障碍赛等多项冠军,并因此斩获全能优胜奖。比赛现场,天工Ultra作为唯一以奔跑的方式完成比赛的全尺寸人形机器人,以15秒66的奔跑成绩获得冠军;在障碍赛中,天工快速平稳地通过台阶、鹅卵石、碎砖瓦、沙地、坡道等多种地形,并跑步完成绕桩任务,以全场完成度最高获得冠军;在考察机器人上下肢协同与移动操作能力的作业赛中,“天工”是唯一完成作业赛的足式人形机器人,并凭借灵巧的任务执行能力获得亚军。
在一年的时间内,北京人形持续进化迭代运控算法,为天工实现了多次能力进化。2025年2月,天工实现了基于视觉的感知行走,完成了全球首例百级台阶攀登实验,实现了无磕碰、不踩棱、不踏空地跨越连续多级楼梯和35厘米大高差台阶。
同时,天工的奔跑时速也由6km/h提高至12km/h,并能在雪地等高难度地形完成高速奔跑。在抗干扰能力方面,天工可在大外力冲击下仍保持平衡。一系列进化,真正发挥出双足结构为人形机器人带来的多地形通用性优势,在实现全地形场景技术闭环的同时,为行业确立了复杂环境移动能力的全新标杆。
基于北京人形在运控领域的技术积累,Tien Kung-Lab的开源将极大缩短人形机器人产品实现跨地形高速泛化移动的时间。为人形机器人走出实验室,在真实环境执行任务,甚至在山地、雪地救援、废墟等极端环境下作业奠定基础,并为具身智能的规模化应用夯实技术底座。
未来,北京人形将以马拉松冠军级运动控制为基石,向“小脑级智能”的更高维度进发,攻坚基于学习方法的通用移动操作和全身复杂动作控制技术,并突破复杂动态环境中的全向感知和自主导航技术,迈出从“卓越单点运动执行”向“全身协同自主执行”的关键一步,实现“全能动作”与非结构化环境中的闭环自主作业能力。
在运动控制领域的持续突破,将为人形机器人构建强大的“运动智能中枢”,使其真正具备在真实、开放世界(如复杂工厂、灾难现场、户外场景)中自主移动、稳定操作、可靠完成任务的运动执行智能,为智能制造、特种作业、商业服务等实体产业的智能化升级奠定坚实的执行层基础。
获取Tien Kung-Lab:
GitHub:https://github.com/Open-X-Humanoid/TienKung-Lab
Gitee:https://gitee.com/open_x_humanoid/TienKung-Lab
3、Science Robotics|耶鲁大学开源视触觉新范式,看出机器人柔性手的力感知
摘要:在机器人视触觉传感领域,如何兼顾成本与性能始终是一大挑战。耶鲁大学在《Science Robotics》上发表最新研究,提出了一种“Forces for Free”(F3)新范式。该研究通过观测一个经过特殊优化的开源柔性手(F3 Gripper)的形变,仅利用标准RGB摄像头,便能精准估算接触力,为机器人赋予了几乎零额外硬件成本的力感知能力。借助这样的感知能力,能完成小孔插销、擦拭曲面,甚至写书法这样需要精细力控的任务。
图:使用该3F柔性手进行写书法实验及其力反馈各项指标图
在机器人与物理世界进行交互时,力的感知至关重要。它不仅是完成插拔、打磨等接触式任务(contact-rich tasks)的基础,也是高级人机交互与物理推理的关键。然而,传统的高精度力/扭矩(F/T)传感器价格昂贵、笨重且易因撞击损坏,而集成式的指尖触觉传感器则面临着布线复杂、易磨损和仅能提供局部信息等问题。
近年来,视触觉传感技术为解决这一难题提供了新思路,即利用视觉信号来推断触觉信息。但许多方案依赖于在传感器内部嵌入标记点(如GelSight),或需要定制化的传感皮肤。有没有一种更简洁、更低成本的实现路径?
耶鲁大学的研究团队给出了一个极具吸引力的答案:Forces for Free。其核心思想是,对于一个已经配备了柔性手爪和腕部摄像头的机器人系统,对于外界力的感知能力可以通过软件算法“免费”获得,无需增加任何额外传感硬件。
图:该系统的核心在于利用已有的摄像头和柔性手爪,通过算法解锁力感知能力,无需额外添置昂贵的F/T传感器(如图中箭头所示,F/T传感器仅用于训练和验证)。这也是“3F”中“Free”的核心。
物理媒介:为“被看见”而优化的F3柔性手
实现视觉力感知的先决条件,是拥有一个在受力时能产生稳定、可观测形变的物理媒介。为此,研究团队并没有随意选择一款柔性手,而是在耶鲁大学经典的开源T42手爪基础上,进行了深度优化,设计出F3 (Forces-for-Free) Gripper。优化目标也非常明确:提升基于视觉的力估算信噪比,可以从两个角度来实现:
1.最大化运动学可操纵性 (Kinematic Manipulability):传统柔性手在某些姿态下可能接近“奇异构型”(singular configuration),此时即便利度发生很大变化,其外观形态也几乎不变,导致力无法被识别。研究团队通过优化手指的连杆长度比和静止角度,使其在工作区间内远离奇异点,确保任何方向的力都能引起足够大的视觉形变。这项优化基于对运动学矩阵的分析,旨在最大化这一可操纵性度量。
2.最小化摩擦与迟滞 (Friction and Hysteresis):缆绳驱动的柔性手普遍存在摩擦和迟滞效应,这是导致“部分可观察性”(partial observability,即相同的手指形态可能对应不同力值)的根本原因。F3手爪将所有缆绳路径上的金属销钉替换为微型滚珠轴承,并优化布线以减少接触角,从而显著降低了内部摩擦力(从约4.0N降至0.6N),为更精确的力估算奠定了物理基础。
图:F3手爪的设计优化。(左)相较于T42原型,F3采用了等长连杆和滚珠轴承以提升可操纵性并降低摩擦。 (右)运动学可操纵性分析表明,连杆等长且关节角为90°时(黑色连杆所示位置),形变响应最佳。
计算核心:具备时序记忆与视觉焦点的估算器
有了高质量的物理媒介,接下来的挑战便是如何从图像序列中解码出精确的力信息。耶鲁大学的研究团队为此构建了一个精巧的深度学习估算器。
为了应对“部分可观察性”,该团队的解决方案是:引入时间记忆。为了解决由残余摩擦和迟滞效应带来的模糊性,该模型不处理单帧图像,而是输入一段包含近期运动历史的图像序列(如20帧,采样频率1Hz)。模型采用CNN-Transformer架构,其中CNN负责提取每帧图像的空间特征,而Transformer则捕捉这些特征在时间维度上的内在关联。
这种对时空信息的综合处理,让模型能够根据历史运动趋势来推断当前最可能的力状态,有效缓解了“同形不同力”的问题。消融实验证明,20帧的记忆长度能达到最佳性能。
为了应对视觉干扰,该团队采用视觉基础模型加持的方案:真实场景下的背景和被抓物会严重干扰识别。研究团队利用了视觉基础模型SAM (Segment Anything Model),仅通过少量标注数据进行微调,便能稳健地将手爪从复杂的视觉环境中分割出来。这相当于为估算器戴上了一副“滤镜”,使其能完全专注于手爪本身的形变,实现了对背景和物体变化的鲁棒性。此外,通过在训练中引入随机遮挡的数据增强,模型还能抵抗真实世界中常见的部分遮挡情况。
图:估算器神经网络架构概览。图像序列首先由SAM进行分割以消除视觉干扰,随后由共享的CNN提取特征,最后通过Transformer网络处理时序信息,输出最终的力预测值。
实验验证:从0.2N的精度到闭环动态控制
该系统的有效性在一系列严苛的实验中得到了验证:在对新物体的静态力预测任务中,估算误差在0.2N至0.4N之间。这一预测精度远高于先前相关工作报告的约1.6N的误差,展示了其卓越的性能。
对于动态闭环控制的实验设计,该估算器被成功置于控制环路中,完成了三项复杂的动态任务:
1.孔中插销:通过感知接触力,引导机器人完成探测、对准和插入的系列动作。
2.曲面擦拭:维持恒定的法向力(1N),在不平整的表面上进行擦拭。
3.书法写作:通过实时调整下压力,控制毛笔笔画的粗细,完成汉字书写。
图:估算器在闭环动态任务中的出色表现。无论是精密的装配(上)、力控的表面操作(中),还是需要细腻力度变化的书法(下),系统均能提供准确的力反馈。
在这些任务中,系统均表现出高精度和鲁棒性,平均力误差甚至低至0.15N左右。这是一个非常惊人的数字,这表明该系统在没有额外传感器的辅助下,已经能几乎实现完成这些需要精细力控的任务。
耶鲁大学的这项研究,为低成本机器人力感知提供了一个优雅且实用的解决方案。它不仅是一个巧妙的工程实现,更提出了一种富有潜力的“Forces for Free”新范式,证明了在不增加额外硬件的前提下,仅通过算法和对现有组件(柔性手)的优化,即可解锁高质量的力感知能力,重新定义了视触觉传感的成本效益边界。这也是“Free”的核心所在;此外在系统完整性方面,提供了从硬件优化(F3手爪)到算法设计(时序模型与SAM)再到实验验证的一整套完整、开源的解决方案,极大地降低了其他研究者的使用门槛。
尽管目前该系统主要处理二维力,且响应速度(10Hz)尚不及商业F/T传感器,不适用于碰撞检测等高速场景,但它为大量接触式操作任务提供了足够精确、鲁棒且几乎“免费”的力反馈。
未来,该范式有望扩展至三维力/力矩估算、多指灵巧手,并通过多视角相机来解决更复杂的遮挡问题。这项工作无疑将推动先进力控技术在更广泛的机器人平台(尤其是低成本平台)上的普及与应用。
资料链接:
论文原文:`
https://www.science.org/doi/10.1126/scirobotics.adq5046`
开源硬件、代码与数据: 详见论文末尾“Data and materials availability”部分
文章来源:CAAI认知系统与信息处理专委会
4、机器人赛道狂揽融资!星动纪元、云深处科技、小雨智造、模量科技获资本押注
▍“清华系”具身智能企业星动纪元完成近5亿元A轮融资!鼎晖VGC和海尔资本联投
2025年7月7日,具身智能企业星动纪元宣布完成近5亿元A轮融资。本轮融资由鼎晖VGC和海尔资本联合领投,厚雪资本、华映资本、襄禾资本、丰立智能等知名财务机构及产业资本跟投,老股东清流资本、清控基金等机构持续加码。华兴资本担任本轮独家财务顾问。本轮融资将用于人形机器人软硬技术的研发与量产落地,推动“模型-本体-场景数据”闭环飞轮高速运转。
星动纪元成立于2023年8月,是清华大学唯一持股的具身智能企业。从成立起便坚持软硬一体的技术路线,致力于打造物理世界中的通用智能体、交付通用生产力,从而实现机器人赋能千行百业、走进千家万户的愿景。
文章来源:北京星动纪元科技有限公司
▍具身智能企业云深处科技完成近5亿元新一轮融资,加速具身智能产业化布局
近日,杭州云深处科技有限公司(以下简称:云深处科技)宣布完成近5亿元人民币新一轮融资。本轮融资由达晨财智、国新基金等联合领投,北京机器人产业发展投资基金、前海母基金、央视融媒体基金、富浙基金、华映资本、物产中大投资等机构跟投,钧山资本、方广资本及爱施德智城基金等老股东继续加持。该轮融资将为云深处科技在技术与产品研发、场景应用与拓展、人才引进与团队建设等方面提供更大动能,进一步巩固其在四足机器人领域的领先身位,并加快其人形机器人、轮足机器人等新产品的商业化落地。
自成立以来,云深处科技始终锚定人形机器人、四足机器人及其核心零部件的自主研发、精益生产、全球销售与专业服务,在电力巡检、应急救援等B端应用领域已成为行业第一。公司致力于拓展具身智能机器人技术与应用边界、提升千行百业智能化水平,凭借在技术研发与场景落地上的持续突破,已迅速成长为业界瞩目的 “杭州六小龙” 之一,并成为 “中国智造” 走向世界的新锐力量。
对于本轮融资,云深处科技创始人兼CEO朱秋国表示,将重点投向四足机器人产线扩建、人形机器人技术研发及高端人才引进。
云深处科技发布的山猫M20机器人是全球首款行业应用轮足机器人
云深处科技发布的行业应用四足机器人绝影X30
文章来源:云深处科技
▍黎万强出手!滴滴首次重仓!小米系首家具身大模型公司小雨智造完成亿元A+轮融资
近日,北京小雨智造科技有限公司(简称,小雨智造)完成亿元级A+轮融资。该轮融资,由滴滴领投、北京信产基金追加投资。
这是滴滴,这一巨头的首次出手。此前,小雨智造已获得小米集团、王田苗教授旗下雅瑞天使、北京智源研究院、科大讯飞等资本的竞相出手。
值得一提的是,在小雨智造的招聘页面,还出现了黎万强的名字——作为投资人,小雨智造获得了黎万强的认可支持。黎万强是最早和雷军一起创业小米的初代创始人,被称“小米七剑客”。凭借在品牌建设、营销推广的才能,黎万强给市场留下了深刻影响。
小雨智造成立于 2023年1月,是一家专注于通用人工智能机器人研发的科技公司。公司核心团队来自小米、华为、微软、字节跳动等科技企业,毕业于清华、北大等高校。创始人乔忠良曾任小米 MIUI 研发负责人,联合创始人王文林主导过 “小米大脑” 和 IoT 系统开发,团队成员在自动驾驶、自然语言处理、智能硬件等领域拥有丰富经验。
在产品上,小雨智造聚焦于工业具身智能领域,以自主研发的Xiaoyu Brain 通用机器人大脑为技术底座,实现对复杂工业任务的精准控制。
目前,小雨智造将“一脑多形”技术应用于智能焊接机器人上,通过融入人机协同理念,构建了工业领域的大模型智能机器人平台。
通过该平台,小雨智造与全球焊接巨头松下联合推出智能焊接机器人,并完成常态化试运营,验证了其“平台+场景”的架构在工业环境下的稳定性与拓展性。
文章来源:东四十条资本
▍自研多模态触觉传感技术,模量科技获千万级天使轮融资
近日,深圳市模量科技有限公司(以下简称:模量科技)宣布完成由德宁资本投资的千万级天使轮融资,北深资本担任长期顾问。本轮融资资金将主要用于产品研发、市场推广以及团队建设。
模量科技成立于2024年底,是一家专注于多模态多维力触觉传感技术及触觉模型研发与应用的科技公司,其产品包括机器人触觉、工业压力分布检测、织物类柔性传感器以及柔性薄膜传感器等。产品广泛应用于机器人触觉、工业检测(新能源、3C制造业)、消费电子以及医疗健康等领域。
模量科技自研技术(图源/企业)
目前,模量科技的核心产品主要包含机器人触觉以及工业压力分布检测。在机器人触觉方面,产品分为多点阵列压力感知S系列,三维力多点阵列压力感知T系列以及多模态压力感知M系列。
文章来源:硬氪
更新时间:2025-07-09
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight 2020-=date("Y",time());?> All Rights Reserved. Powered By bs178.com 闽ICP备11008920号
闽公网安备35020302034844号