WebFace260M:揭示百万级基准对深度人脸识别的力量

一篇关于数据集的文章,数据集是有监督学习的基础,深入了解数据集,才能更好的训练模型。

摘要

在本文中,我们贡献了一个新的百万级人脸基准,包含噪声的 4M 身份/260M 人脸(WebFace260M) ,并清理了 2M 个身份/42M 个面孔(WebFace42M) 训练数据,以及精心设计的时间约束评估协议。首先,我们收集4M名单,互联网下载260M人脸,然后,设计了一种自动利用自我训练 (CAST) 的清洗管道来净化高效且可扩展的海量 WebFace260M,据我们所知,清理后的 WebFace42M 是最大的公共人脸识别训练集,我们期望缩小学术界和工业界之间的数据鸿沟。

参考实际场景,Face Recognition Under Inference Time conStraint (FRUITS) 协议和一个测试集构建以全面评估面部匹配,借助此基准,我们深入研究百万级人脸识别问题,分布式框架开发用于在不篡改性能的情况下有效地训练人脸识别模型,在 Web Face42M 的支持下,我们在具有挑战性的 IJB-C 集上降低了 40% 的相对失败率,在NIST-FRVT 上 430 个提交中排名第三,与公共训练集相比,即使是 10% 的数据 (WebFace4M) 也显示出卓越的性能,此外,在我们的基础上建立了全面的基线FRUITS-100ms/500ms/1000ms下测试集协议,包括 MobileNet、EfficientNet、AttentionNet、ResNet、SENet、ResNeXt 和 RegNet 系列,基准网站是 https://www.face-benchmark.org。

1 简介

由于 CNN 的蓬勃发展人脸识别取得了显著成绩,近期人脸识别的关键引擎由网络架构演进、多种损失函数和不断增长的人脸识别基准。

人脸基准使研究人员能够训练和评估高性能人脸识别系统,尽管越来越多的努力致力于研究复杂的网络和损失函数,学术界受限制主要是训练集和几乎饱和的测试协议,如表1所示,最大的公共身份和人脸训练集分别是 MegaFace2 和 MS1M,MegaFace2 包含来自 Flickr收集到的 672K 身份的 470 万张人脸,MS1M 由 100K 的 10M 个名人人脸组成,但噪声率约为 50%,相比之下,工业公司可以访问更大的私人训练人脸识别模型的数据:谷歌利用 200M的 8M 身份图像训练 FaceNet,Face book通过 10M 身份的 500M 人脸进行训练,这种数据差距阻碍了研究人员开拓前沿深度人脸识别,主要障碍在于大规模的身份收集训练数据,有效可扩展的清洗和高效的训练。

另一方面,评估协议和测试集在分析人脸识别性能方面起着至关重要的作用,人脸识别热门评测包括LFW, CFP , AgeDB, RFW,MegaFace,IJB系列, 主要针对对准确性,最近几乎饱和,在现实世界的应用场景中,面对识别总是受到推理时间的限制,例如解锁手机,体验需要流畅,轻量级人脸识别挑战朝着这个目标迈出了一步,但它忽略了检测的时间成本,据我们所知,NIST-FRVT 是唯一受时间限制的人脸识别协议,然而,严格的提交政策(每四个月不超过一份提交)阻碍研究人员自由评估他们的算法。

针对以上问题,本文构建一个新的大规模人脸基准包括 4M 身份/260M 人脸 (WebFace260M) 以及时间受限的评估协议,首先是4M的名单收集名人并利用搜索引擎下载2.6亿张图片,然后,我们通过自训练 (CAST) 管道自动执行清洗,该管道可扩展且不需要任何人工干预,提出的 CAST 程序产生了高质量的 2M 身份和 42M 人脸 (WebFace42M),有了这样的数据量,开发了一个分布式训练框架来执行高效优化,参考各种现实世界的应用,我们设计了推理时间约束下的人脸识别(FRUITS)协议,它使学术界全面评估深度面部匹配器,FRUITS 协议由 3 个赛道组成:100、500 和1000 毫秒,由于公共评估是饱和的并且可能包含噪声,因此我们手动构建了一个具有丰富属性的新测试集,包括不同的年龄、性别、种族和情景评价,该测试集将积极维护和更新。

基于提议的新的大规模基准,我们深入研究百万级深度人脸识别问题,分布式训练方法可以在没有性能的情况下以接近线性的加速度执行,公共数据集的验证准确性表明建议的百万级训练数据对于推动深度人脸识别的前沿是必不可少的:在标准 ResNet-100 配置下,Web Face42M 在具有挑战性的 IJB-C 上实现了 97.70% TAR@FAR=1e-4 ,与公开的最先进技术相比,错误率相对降低了近 40%。

我们 10% 的数据 (WebFace4M) 也比类似大小的 MS1M 家族 和 MegaFace2 获得了更好的性能,此外,我们基于 WebFace42M参与了 NIST-FRVT并在430 个条目中排名第三 ,最后,综合人脸识别系统FRUITS-100ms/500ms/1000ms 协议,包括 MobileNet , EfficientNet, AttentionNet ,ResNet ,SENet、ResNeXt 和 RegNet 系列 ,我们希望缩小数据差距,加强研究界和工业界之间的联系,并促进对实际应用的时间受限的识别性能评估。

主要贡献可归纳如下:

• 构建大规模人脸识别数据集为减少研究界数据落后于行业的差距,提出的WebFace260M由4M身份和2.6亿人脸组成,为百万级深度人脸提供了极好的资源清洗和识别如图1和表1所示。

• 我们贡献了最大的训练集 WebFace42M,这为具有挑战性的 IJB-C 和排名设置了新的 SOTA,这些清理过的数据由 WebFace260M 由一个可扩展的和有效的自我训练管道自动清洗。

• FRUITS 协议以及丰富的测试集属性的构建是为了便于评估现实世界的应用,参考不同的部署场景设计了一系列赛道。

• 基于新的基准,我们进行了广泛的百万级人脸识别实验,在分布式训练框架的支持下,在我们的测试集上建立了全面的基线,结果表明轻量化赛道有很大的改进空间,以及重量级赛道创新的必要性。


2 WebFace260M和WebFace42M

名人名单和图像收集 知识图谱网站 Freebase和精心策划的网站 IMDB 为收集名人名字提供了极好的资源,此外,商业搜索引擎例如谷歌使收集具有排名相关性的特定身份图像成为可能,我们的名人名单由两部分组成:第一部分来自 MS1M(1M,由 Freebase 构建),第二个是从 IMDB 数据库中收集的,IMDB 网站上有近 400 万名人名,我们发现一些人名在搜索中没有公开图片,因此,IMDB 中只有 3M 名人姓名被选为我们的基准,根据名单,通过谷歌图像搜索引擎搜索和下载名人面孔,前 10% 的人名下载 200 张图像,剩余的 20%、30%、40% 的人名下载 100、50、25 张图片,最后,我们收集了 4M 的身份和 265M 的图像。

人脸预处理 通过 RetinaFace 预测的五个关键点检测并对齐人脸,针对多人脸图像,我们只选择高于阈值分数最大的人脸,可以过滤最不合适的人脸(例如背景人脸或错误解码)。预处理后,剩余400万个身份/2.6亿个人脸(WebFace260M) 如表 1 所示,Web Face260M 的统计数据如图 2 所示,包括出生日期,国籍和职业,WebFace260M的人来自 200 多个不同的国家/地区,超过 500 个不同职业,出生日期到 1846 年,这保证了我们数据的多样性。

清洁 WebFace42M 我们执行 CAST 管道(Sec.3) 自动清理带噪声的 WebFace260M ,获得一个名为 WebFace42M 的清洁训练集,包括200 万个主体的 4200 万张面孔,每个人的图片 3 到 300 以上不等,平均每个身份的人脸数是 21,如图 1 和表1,WebFace42M 提供了最大的清洗训练数据用于人脸识别,与 MegaFace2数据集 相比,提出的 WebFace42M 包括 3 倍以上身份(2M 对 672K),以及将近 10 倍的图像(42M 对 4.7M),与广泛使用的MS1M相比,我们的训练集身份是其 20 倍(2M vs. 100K),照片数量是其4 倍(42M 与 10M),根据我们的采样估计,MegaFace2 和 MS1M 中的噪声为 50%,而 WebFace42M 的噪声比低于 10%(类似于 CASIA WebFace ),如此庞大的数据量,我们迈出了重要的一步缩小学术界和工业界之间的数据差距。

WebFace42M 上的人脸属性 我们进一步提供 WebFace42M 的人脸属性注释,包括姿势,年龄、种族、性别、帽子、眼镜和口罩,图 3 展示了我们清理的训练数据在不同方面的分布,WebFace42M 涵盖了大范围的姿势(图 3(a))、年龄(图3(b))和世界上大多数主要种族(图3(c))。

3 自训练数据清洗

由于从网上下载的图像有相当大的噪音,因此有必要执行清理步骤以获得高质量的训练数据,原始 MS1M不执行任何数据集清理,导致接近 50%噪声比,并显着降低训练好的模型性能,VGGFace、VGGFace2和IMDB-Face采用半自动或手动清洗管道,这需要昂贵的劳动力,在当前更大数据量的情况下变得具有挑战性,虽然MegaFace2 清洗数据是自动的,但它的程序很复杂,并且有超过 30% 的噪音 ,另一个相关的探索是通过无监督方法和有监督的基于图的方法对人脸进行聚类,但是,这些方法假设整个数据集是干净的,不适合极其嘈杂的 WebFace260M,最近,自训练是半监督学习的标准方法,被探索到显着提高图像分类的性能。

与闭集 ImageNet 分类不同,在开集人脸识别上直接生成伪标签是不切实际的,考虑到这种固有的局限性,我们精心设计自动清洗管道自我训练(CAST),我们的第一个见解是对开放集人脸识别数据进行自我训练,这是一种可扩展且高效的清洁方法,其次,我们发现嵌入特征在清洁大面积嘈杂人脸时很重要。

整体 CAST 框架如图 4 所示,遵循自训练管道,(1)教师模型(ResNet-100,ArcFace)使用公共数据集进行训练(MS1MV2) 来清理原始的 260M 图像,其中主要包括类内清洗和类间清洗。(2)一个学生模型(也是 ResNet-100、ArcFace)在(1)中的清理图像训练,由于数据量更大,这个学生比老师学习得更好。(3) 我们通过将学生切换为老师来迭代这个过程,直到获得了高质量的 42M 人脸。值得一提的是每个类内清洗和类间清洗都是在WebFace260M 由不同的教师模型初始阶段进行的。


类内清洗和类间清洗 WebFace260M包含文件夹中的异常值和文件夹之间的身份重叠等各种噪声,对整个数据集进行无监督或有监督的聚类不切实际,基于观察到的图像搜索结果来自Google 按相关性排序,每次搜索总有一个主导主题,初始文件夹结构提供强大的先验指导清理策略:一个文件夹包含一个主要的主题,不同的文件夹可能包含相当多的重叠身份。

根据这些先验,我们通过以下方式执行一个两步过程数据集清理:首先,人脸聚类在 4M 文件夹(主题)中进行,以选择每个主导身份,具体来说,对于文件夹中的每个人脸,512维度嵌入特征由教师模型提取,然后使用 DBSCAN对这个文件夹中人脸进行聚类。只有最大的集群(超过 2 个人脸)是保留的。我们在第 5.4 节还调查了其他不同的方法,包括 GCN-D和GCN-V,其次,我们计算每个主题的中心特征进行类内清洗,如果文件夹的余弦相似度高于0.7,合并两个文件夹,当余弦相似度在 0.5 和 0.7 之间时包含较少人脸的文件夹将被删除。

上述类内和类间的有效性清洗很大程度上取决于嵌入特征的质量,这是由提议的自我训练管道保证的,在 MS1MV2 上训练的 ArcFace 模型ResNet-100 提供了一个很好的初始嵌入特征对 WebFace260M 执行第一轮清洗,随着更多的训练数据,之后的迭代特征显着增强,图 5 说明了 CAST 不同阶段的分数分布,这表明经过更多迭代后训练集更干净,此外,消融研究还验证了 CAST 管道的有效性,如表7,所提出的 CAST 管道与任何类内和类间策略兼容。


删除重复项和测试集重叠项 CAST之后,,每个主题当他们的余弦相似度高于 0.95的重复项被删除,此外,将每个主题的特征中心与流行的基准进行比较(例如 LFW 系列 、FaceScrub、IJB-C等)和第 4.2 节中建议的测试集,如果余弦相似度高于 0.7,则删除。

数据集统计 不同阶段#identities和#images的统计数据如表2所示,对下载图像进行预处理,有4,008,130身份和 260,890,076 个人脸 (WebFace260M),人脸在更多的 CAST 迭代下变得更干净,这导致更少的身份和人脸,在删除重复和测试集重叠之后,我们得到2,059,906 个身份和 42,474,558 个人脸 (WebFace42M)。

4 FRUITS协议

4.1 评估协议

人脸识别的流行评估协议主要目标是追求精准,例如,CFP,AgeDB 、CALFW 和 CPLFW 评估不同类内变化下的验证精度(例如姿势和年龄),MegaFace 和 IJB-C 用于大规模人脸验证和身份识别的准确性,YTF 和 IQIYI-Video 比较了基于视频的验证的准确性,在这些协议下,可以采用后处理以获得更高的性能,但是人脸识别在现实世界的应用场景中总是受限于推理时间。

最近,轻量级人脸识别挑战通过限制 FLOP 和提交的模型大小,由于不同的神经网络架构在实际推理时间方面可能有很大不同,这个协议不是一个简单的解决方案,此外,它没有考虑人脸检测和对齐,这是大多数现代人脸识别系统技术中的必备组件,据我们所知,NIST-FRVT是唯一采用时间约束协议的基准,但是,严格的提交政策(参与者只能每四个月提交一份)阻碍研究人员自由评估他们的算法。

在本文中,我们设计了推理时间约束下的人脸识别(FRUITS)协议,该协议使学术界全面评估他们的面部匹配器,推理时间是在单个Intel Xeon CPU E5-2630-v4@2.20GHz 处理器运行,考虑到不同的应用场景,FRUITS协议设置了一系列赛道:

FRUITS-100:整个人脸识别系统必须在 100 毫秒内区分图像对,包括预处理(例如人脸检测和对齐)、用于识别的特征嵌入和匹配,FRUITS-100赛道轻量级人脸识别系统评价目标可以部署在移动设备上。

FRUITS-500:这个赛道遵循 FRUITS-100 的设置,除了时间限制增加到 500 毫秒,这条赛道旨在评估现代和流行的部署在本地监控系统中网络。

FRUITS-1000:遵循 NIST-FRVT、FRUITS-1000采用 1000 毫秒的时间限制,旨在比较在云上执行识别能力的模型。

4.2 测试集

由于公共评估集已经饱和并且可能包含噪声,因此我们手动构建了一个详细的测试集FRUITS,众所周知,识别陌生人,尤其是长相相似的陌生人,是一项艰巨的任务即使对于经验丰富的视觉研究人员也是如此,因此,我们的多名注释者只选择他们熟悉的名人,保证了测试集的高质量,此外,鼓励注释者收集属性平衡的面孔,并且引入识别模型来指导困难样本收集,最终测试集的统计数据如表 3 所示,总共有 2,225 个身份的 38,578 张面孔,包含属性(例如年龄、种族、性别、受控或野外)且准确注释,未来,我们将积极维护并更新此测试集。


4.3 指标

基于提出的 FRUITS 协议和测试集,我们跨各种属性执行 1:1 人脸验证,表 3显示不同版本中冒名顶替者和真实者的数量设置,所有冒名顶替者配对没有任何属性,而稍后对年龄、种族、性别和场景子集进行比较,跨时代指跨年龄(超过10年和20年)验证,而跨场景意味着在受控和野生环境之间进行比较。测量不同的算法关于错误不匹配率 (FNMR),其定义为低于阈值集的配对比较的比例达到指定的错误匹配率 (FMR),FMR是冒名顶替者的比例等于或高于临界点。在相同的 FMR 下 FNMR 越低越好。

5 百万级识别实验

5.1 实施细节

为了公平地评估不同人脸识别模型的性能,我们重现了具有代表性的算法(即 CosFace、ArcFace和 CurricularFace)在一个 Gluon 代码库中,超参数参考原始论文,每个 GPU 的默认批量大小除非另有说明,否则设置为 64,学习率设置为单个节点(8 个 GPU)为 0.05,并遵循线性缩放规则在多个节点上进行训练(即 0.05 #机),我们在 8、12、和 16 个 epoch学习率各乘0.1,所有模型在 20 个 epoch 处停止,训练时,我们只采用翻转数据增强。

5.2 分布式训练

当使用大规模 WebFace42M 作为训练数据并使用计算要求高的主干作为特征网络,模型一台机器上训练可能需要几周,这么长的训练时间使得很难有效地进行实验,灵感来自ImageNet上的分布式优化,我们将模型训练的工作量分配给集群,为此,在特征 X 和中心 W 上平行,本文采用(FP16)混合精度和大批量训练。

我们的分布式训练系统的速度和性能如表 4 和图 6 所示。并行化都具有 X 和中心 W 以及混合精度(FP16) 显着降低了 GPU 内存的消耗并加快了训练过程,同时可以实现类似的性能,配备 8 个节点(64 个 GPU),在 WebFace4M(10% 数据)和 WebFace12M(30%数据),对应的训练时间只有2小时和6小时,此外,当应用于 32 个节点(256 个 GPU)上的大规模 WebFace42M 时,我们的训练系统效率提高80% 以上,因此,我们可以将 ResNet-100 模型的训练时间从233 小时(1 个节点)缩小到 9 小时(32 个节点)。

5.3 训练数据的比较

用于综合分析训练数据的影响,提出的 WebFace42M 与包括 MS1M 系列 在内的公共数据集进行比较,MegaFace2和 IMDB-Face,随机选择我们的完整数据10% (WebFace4M)和 30% (WebFace12M) 也用于进一步分析训练数据,不同训练集的统计数据如表 1所示,本实验中使用的评估集包括流行的验证集(例如 LFW、CFP-FP、CPLFW、AgeDB和CALFW)、RFW 、MegaFace、IJB-C 和我们的测试集。

从表5 和图7 可以看出,所提出的 Web Face42M 打破了跨各种损失函数和测试集的人脸识别深度训练数据的瓶颈。具体来说,WebFace42M 与 MS1MV2 相比降低了 40% 的相对错误率,在具有挑战性的 IJB-C 数据集上,将 TAR 从 96.03% 提高到 97.70% @10-4 FAR。随着数据规模的增加(即10%、30%和100%),如图 7 所示,性能存在一致的改进,在我们的测试集上,在 WebFace42M 上训练时相对提升接近 70%。令人印象深刻的是,与在 MS1M 和 MegaFace2上训练的模型相比,在 10% 数据上训练的模型 WebFace4M 实现了卓越的性能,其中包括更多 个面孔,毋庸置疑,训练数据对比证实了我们的WebFace42M在百万级人脸识别的竞争环境的有效性和必要性。

除了报告 ResNet-100 的结果,我们还使用较小的网络 ResNet-14在我们数据的不同部分(即 10%、30% 和100%)训练 ArcFace 模型,如表 6 所示,当有更多训练数据时,ResNet-14 也有一致的性能增益。因此,提出的 Web Face42M 不仅有利于大型模型(例如ResNet-100),但对于轻量级模型也很有价值。

5.4 数据清洗对比

如表 7 所示,WebFace260M上CAST 流水线与原始 MS1M上的其他清洗策略对比,具体来说,对于 MS1M 结果,初始教师模型使用 IMDB-Face 进行训练ResNet-100 和 ArcFace,然后,CAST 在带噪声的 MS1M训练,如第三节所示,经过多次迭代,我们的全自动清洗策略提供纯化数据用于模型训练,优于半自动方法,与最近的基于 GCN 的清理相比,CAST 清理的数据也达到更高的性能。

CAST 的迭代 表 7 还显示了增加的数据在 MS1M 和 WebFace260M 中经过更多迭代后的纯度,精度从第 1 次迭代到第 3 次迭代逐渐增加,而第 4 次迭代显示了饱和性能,所以,我们将 CAST 的迭代次数设置为 3。

类内清洗 在这个实验中,我们比较了不同的类内清洗方法,两种无监督方法(例如 K-means 和DBSCAN)和监督方法(例如 GCN-D和 GCN-V)探索以在每个带噪声的文件夹中找到主导主题,如表 8 所示,DBSCAN在 IJB-C 上达到 96.55% TAR@FAR=1e-4,显着优于 K-Means (96.03%) 并略胜一筹有监督的基于 GCN 的策略(GCN-D 的 96.48%GCN-V 为 96.42%)。由于基于 GCN 的策略对于大量噪声的文件夹来说是次优的,最终选择 DBSCAN 作为我们的类内清洗方法。


5.5 FRUITS 协议下的基线

在本节中,我们在提出的 FRUITS 协议设置了一系列基线,在表 9 中,我们举例说明了不同的人脸识别系统(包括不同的模块)人脸检测、对齐、特征嵌入的设置)以及他们的推理时间,在我们的基线中,代表网络架构进行了探索,涵盖 MobileNet, EfficientNet, AttentionNet, ResNet,SENet,ResNeXt和 RegNet系列,全部使用 ArcFace 在 WebFace42M 上训练模型。

由于严格的时间限制,模型受限于FRUITS-100 只能采用轻量级架构,包括用于人脸检测和对齐的 RetinaFace-MobileNet-0.25、ResNet-14、MobileFaceNet (Flip)、EfficientNet-B0 和 RegNet-800MF 用于人脸特征提取,所有配对的 FNMR 和属性偏差分析如图8(a)和图8(b)所示,由于检测和识别模块较弱,最好的基线(RegNet-800MF) 仅获得 5.88% FNMR@FMR=1e-5 (越小越好),因此,FRUITS-100 协议下的改进未来还有很大的空间。

对于 FRUITS-500 协议,我们可以使用更多强大的现代网络,例如 RetinaFace-ResNet-50用于预处理,以及 ResNet-100、ResNet-50 (Flip)、SENet-50、ResNeXt-100、RegNet-8GF 用于特征嵌入,如图 8(c) 和图 8(d) 所示,ResNet-100 在无偏人脸验证中表现出最佳的整体性能。根据Wild和Male的属性指标带有翻转测试的 ResNet-50 达到最低的 FNMR,而ResNeXt 在 Cross-scene 赛道中排名第一。

FRUITS-1000协议下的识别模型可以更加复杂和强大,因此我们探索 ResNet-100 (Flip)、ResNet-200、SENet-152、AttentionNet-152 和 RegNet-16GF 用于面部特征嵌入,如图 8(e) 和图 8(f) 所示,ResNet-200 在人脸验证方面表现最好,并在比较中赢得五项,而 SENet-152 和 AttentionNet-152根据属性指标,分别获得第三和两个第一名,与轻量级FRUITS-100赛道相比,不同大型号的表现更接近,这一结果意味着FRUITS重量级赛道有待探索新设计。

5.6 NIST-FRVT 的结果

最后,我们将提交报告给 NIST-FRVT,按照FRUITS-1000的设置,我们的系统搭建完成基于 RetinaFace-ResNet-50 进行检测和对齐,以及在 WebFace42M 上训练的 ArcFace-ResNet-200用于特征嵌入。OpenVINO 推理加速并采用翻转测试,最终推理时间接近 1300 毫秒,根据NIST-FRVT报告,满足最新1500毫秒局限性,表 10 通过 FNMR 跨越五个赛道说明了排名靠前的条目。我们的模型基于WebFace42M 在 430 份提交中获得整体第三名,在不同的赛道上表现出令人印象深刻的表现,考虑到 NIST-FRVT 的数百个公司组织提交,WebFace42M 向学术界和工业界之间的数据差距迈出了重要一步。

6 讨论与结论

讨论 WebFace260M在不同的属性中可能存在偏差,这在某些方面已经考虑过了,第一,我们的初始名单是从 Freebase和IMDB构建的,包含很大的多样性。二、在测试集构建和基线结果中也考虑了偏见。在测试集构建中,我们鼓励多民族注释者收集属性平衡的人脸,在实验中,我们评估模型这些属性(例如种族、性别和年龄)并显示相对排名,对于现实世界的应用,存在偏见可能会导致某些属性的性能下降,考虑到我们的 WebFace260M 中的超大人脸,我们可以采样平衡的数据来训练模型偏见,此外,最近的去偏见人脸识别研究也可以在一定程度上缓解这个问题。对于收集数据集的伦理,详细规则在我们的网站上列出,总之,我们将提供严格的为签署许可证的申请人提供访问权限,并尽我们所能保证仅用于研究目的。

结论 在本文中,我们深入研究了百万级人脸识别,提供高质量的训练数据2M身份的42M图像,使用自动清洗,包含丰富属性的测试集、时间受限的评估协议、线性加速的分布式框架、一系列基线和最终的 SOTA 模型,配备了这个人脸基准,我们的模型在 IJB-C 数据集和排名上降低 40% 的失败率,在 NIST-FRVT 的 430 个条目中排名第三,我们希望这个基准可以促进未来的大规模人脸识别研究。

展开阅读全文

页面更新:2024-03-07

标签:基准   赛道   深度   属性   模型   身份   性能   协议   力量   时间   测试   数据

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2008-2024 All Rights Reserved. Powered By bs178.com 闽ICP备11008920号-3
闽公网安备35020302034844号

Top