谷歌新AI大语言模型PaLM2训练数据量达3.6万亿个token 为前一代5倍

【谷歌新AI大语言模型PaLM2训练数据量达3.6万亿个token 为前一代5倍】《科创板日报》17日讯,谷歌日前发布最新通用大语言模型PaLM2。据CNBC获取的一份内部文件显示,该模型采用3.6万亿个token数据进行训练。至于去年发布的前一版本PaLM,当时其训练数据约7800亿个token,是最新一代的1/5左右。

展开阅读全文

页面更新:2024-04-25

标签:模型   语言   数据   日前   去年   版本   文件   日报   最新

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2008-2024 All Rights Reserved. Powered By bs178.com 闽ICP备11008920号-3
闽公网安备35020302034844号

Top