加入收藏 | 设为首页 | 会员中心 | 我要投稿 武汉站长网 (https://www.027zz.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 站长资讯 > 动态 > 正文

谷歌机器学习训练有史以来最大版本BERT模型 参数达4810亿

发布时间:2021-12-03 17:23:40 所属栏目:动态 来源:互联网
导读:机器学习领域权威跑分MLPerf v1.1 训练榜单已出炉。 这次,在 BERT 模型的成绩表上有一个异常的数字:1196.638(分钟),来自谷歌。 谷歌机器学习训练有史以来最大版本 BERT 模型,参数规模 4810 亿 怎么?谷歌训练一个 BERT 要接近 1 天,别家都只要几分钟
机器学习领域权威“跑分”MLPerf v1.1 训练榜单已出炉。
 
这次,在 BERT 模型的成绩表上有一个“异常”的数字:1196.638(分钟),来自谷歌。
 
谷歌机器学习训练有史以来最大版本 BERT 模型,参数规模 4810 亿
 
怎么?谷歌训练一个 BERT 要接近 1 天,别家都只要几分钟?
 
这其实是谷歌从未透露的巨型版本 BERT,参数规模有 4810 亿,不是别人只有几亿参数那种的 BERT。
 
它也是谷歌今年在 MLPerf“非标准区”提交的一个作品:一共花了 2048 块 TPUv4,约 20 小时训练而成!
 
谷歌机器学习训练有史以来最大版本 BERT 模型,参数规模 4810 亿
 
 
谷歌由此也希望 MLPerf 基准测试能引进更多的大模型,因为他们觉得现实中才不会像非标准区的参赛作品那样用那么多芯片来训练那么小的模型。
 
而此次的巨型 BERT 性能也不赖,它的预测准确率为 75%,比 MLPerf 要求的 72.2% 要高。

(编辑:武汉站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    热点阅读