查询
(相关资料图)
品玩5月17日讯,据界面新闻消息,谷歌上周宣布的大型语言模型PaLM 2使用的训练数据几乎是其前身的五倍,使其能够执行更高级的编码、数学和创意写作任务。根据CNBC查看的内部文件,PaLM 2是谷歌在I/O大会上推出的新型通用大型语言模型,它接受了3.6万亿个token的训练。谷歌之前版本的PaLM于2022年发布,并接受了7800亿个token的训练。
标签:
谷歌PaLM 2在训练中使用的文本数据是其前身的近五倍 环球聚看点
比亚迪“禁售燃油车”全民追捧,任泽平为何遭到网友炮击?-天天快讯
【天天新要闻】国乒有备而来,李隼谈国乒备战情况,为孙颖莎等所有队员保驾护航
港股异动 | 中通快递(2057.HK)涨超3% 一季度调整后净利同比增长82%
【十年@每一个奋斗的你】王仁:巡山采药数十载 让中草药文化“活起来”
山西晋中粉煤灰仓倾倒事故救援纪实