【资料图】
据美国消费者新闻与商业频道(CNBC)5月17日消息,谷歌上周宣布的大型语言模型PaLM 2使用的训练数据几乎是其前身的五倍,使其能够执行更高级的编码、数学和创意写作任务。
根据CNBC查看的内部文件,PaLM 2是谷歌在I/O大会上推出的新型通用大型语言模型,它接受了3.6万亿个token的训练。
谷歌之前版本的PaLM于2022年发布,并接受了7800亿个token的训练。
来源:界面
上一篇:当前信息:民族品牌指数收跌0.40% 中航高科上涨5.39%
下一篇:电商优惠券如何获得海量流量?翼码为您提供多场景应用案例 热推荐
中国东盟农资商会:2022年继续积极推动实施澜湄合作
某红军师建师90周年视频来了
中国援助纳米比亚两所小学改扩建项目开工
中国驻澳大利亚使馆庆祝北京冬奥会、冬残奥会成功举办
专访:对昆明大会通过“2020年后全球生物多样性框架”持乐观态度——访联合国《生物多样性公约》秘书处执行秘书穆雷玛
国台办:民进党当局煽动“抗中保台”,险恶至极
国台办:任何“去中国化”行径都改变不了深植于台湾社会的中华文化和民族认同
国台办:坚决反对美国向中国台湾地区出售武器
国台办批民进党政客动辄挥舞所谓“认知作战”大棒:心有魔障,走火入魔
国台办评民进党与美国国家民主基金会勾连:只会惨败收场
广东发布全国首个基于车载使用的移动政务服务平台“粤优行”
长征十一号“一箭三星”发射成功