编辑:[db:作者] 时间:2024-08-25 08:37:14
EXAONE 3.0 开源模型基于 Decoder-only Transformer 架构,参数数量为 7.8B,演习数据量(tokens)为 8T,是一款针对英语和韩语的双语模型。
▲ EXAONE 模型迭代路线
LG 新闻稿称:“在为各种目的而构建的 EXAONE 3.0 措辞模型阵容中,7.8B 指令调度模型正在提前开源,以便可以用于研究。我们希望该模型的发布能够帮助国内外 AI 研究职员进行更故意义的研究,帮助 AI 生态系统向前迈进一步。”
官方测试显示,该模型的英语能力达到“环球顶级水平”,真实用例均匀分第一,超越了 Llama 3.0 8B、Gemma 2 9B 等一众模型。在数学和编码方面,EXAONE 3.0 的均匀得分也排名第一,推理能力也较强。
而在韩语方面,EXAONE 3.0 实际用例和单一基准的均匀得分均排名第一。
LG 声称,EXAONE 3.0 与上一代产品比较,推理韶光缩短了 56%,内存利用量减少了 35%,运营本钱降落了 72%;与首次发布的 EXAONE 1.0 比较,本钱降落了 6%。
该模型已在 6000 万个与专利、代码、数学和化学干系的专业数据案例上进行了演习,并操持在年底前扩展到各个领域的 1 亿个案例。
IT之家附链接如下:
本站所发布的文字与图片素材为非商业目的改编或整理,版权归原作者所有,如侵权或涉及违法,请联系我们删除,如需转载请保留原文地址:http://www.baanla.com/ktwx/198589.html
下一篇:返回列表
Copyright 2005-20203 www.baidu.com 版权所有 | 琼ICP备2023011765号-4 | 统计代码
声明:本站所有内容均只可用于学习参考,信息与图片素材来源于互联网,如内容侵权与违规,请与本站联系,将在三个工作日内处理,联系邮箱:123456789@qq.com