阿里巴巴开源了其首个拥有超过1000亿参数的Qwen1.5-110B语言模型。该模型在基础能力评估中与Meta-Llama3-70B相当,并在Chat评估中表现出色,包括MT-Bench和AlpacaEval2.0。
值得注意的是,Qwen1.5-110B采用了相同的Transformer解码器架构,且支持32Ktokens上下文长度,且仍为多语言模型,在英、中、法、西、德、俄、日、韩等语言上均取得良好效果。
本站文章通过互联网转载或者由本站编辑人员搜集整理发布,如有侵权,请联系本站删除。
阿里巴巴开源了其首个拥有超过1000亿参数的Qwen1.5-110B语言模型。该模型在基础能力评估中与Meta-Llama3-70B相当,并在Chat评估中表现出色,包括MT-Bench和AlpacaEval2.0。
值得注意的是,Qwen1.5-110B采用了相同的Transformer解码器架构,且支持32Ktokens上下文长度,且仍为多语言模型,在英、中、法、西、德、俄、日、韩等语言上均取得良好效果。
本站文章通过互联网转载或者由本站编辑人员搜集整理发布,如有侵权,请联系本站删除。