查看原文
科技

最强开源大模型面世:阿里发布Qwen2|SiliconCloud上新

SiliconCloud 硅基流动 2024-06-07

今天凌晨,阿里巴巴通义千问团队发布了Qwen2系列开源模型。该系列模型包括5个尺寸的预训练和指令微调模型:Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B以及Qwen2-72B。
随即,硅基流动团队在云服务平台SiliconCloud上线了Qwen2-7B、Qwen2-57B-A14B、Qwen2-72B模型。
欢迎来玩儿:
https://cloud.siliconflow.cn/models/text/chat/
注意!!!与本周发布的GLM-4-9B模型一样,上述三款Qwen2模型同样已进入“6.18购物狂欢节”福利包:“新用户送3亿token”。注册即可畅玩(截止6月18日23:59):
www.siliconflow.cn/zh-cn/siliconcloud


Qwen2模型评测表现及亮点


Qwen2在多个评测基准上具有领先优势。据Qwen官方博客介绍,在针对预训练语言模型的评估中,对比当前最优的开源模型,Qwen2-72B在包括自然语言理解、知识、代码、数学及多语言等多项能力上均显著超越当前领先的模型,如Llama-3-70B以及Qwen1.5-110B。这得益于其预训练数据及训练方法的优化。
大规模预训练后,他们对模型进行精细的微调,大幅提升了模型的基础能力以及模型的智能水平。
他们全面评估了Qwen2-72B-Instruct在16个基准测试中的表现。Qwen2-72B-Instruct在提升基础能力以及对齐人类价值观这两方面取得了较好平衡。相比Qwen1.5的72B模型,Qwen2-72B-Instruct在所有评测中均大幅超越,并且能匹敌Llama-3-70B-Instruct。
而在小模型方面,Qwen2系列模型基本能够超越同等规模的最优开源模型甚至更大规模的模型。相比近期推出的最好的模型,Qwen2-7B-Instruct依然能在多个评测上取得显著的优势,尤其是代码及中文理解上。
在代码与数学能力方面,Qwen2-72B-Instruct具有显著的效果提升。
在长文本处理方面,Qwen2系列中的所有Instruct模型,均在32k上下文长度上进行训练,并通过YARN或Dual Chunk Attention等技术,让Qwen2-7B-Instruct和Qwen2-72B-Instruct实现了长达128K tokens上下文长度的支持。他们还开源了一个智能体解决方案(github.com/QwenLM/Qwen-Agent),用于高效处理100万tokens级别的上下文。
在中文英语的基础上,他们针对性地27种语言进行了增强,并针对性地优化了多语言场景中常见的语言转换(code switch)问题,模型当前发生语言转换的概率大幅度降低。
此外,在安全方面,通过显著性检验(P值),Qwen2-72B-Instruct模型在安全性方面与GPT-4的表现相当,并且显著优于Mistral-8x22B模型。
Qwen2模型地址:
https://modelscope.cn/organization/qwen
关于SiliconCloud
SiliconCloud是集合主流开源大模型的一站式云服务平台,为开发者提供更快、更便宜、更全面的模型API。
目前,SiliconCloud已上架包括Qwen2、GLM-4-9B-Chat、DeepSeek V2、SDXL、InstantID在内的多种开源大语言模型、图片生成模型,支持用户自由切换符合不同应用场景的模型。同时,SiliconCloud提供开箱即用的大模型推理加速服务,为生成式AI应用带来更高效的用户体验。
真正在乎大模型推理性能和成本的开发者,绝不会错过SiliconCloud。更何况,现在还送3亿token。
快试试吧
www.siliconflow.cn/zh-cn/siliconcloud
硅基流动致力于打造大模型时代的AI基础设施,通过算法、系统和硬件的协同创新,跨数量级降低大模型应用成本和开发门槛,加速AGI普惠人类。

扫码加入技术交流群

官方网站:www.siliconflow.cn
简历投递:talent@siliconflow.cn
商务合作:contact@siliconflow.cn
继续滑动看下一个
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存