今日,我们发布了V3系列模型的最新版本,同时公布了其源代码,受到了广泛关注。该模型在多个方面进行了优化和升级,预计将在模型界引发新一波潮流。接下来,我将逐一为大家介绍这些亮点。
版本发布详情
今日V3版正式发布,官网亦同步开启了与V3最新版本的交流渠道。用户访问官网后,即可体验这款全新模型。此外,API服务也有所提升,不过接口设置无需调整,便于老用户操作。但需留意,V3版本目前还不支持多模态的输入输出功能。
模型性能亮点
V3是我们自主研发的MoE模型,参数量高达671亿,其中活跃的参数有37亿。该模型在14.8万亿token上完成了预训练。在多轮评测中,V3的表现优于Qwen2.5-72B和Llama-3.1-405B等公开模型。在性能上,它与GPT-4o和GPT-3.5等国际闭源模型不相上下,实力非常强大。
生成速度提升
在速度方面,-V3取得了显著进展。借助算法和工程技术的创新,其发音速度从每秒20次提升到了60次,比V2.5版本多了整整一倍。因此,用户在使用-V3时,能够感受到更加流畅的体验,同时也大大减少了所需时间。
API 价格调整
V3版本正式开始使用,API服务的收费标准也随之变动。变动后,每百万次请求的成本降低到了0.5元(若缓存命中)或上升至2元(若缓存未命中),而每百万次响应的费用保持不变,为8元。为了感谢用户的支持,官方特别举办了一场为期45天的优惠活动。从现在开始,一直到2025年2月8日,-V3的API服务费用保持不变,新老用户均可享受这一价格优惠。
开源权重部署
V3模型使用FP8算法完成训练,并且公开了该算法的原始FP8权重。得益于开源社区的帮助,以及我们提前推广V3模型FP8推理功能,-LLM和另一款产品成功实现了BF16推理。此外,为了方便社区适配和拓宽应用范围,我们还提供了FP8到BF16的转换工具。您可以通过指定链接获取模型权重的下载和本地部署的相关信息。
未来发展展望
该模型秉持开源理念,着眼未来,致力于推广通用人工智能。现在,它已站在新的高度,计划在-V3版本中引入深度思考、多模态等创新功能。而且,它还将不断与社区分享研究成果,这些进步备受用户热切期待。
大家对-V3的更新有什么看法?它在模型界的位置又将怎样展现?不妨在评论区留下你的见解。同时,请不要吝啬点赞和分享,让-V3的独特魅力被更多人感受。
发表评论