Mistral-Nemo-Instruct-2407是由Mistral AI和NVIDIA联合训练的大型语言模型(LLM),是Mistral-Nemo-Base-2407的指导微调版本。该模型在多语言和代码数据上进行了训练,显著优于大小相似或更小的现有模型。其主要特点包括:支持多语言和代码数据训练、128k上下文窗口、可替代Mistral 7B。模型架构包括40层、5120维、128头维、1436隐藏维、32个头、8个kv头(GQA)、2^17词汇量(约128k)、旋转嵌入(theta=1M)。该模型在多种基准测试中表现出色,如HellaSwag(0-shot)、Winogrande(0-shot)、OpenBookQA(0-shot)等。
数据评估
关于Mistral-Nemo-Instruct-2407特别声明
本站趣搜呀提供的Mistral-Nemo-Instruct-2407都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由趣搜呀实际控制,在2025年1月23日 04:30收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除,趣搜呀不承担任何责任。
相关导航
使用AI技术将WhatsApp音频消息转文字并生成摘要
BuildShip
构建应用程序后端工作流、API、计划作业、云功能的低代码可视化方式-由人工智能提供支持。
Ministral-8B-Instruct-2410
高效能的语言模型,支持本地智能和设备端计算。
StarLens
用AI分析你的GitHub星标仓库,揭示你的编程品味。
Llama-3.1-Tulu-3-70B-SFT
领先的指令遵循模型家族,提供开源数据、代码和指南。
Gaia-ml
无需编码,快速构建神经机器翻译器
CursorCore
开源AI辅助编程模型系列
InternLM2.5-7B-Chat GGUF
大型语言模型,高效文本生成。
暂无评论...