以下模型需配合ATB Models模型库使用,ATB Models的安装方式请参见《MindIE安装指南》中“安装开发环境 > 安装ATB Models”章节。
MindIE支持的大语言模型列表如下所示。
模型名称 |
多卡能力 |
数据类型 |
量化 |
服务化 |
长序列 |
模型权重链接 |
---|---|---|---|---|---|---|
Baichuan2-7B |
|
|
W8A8量化:仅 |
|
不支持 |
|
Baichuan2-13B |
|
|
|
|
不支持 |
模型名称 |
多卡能力 |
数据类型 |
量化 |
服务化 |
长序列 |
模型权重链接 |
---|---|---|---|---|---|---|
ChatGLM2-6B (该模型预计下个版本将日落) |
|
|
|
|
不支持 |
|
ChatGLM3-6B |
|
|
W8A8量化:仅 |
|
不支持 |
|
ChatGLM3-6B-32K |
|
|
W8A8量化:仅 |
|
不支持 |
|
GLM4-9B-Chat |
|
|
|
|
模型名称 |
多卡能力 |
数据类型 |
量化 |
服务化 |
长序列 |
模型权重链接 |
---|---|---|---|---|---|---|
CodeLLaMA-34B |
|
|
|
|
不支持 |
模型名称 |
多卡能力 |
数据类型 |
量化 |
服务化 |
长序列 |
模型权重链接 |
---|---|---|---|---|---|---|
DeepSeek-V2-Lite-16B |
|
|
W8A16量化:仅 |
不支持 |
不支持 |
|
DeepSeek-V2-236B |
|
|
W8A16量化:仅 |
不支持 |
不支持 |
模型名称 |
多卡能力 |
数据类型 |
量化 |
服务化 |
长序列 |
模型权重链接 |
---|---|---|---|---|---|---|
InternLM-20B (该模型预计下个版本将日落) |
|
|
不支持 |
不支持 |
不支持 |
|
InternLM2-7B (该模型预计下个版本将日落) |
|
|
不支持 |
不支持 |
||
InternLM2-20B (该模型预计下个版本将日落) |
|
|
不支持 |
|
模型名称 |
多卡能力 |
数据类型 |
量化 |
服务化 |
长序列 |
模型权重链接 |
---|---|---|---|---|---|---|
LLaMA-7B (该模型预计下个版本将日落) |
|
|
不支持 |
不支持 |
不支持 |
|
LLaMA-13B (该模型预计下个版本将日落) |
|
|
不支持 |
不支持 |
不支持 |
|
LLaMA-33B (该模型预计下个版本将日落) |
|
|
稀疏量化:仅Atlas 300I Duo 推理卡支持 |
不支持 |
不支持 |
|
LLaMA-65B (该模型预计下个版本将日落) |
|
|
W8A16量化:仅 |
|
不支持 |
|
LLaMA2-7B (该模型预计下个版本将日落) |
|
|
|
|
不支持 |
|
LLaMA2-13B (该模型预计下个版本将日落) |
|
|
|
|
不支持 |
|
LLaMA2-70B (该模型预计下个版本将日落) |
|
|
|
|
不支持 |
|
LLaMA3-8B |
|
|
不支持 |
|
不支持 |
|
LLaMA3-70B |
|
|
W8A16量化:仅 |
|
不支持 |
|
LLaMA3.1-8B |
|
|
|
|
不支持 |
|
LLaMA3.1-70B |
|
|
|
|
||
LLaMA3.1-405B |
|
|
不支持 |
不支持 |
不支持 |
模型名称 |
多卡能力 |
数据类型 |
量化 |
服务化 |
长序列 |
模型权重链接 |
---|---|---|---|---|---|---|
Mixtral-8x7B-Instruct-V0.1 |
|
|
W8A8量化:仅 |
|
不支持 |
|
Mixtral-8x22B-Instruct-V0.1 |
|
|
不支持 |
|
不支持 |
模型名称 |
多卡能力 |
数据类型 |
量化 |
服务化 |
长序列 |
模型权重链接 |
---|---|---|---|---|---|---|
Qwen-7B (该模型预计下个版本将日落) |
|
|
W8A8量化:仅 |
|
不支持 |
|
Qwen-14B (该模型预计下个版本将日落) |
|
|
W8A8量化:仅 |
|
不支持 |
|
Qwen-72B (该模型预计下个版本将日落) |
|
|
W8A16量化:仅 |
|
不支持 |
|
Qwen1.5-0.5B (该模型预计下个版本将日落) |
|
|
不支持 |
不支持 |
不支持 |
|
Qwen1.5-1.8B (该模型预计下个版本将日落) |
|
|
不支持 |
不支持 |
不支持 |
|
Qwen1.5-4B (该模型预计下个版本将日落) |
|
|
不支持 |
不支持 |
不支持 |
|
Qwen2-57B-A14B |
|
|
不支持 |
|
不支持 |
|
Qwen2-7B |
|
|
W8A8量化:仅 |
|
不支持 |
|
Qwen2-72B |
|
|
|
|
||
Qwen2.5-7B |
|
|
不支持 |
|
不支持 |
|
Qwen2.5-14B |
|
|
不支持 |
|
不支持 |
|
Qwen2.5-32B |
|
|
W8A8量化:仅 |
|
不支持 |
|
Qwen2.5-72B |
|
|
W8A8量化:仅 |
|
不支持 |
模型名称 |
多卡能力 |
数据类型 |
量化 |
服务化 |
长序列 |
模型权重链接 |
---|---|---|---|---|---|---|
StarCoder-15.5B (该模型预计下个版本将日落) |
|
|
W8A8量化:支持 |
|
不支持 |
|
StarCoder2-15B (该模型预计下个版本将日落) |
|
|
W8A8量化:仅 |
|
不支持 |
模型名称 |
多卡能力 |
数据类型 |
量化 |
服务化 |
长序列 |
模型权重链接 |
---|---|---|---|---|---|---|
Yi-6B-200K |
|
|
不支持 |
不支持 |
不支持 |
|
Yi-34B-200K (该模型预计下个版本将日落) |
|
|
不支持 |
不支持 |
模型名称 |
多卡能力 |
数据类型 |
量化 |
服务化 |
长序列 |
模型权重链接 |
---|---|---|---|---|---|---|
CodeGeeX2-6B (该模型预计下个版本将日落) |
|
|
W8A8量化:仅 |
|
不支持 |
|
CodeShell-7B (该模型预计下个版本将日落) |
|
|
不支持 |
不支持 |
不支持 |
|
Gemma-7B (该模型预计下个版本将日落) |
|
|
W8A8量化:仅 |
不支持 |
不支持 |
|
GPT-NEOX-20B (该模型预计下个版本将日落) |
|
|
不支持 |
不支持 |
不支持 |
|
Ziya-Coding-34B (该模型预计下个版本将日落) |
|
|
不支持 |
不支持 |
不支持 |