昇腾社区首页
中文
注册

aclnnGroupedMatmul

产品支持情况

产品 是否支持
[object Object]Atlas A3 训练系列产品/Atlas A3 推理系列产品[object Object] ×
[object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件[object Object]
[object Object]Atlas 200I/500 A2 推理产品[object Object] ×
[object Object]Atlas 推理系列产品[object Object] ×
[object Object]Atlas 训练系列产品[object Object] ×

功能说明

  • 算子功能:实现分组矩阵乘计算,每组矩阵乘的维度大小可以不同。基本功能为矩阵乘,如yi[mi,ni]=xi[mi,ki]×weighti[ki,ni],i=1...gy_i[m_i,n_i]=x_i[m_i,k_i] \times weight_i[k_i,n_i], i=1...g,其中g为分组个数,mi/ki/nim_i/k_i/n_i为对应shape。根据x、weight、y的Tensor数量支持如下4种场景:

    • x、weight、y都为多tensor,即每组的数据对应的Tensor是独立的。
    • x为单tensor,weight/y为多tensor,此时需要通过可选参数group_list说明x在行上的分组情况,如group_list[0]=10说明x的前10行参与第一组矩阵乘计算。
    • x、weight为多tensor,y为单tensor,此时每组矩阵乘的结果放在同一个Tensor中连续存放。
    • x、y为单tensor,weight为多tensor,属于前两种情况的组合。

    说明: 单tensor指一个tensor list中所有分组的tensor在M轴上合并为1个;否则为多tensor。

  • 计算公式:

    • 非量化场景:
    yi=xi×weighti+biasiy_i=x_i\times weight_i + bias_i
    • 量化场景:
    yi=(xi×weighti+biasi)scalei+offsetiy_i=(x_i\times weight_i + bias_i) * scale_i + offset_i
    • 反量化场景:
    yi=(xi×weighti+biasi)scaleiy_i=(x_i\times weight_i + bias_i) * scale_i
    • 伪量化场景:
    yi=xi×(weighti+antiquant_offseti)antiquant_scalei+biasiy_i=x_i\times (weight_i + antiquant\_offset_i) * antiquant\_scale_i + bias_i

函数原型

每个算子分为undefined,必须先调用“aclnnGroupedMatmulGetWorkspaceSize”接口获取入参并根据计算流程计算所需workspace大小,再调用“aclnnGroupedMatmul”接口执行计算。

  • aclnnStatus aclnnGroupedMatmulGetWorkspaceSize(const aclTensorList* x, const aclTensorList* weight, const aclTensorList* biasOptional, const aclTensorList* scaleOptional, const aclTensorList* offsetOptional, const aclTensorList* antiquantScaleOptional, const aclTensorList* antiquantOffsetOptional, const aclIntArray* groupListOptional, int64_t splitItem, const aclTensorList* y, uint64_t* workspaceSize, aclOpExecutor** executor)
  • aclnnStatus aclnnGroupedMatmul(void* workspace, uint64_t workspaceSize, aclOpExecutor* executor, aclrtStream stream)

aclnnGroupedMatmulGetWorkspaceSize

  • 参数说明:

    • x(aclTensorList*,计算输入):必选参数,Device侧的aclTensorList,公式中的输入x,undefined支持ND,支持的最大长度为128个。
      • [object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件[object Object]:数据类型支持FLOAT16、BFLOAT16、INT8、FLOAT32
    • weight(aclTensorList*,计算输入):必选参数,Device侧的aclTensorList,公式中的weight,undefined支持ND,支持的最大长度为128个。
      • [object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件[object Object]:数据类型支持FLOAT16、BFLOAT16、INT8、FLOAT32
    • biasOptional(aclTensorList*,计算输入)可选参数,Device侧的aclTensorList,公式中的bias,undefined支持ND,长度与weight相同。
      • [object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件[object Object]:数据类型支持FLOAT16、FLOAT32、INT32
    • scaleOptional(aclTensorList*,计算输入)可选参数,Device侧的aclTensorList,代表量化参数中的缩放因子,undefined支持ND,长度与weight相同。
      • [object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件[object Object]:数据类型支持UINT64
    • offsetOptional(aclTensorList*,计算输入)可选参数,Device侧的aclTensorList,代表量化参数中的偏移量,undefined支持ND,长度与weight相同。
      • [object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件[object Object]:数据类型支持FLOAT32
    • antiquantScaleOptional(aclTensorList*,计算输入)可选参数,Device侧的aclTensorList,代表伪量化参数中的缩放因子,undefined支持ND,长度与weight相同。
      • [object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件[object Object]:数据类型支持FLOAT16、BFLOAT16
    • antiquantOffsetOptional(aclTensorList*,计算输入)可选参数,Device侧的aclTensorList,代表伪量化参数中的偏移量,undefined支持ND,长度与weight相同。
      • [object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件[object Object]:数据类型支持FLOAT16、BFLOAT16
    • groupListOptional(aclIntArray*,计算输入):可选参数,Host侧的aclIntArray类型,代表输入和输出M方向的matmul索引情况,数据类型支持INT64,undefined支持ND,长度与weight相同。需注意:当输出中TensorList的长度为1时,groupListOptional中的最后一个值约束了输出数据的有效部分,groupListOptional中未指定的部分将不会参与更新。
    • splitItem(int64_t,计算输入):整数型参数,代表输出是否要做tensor切分,0/1代表输出为多tensor;2/3代表输出为单tensor。
    • y(aclTensorList*,计算输出):Device侧的aclTensorList,公式中的输出y,undefined支持ND,支持的最大长度为128个。
      • [object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件[object Object]:数据类型支持FLOAT16、BFLOAT16、INT8、FLOAT32。
      • [object Object]Atlas 推理系列产品[object Object]:数据类型支持FLOAT16、BFLOAT16。
    • workspaceSize(uint64_t*,出参):返回需要在Device侧申请的workspace大小。
    • executor(aclOpExecutor**,出参):返回op执行器,包含了算子计算流程。
  • 返回值:

    返回aclnnStatus状态码,具体参见undefined

    [object Object]

aclnnGroupedMatmul

  • 参数说明:

    • workspace(void*,入参):在Device侧申请的workspace内存地址。
    • workspaceSize(uint64_t,入参):在Device侧申请的workspace大小,由第一段接口aclnnGroupedMatmulGetWorkspaceSize获取。
    • executor(aclOpExecutor*,入参):op执行器,包含了算子计算流程。
    • stream(aclrtStream,入参):指定执行任务的Stream
  • 返回值:

    返回aclnnStatus状态码,具体参见undefined

约束说明

  • [object Object]Atlas A2 训练系列产品/Atlas 800I A2 推理产品/A200I A2 Box 异构组件[object Object]:
    • 非量化场景支持的输入类型为:

      • x为FLOAT16、weight为FLOAT16、biasOptional为FLOAT16、scaleOptional为 空、offsetOptional为空、antiquantScaleOptional为空、 antiquantOffsetOptional为空、y为FLOAT16;
      • x为BFLOAT16、weight为BFLOAT16、biasOptional为FLOAT32、scaleOptional 为空、offsetOptional为空、antiquantScaleOptional为空、 antiquantOffsetOptional为空、y为BFLOAT16;
      • x为FLOAT32、weight为FLOAT32、biasOptional为FLOAT32、scaleOptional为 空、offsetOptional为空、antiquantScaleOptional为空、 antiquantOffsetOptional为空、y为FLOAT32;
    • 量化场景支持的输入类型为:

      • x为INT8、weight为INT8、biasOptional为INT32、scaleOptional为UINT64、 offsetOptional为空、antiquantScaleOptional为空、 antiquantOffsetOptional为空、y为INT8;
    • 伪量化场景支持的输入类型为:

      • x为FLOAT16、weight为INT8、biasOptional为FLOAT16、scaleOptional为空, offsetOptional为空,antiquantScaleOptional为FLOAT16、 antiquantOffsetOptional为FLOAT16、y为FLOAT16;
      • x为BFLOAT16、weight为INT8、biasOptional为FLOAT32、scaleOptional为 空,offsetOptional为空,antiquantScaleOptional为BFLOAT16、 antiquantOffsetOptional为BFLOAT16、y为BFLOAT16;
    • 如果传入groupListOptional,groupListOptional必须为非负递增数列, groupListOptional长度不能为1。

    • 当前支持的场景: 支持场景中单表示单tensor,多表示多tensor,表示顺序为x,weight,y,例,单 多单表示支持x为单tensor,weight多tensor,y单tensor的场景。

      支持场景 场景限制
      多多多 1)仅支持splitItem为0/1[object Object]2)x中tensor要求维度一致,支持2-6维,weight中 tensor需为2维,y中tensor维度和x保持一致[object Object]3)若x中存在tensor大于2维, groupListOptional必须传空[object Object]4)若x中tensor为2维且传入 groupListOptional,groupListOptional的差值需与x中tensor的第一维一一对 应
      单多单 1)仅支持splitItem为2/3[object Object]2)必须传groupListOptional,且最后 一个值与x中tensor的第一维相等[object Object]3)x,weight,y中tensor需为2维[object Object]4) weight中每个tensor的N轴必须相等
      单多多 1)仅支持splitItem为0/1[object Object]2)必须传groupListOptional, groupListOptional的差值需与y中tensor的第一维一一对应[object Object]3)x,weight,y中 tensor需为2维
      多多单 1)仅支持splitItem为2/3[object Object]2)x,weight,y中tensor需为2维 [object Object]3)weight中每个tensor的N轴必须相等[object Object]4)若传入groupListOptional, groupListOptional的差值需与x中tensor的第一维一一对应
    • x和weight中每一组tensor的最后一维大小都应小于65536。xix_i的最后一维指当属 性transpose_x为false时xix_i的K轴或当transpose_x为true时xix_i的M轴。 weightiweight_i的最后一维指当属性transpose_weight为false时weightiweight_i的N轴或当 transpose_weight为true时weightiweight_i的K轴。

    • x和weight中每一组tensor的每一维大小在32字节对齐后都应小于int32的最大值 2147483647。

调用示例

示例代码如下,仅供参考,具体编译和执行过程请参考undefined

[object Object]