昇腾社区首页
中文
注册

aclnnGroupedMatmul

支持的产品型号

  • Atlas A2训练系列产品/Atlas 800I A2推理产品

接口原型

每个算子分为undefined,必须先调用“aclnnGroupedMatmulGetWorkspaceSize”接口获取入参并根据计算流程计算所需workspace大小,再调用“aclnnGroupedMatmul”接口执行计算。

  • aclnnStatus aclnnGroupedMatmulGetWorkspaceSize(const aclTensorList* x, const aclTensorList* weight, const aclTensorList* biasOptional, const aclTensorList* scaleOptional, const aclTensorList* offsetOptional, const aclTensorList* antiquantScaleOptional, const aclTensorList* antiquantOffsetOptional, const aclIntArray* groupListOptional, int64_t splitItem, const aclTensorList* y, uint64_t* workspaceSize, aclOpExecutor** executor)
  • aclnnStatus aclnnGroupedMatmul(void* workspace, uint64_t workspaceSize, aclOpExecutor* executor, aclrtStream stream)

功能描述

  • 算子功能:实现分组矩阵乘计算,每组矩阵乘的维度大小可以不同。基本功能为矩阵乘,如yi[mi,ni]=xi[mi,ki]/timesweighti[ki,ni],i=1...gy_i[m_i,n_i]=x_i[m_i,k_i] /times weight_i[k_i,n_i], i=1...g,其中g为分组个数,mi/ki/nim_i/k_i/n_i为应对shape。根据x、weight、y的Tensor数量支持如下4种场景:

  • x、weight、y都为多tensor,即每组的数据对应的Tensor是独立的。

  • x为单tensor,weight/y为多tensor,此时需要通过可选参数group_list说明x在行上的分组情况,如group_list[0]=10说明x的前10行参与第一组矩阵乘计算。

  • x、weight为多tensor,y为单tensor,此时每组矩阵乘的结果放在同一个Tensor中连续存放。

  • x、y为单tensor,weight为多tensor,属于前两种情况的组合。

说明: 单tensor指一个tensor list中所有分组的tensor在M轴上合并为1个;否则为多tensor。

  • 计算公式:
    • 非量化场景:
    yi=xi×weighti+biasiy_i=x_i\times weight_i + bias_i
    • 量化场景:
    yi=(xi×weighti+biasi)scalei+offsetiy_i=(x_i\times weight_i + bias_i) * scale_i + offset_i
    • 反量化场景:
    yi=(xi×weighti+biasi)scaleiy_i=(x_i\times weight_i + bias_i) * scale_i
    • 伪量化场景:
    yi=xi×(weighti+antiquant_offseti)antiquant_scalei+biasiy_i=x_i\times (weight_i + antiquant\_offset_i) * antiquant\_scale_i + bias_i

aclnnGroupedMatmulGetWorkspaceSize

  • 参数说明:

    • x(aclTensorList*,计算输入):必选参数,Device侧的aclTensorList,公式中的输入x,数据类型支持FLOAT16、BFLOAT16、INT8、FLOAT32,undefined支持ND,支持的最大长度为128个。
    • weight(aclTensorList*,计算输入):必选参数,Device侧的aclTensorList,公式中的weight,数据类型支持FLOAT16、BFLOAT16、INT8、FLOAT32,undefined支持ND,支持的最大长度为128个。
    • biasOptional(aclTensorList*,计算输入)可选参数,Device侧的aclTensorList,公式中的bias,数据类型支持FLOAT16、FLOAT32、INT32,undefined支持ND,长度与weight相同。
    • scaleOptional(aclTensorList*,计算输入)可选参数,Device侧的aclTensorList,代表量化参数中的缩放因子,数据类型支持UINT64,undefined支持ND,长度与weight相同。
    • offsetOptional(aclTensorList*,计算输入)可选参数,Device侧的aclTensorList,代表量化参数中的偏移量,数据类型支持FLOAT32,undefined支持ND,长度与weight相同。
    • antiquantScaleOptional(aclTensorList*,计算输入)可选参数,Device侧的aclTensorList,代表伪量化参数中的缩放因子,数据类型支持FLOAT16、BFLOAT16,undefined支持ND,长度与weight相同。
    • antiquantOffsetOptional(aclTensorList*,计算输入)可选参数,Device侧的aclTensorList,代表伪量化参数中的偏移量,数据类型支持FLOAT16、BFLOAT16,undefined支持ND,长度与weight相同。
    • groupListOptional(aclIntArray*,计算输入):可选参数,Host侧的aclIntArray类型,代表输入和输出M方向的matmul索引情况,数据类型支持INT64,undefined支持ND,长度与weight相同。
    • splitItem(int64_t,计算输入):整数型参数,代表输出是否要做tensor切分,0/1代表输出为多tensor;2/3代表输出为单tensor,默认值为0。
    • y(aclTensorList*,计算输出):Device侧的aclTensorList,公式中的输出y,数据类型支持FLOAT16、BFLOAT16、INT8、FLOAT32,undefined支持ND,支持的最大长度为128个。
    • workspaceSize(uint64_t*,出参):返回需要在Device侧申请的workspace大小。
    • executor(aclOpExecutor**,出参):返回op执行器,包含了算子计算流程。
  • 返回值:

    返回aclnnStatus状态码,具体参见undefined

    [object Object]

aclnnGroupedMatmul

  • 参数说明:

    • workspace(void*,入参):在Device侧申请的workspace内存地址。
    • workspaceSize(uint64_t,入参):在Device侧申请的workspace大小,由第一段接口aclnnGroupedMatmulGetWorkspaceSize获取。
    • executor(aclOpExecutor*,入参):op执行器,包含了算子计算流程。
    • stream(aclrtStream,入参):指定执行任务的AscendCL stream流。
  • 返回值:

    返回aclnnStatus状态码,具体参见undefined

约束与限制

  • 非量化场景支持的输入类型为:

    • x为FLOAT16、weight为FLOAT16、biasOptional为FLOAT16、scaleOptional为空、offsetOptional为空、antiquantScaleOptional为空、antiquantOffsetOptional为空、y为FLOAT16;
    • x为BFLOAT16、weight为BFLOAT16、biasOptional为FLOAT32、scaleOptional为空、offsetOptional为空、antiquantScaleOptional为空、antiquantOffsetOptional为空、y为BFLOAT16;
    • x为FLOAT32、weight为FLOAT32、biasOptional为FLOAT32、scaleOptional为空、offsetOptional为空、antiquantScaleOptional为空、antiquantOffsetOptional为空、y为FLOAT32;
  • 量化场景支持的输入类型为:

    • x为INT8、weight为INT8、biasOptional为INT32、scaleOptional为UINT64、offsetOptional为空、antiquantScaleOptional为空、antiquantOffsetOptional为空、y为INT8;
  • 伪量化场景支持的输入类型为:

    • x为FLOAT16、weight为INT8、biasOptional为FLOAT16、scaleOptional为空,offsetOptional为空,antiquantScaleOptional为FLOAT16、antiquantOffsetOptional为FLOAT16、y为FLOAT16;
    • x为BFLOAT16、weight为INT8、biasOptional为FLOAT32、scaleOptional为空,offsetOptional为空,antiquantScaleOptional为BFLOAT16、antiquantOffsetOptional为BFLOAT16、y为BFLOAT16;
  • 如果传入groupListOptional,groupListOptional必须为非负递增数列,groupListOptional长度不能为1。

  • 当前支持的场景: 支持场景中单表示单tensor,多表示多tensor,表示顺序为x,weight,y,例,单多单表示支持x为单tensor,weight多tensor,y单tensor的场景。

    支持场景 场景限制
    多多多 1)仅支持splitItem为0/1[object Object]2)x中tensor支持2-6维,weight中tensor需为2维,y中tensor维度和x保持一致[object Object]3)若x中存在tensor大于2维,groupListOptional必须传空[object Object]4)若x中tensor为2维且传入groupListOptional,groupListOptional的差值需与x中tensor的第一维一一对应
    单多单 1)仅支持splitItem为2/3[object Object]2)必须传groupListOptional,且最后一个值与x中tensor的第一维相等[object Object]3)x,weight,y中tensor需为2维[object Object]4)weight中每个tensor的N轴必须相等
    单多多 1)仅支持splitItem为0/1[object Object]2)必须传groupListOptional,groupListOptional的差值需与y中tensor的第一维一一对应[object Object]3)x,weight,y中tensor需为2维
    多多单 1)仅支持splitItem为2/3[object Object]2)x,weight,y中tensor需为2维[object Object]3)weight中每个tensor的N轴必须相等[object Object]4)若传入groupListOptional,groupListOptional的差值需与x中tensor的第一维一一对应
  • x和weight中每一组tensor的最后一维大小都应小于65536。xix_i的最后一维指当属性transpose_x为false时xix_i的K轴或当transpose_x为true时xix_i的M轴。weightiweight_i的最后一维指当属性transpose_weight为false时weightiweight_i的N轴或当transpose_weight为true时weightiweight_i的K轴。

  • x和weight中每一组tensor的每一维大小在32字节对齐后都应小于int32的最大值2147483647。

调用示例

示例代码如下,仅供参考,具体编译和执行过程请参考undefined

[object Object]