昇腾社区首页
中文
注册
开发者
下载

aclnnGroupedMatmulV2

产品支持情况

[object Object]undefined

功能说明

  • 接口功能:实现分组矩阵乘计算,每组矩阵乘的维度大小可以不同。基本功能为矩阵乘,如yi[mi,ni]=xi[mi,ki]×weighti[ki,ni],i=1...gy_i[m_i,n_i]=x_i[m_i,k_i] \times weight_i[k_i,n_i], i=1...g,其中g为分组个数,mi/ki/nim_i/k_i/n_i为对应shape。 相较于接口,此接口新增
    • [object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object]:
      • 支持不同分组轴,由groupType表示。
      • 非量化场景,支持x,weight转置(转置指若shape为[M,K]时,则stride为[1, M],数据排布为[K,M]的场景)。
      • 非量化场景支持x,weight输入都为float32类型。
      • 量化、伪量化场景,支持weight转置,支持weight为单tensor。
  • 计算公式:
    • 非量化场景:
    yi=xi×weighti+biasiy_i=x_i\times weight_i + bias_i
    • 量化场景:
    yi=(xi×weighti+biasi)scalei+offsetiy_i=(x_i\times weight_i + bias_i) * scale_i + offset_i
    • 反量化场景:
    yi=(xi×weighti+biasi)scaleiy_i=(x_i\times weight_i + bias_i) * scale_i
    • 伪量化场景:
    yi=xi×(weighti+antiquant_offseti)antiquant_scalei+biasiy_i=x_i\times (weight_i + antiquant\_offset_i) * antiquant\_scale_i + bias_i

函数原型

每个算子分为,必须先调用“aclnnGroupedMatmulV2GetWorkspaceSize”接口获取入参并根据计算流程计算所需workspace大小,再调用“aclnnGroupedMatmulV2”接口执行计算。

[object Object]
[object Object]

aclnnGroupedMatmulV2GetWorkspaceSize

  • 参数说明

    [object Object]
    • [object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object]:
      • x支持FLOAT16、BFLOAT16、INT8、FLOAT32
      • weight支持FLOAT16、BFLOAT16、INT8、FLOAT32
      • biasOptional支持FLOAT16、FLOAT32、INT32
      • y支持FLOAT16、BFLOAT16、INT8、FLOAT32
      • 输入参数x、weight,输出参数y支持最多128个tensor
  • 返回值

    返回aclnnStatus状态码,具体参见

    第一阶段接口完成入参校验,出现以下场景时报错:

    [object Object]

aclnnGroupedMatmulV2

  • 参数说明

    [object Object]
  • 返回值

    返回aclnnStatus状态码,具体参见

约束说明

  • 确定性计算:
    • aclnnGroupedMatmulV2默认确定性实现。
  • [object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object]:
    • 非量化场景支持的输入类型为:

      • x为FLOAT16、weight为FLOAT16、biasOptional为FLOAT16、scaleOptional为 空、offsetOptional为空、antiquantScaleOptional为空、 antiquantOffsetOptional为空、y为FLOAT16;
      • x为BFLOAT16、weight为BFLOAT16、biasOptional为FLOAT32、scaleOptional 为空、offsetOptional为空、antiquantScaleOptional为空、 antiquantOffsetOptional为空、y为BFLOAT16;
      • x为FLOAT32、weight为FLOAT32、biasOptional为FLOAT32、scaleOptional为空、offsetOptional为空、antiquantScaleOptional为空、antiquantOffsetOptional为空、y为FLOAT32;
    • 量化场景支持的输入类型为:

      • x为INT8、weight为INT8、biasOptional为INT32、scaleOptional为UINT64、offsetOptional为空、antiquantScaleOptional为空、antiquantOffsetOptional为空、y为INT8;
    • 伪量化场景支持的输入类型为:

      • x为FLOAT16、weight为INT8、biasOptional为FLOAT16、scaleOptional为空,offsetOptional为空,antiquantScaleOptional为FLOAT16、 antiquantOffsetOptional为FLOAT16、y为FLOAT16;
      • x为BFLOAT16、weight为INT8、biasOptional为FLOAT32、scaleOptional为空,offsetOptional为空,antiquantScaleOptional为BFLOAT16、 antiquantOffsetOptional为BFLOAT16、y为BFLOAT16;
      • 如果传入groupListOptional,groupListOptional必须为非负递增数列,groupListOptional长度不能为1。
    • 不同groupType支持场景:

      • 量化、伪量化仅支持groupType为-1和0场景。

      • 支持场景中单表示单tensor,多表示多tensor,表示顺序为x、weight、y。例如单多单表示支持x为单tensor、weight多tensor、y单tensor的场景。

        [object Object]undefined
    • x和weight中每一组tensor的最后一维大小都应小于65536。xix_i的最后一维指当属性transpose_x为false时xix_i的K轴或当transpose_x为true时xix_i的M轴。weightiweight_i的最后一维指当属性transpose_weight为false时weightiweight_i的N轴或当transpose_weight为true时weightiweight_i的K轴。

    • x和weight中每一组tensor的每一维大小在32字节对齐后都应小于int32的最大值2147483647。

调用示例

调用示例代码如下,仅供参考,具体编译和执行过程请参考

[object Object]