昇腾社区首页
中文
注册
开发者
下载

aclnnGroupedMatmul

产品支持情况

[object Object]undefined

功能说明

  • 接口功能:实现分组矩阵乘计算,每组矩阵乘的维度大小可以不同。基本功能为矩阵乘,如yi[mi,ni]=xi[mi,ki]×weighti[ki,ni],i=1...gy_i[m_i,n_i]=x_i[m_i,k_i] \times weight_i[k_i,n_i], i=1...g,其中g为分组个数,mi/ki/nim_i/k_i/n_i为对应shape。根据x、weight、y的Tensor数量支持如下4种场景:

    • x、weight、y都为多tensor,即每组的数据对应的Tensor是独立的。

    • x为单tensor,weight/y为多tensor,此时需要通过可选参数group_list说明x在行上的分组情况,如group_list[0]=10说明x的前10行参与第一组矩阵乘计算。

    • x、weight为多tensor,y为单tensor,此时每组矩阵乘的结果放在同一个Tensor中连续存放。

    • x、y为单tensor,weight为多tensor,属于前两种情况的组合。

      说明: 单tensor指一个tensor list中所有分组的tensor在M轴上合并为1个;否则为多tensor。

  • 计算公式:

    • 非量化场景:

      yi=xi×weighti+biasiy_i=x_i\times weight_i + bias_i
    • 量化场景:

      yi=(xi×weighti+biasi)scalei+offsetiy_i=(x_i\times weight_i + bias_i) * scale_i + offset_i
    • 反量化场景:

      yi=(xi×weighti+biasi)scaleiy_i=(x_i\times weight_i + bias_i) * scale_i
    • 伪量化场景:

      yi=xi×(weighti+antiquant_offseti)antiquant_scalei+biasiy_i=x_i\times (weight_i + antiquant\_offset_i) * antiquant\_scale_i + bias_i

函数原型

每个算子分为,必须先调用“aclnnGroupedMatmulGetWorkspaceSize”接口获取入参并根据计算流程计算所需workspace大小,再调用“aclnnGroupedMatmul”接口执行计算。

[object Object]
[object Object]

aclnnGroupedMatmulGetWorkspaceSize

  • 参数说明:

    [object Object]
    • [object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object]:
      • x、weight支持FLOAT16、BFLOAT16、INT8
      • y支持FLOAT16、BFLOAT16、INT8、FLOAT32
  • 返回值:

    返回aclnnStatus状态码,具体参见

    第一阶段接口完成入参校验,出现以下场景时报错:

    [object Object]

aclnnGroupedMatmul

  • 参数说明:

    [object Object]
  • 返回值:

    返回aclnnStatus状态码,具体参见

约束说明

  • 确定性计算:
    • aclnnGroupedMatmul默认确定性实现。
  • [object Object]Atlas A2 训练系列产品/Atlas A2 推理系列产品[object Object]:
    • 非量化场景支持的输入类型为:

      • x为FLOAT16、weight为FLOAT16、biasOptional为FLOAT16、scaleOptional为 空、offsetOptional为空、antiquantScaleOptional为空、 antiquantOffsetOptional为空、y为FLOAT16;
      • x为BFLOAT16、weight为BFLOAT16、biasOptional为FLOAT32、scaleOptional 为空、offsetOptional为空、antiquantScaleOptional为空、 antiquantOffsetOptional为空、y为BFLOAT16;
      • x为FLOAT32、weight为FLOAT32、biasOptional为FLOAT32、scaleOptional为 空、offsetOptional为空、antiquantScaleOptional为空、 antiquantOffsetOptional为空、y为FLOAT32;
    • 量化场景支持的输入类型为:

      • x为INT8、weight为INT8、biasOptional为INT32、scaleOptional为UINT64、 offsetOptional为空、antiquantScaleOptional为空、 antiquantOffsetOptional为空、y为INT8;
    • 伪量化场景支持的输入类型为:

      • x为FLOAT16、weight为INT8、biasOptional为FLOAT16、scaleOptional为空, offsetOptional为空,antiquantScaleOptional为FLOAT16、 antiquantOffsetOptional为FLOAT16、y为FLOAT16;
      • x为BFLOAT16、weight为INT8、biasOptional为FLOAT32、scaleOptional为 空,offsetOptional为空,antiquantScaleOptional为BFLOAT16、 antiquantOffsetOptional为BFLOAT16、y为BFLOAT16;
    • 如果传入groupListOptional,groupListOptional必须为非负递增数列, groupListOptional长度不能为1。

    • 当前支持的场景: 支持场景中单表示单tensor,多表示多tensor,表示顺序为x,weight,y,例,单 多单表示支持x为单tensor,weight多tensor,y单tensor的场景。

      [object Object]undefined
    • x和weight中每一组tensor的最后一维大小都应小于65536。xix_i的最后一维指当属 性transpose_x为false时xix_i的K轴或当transpose_x为true时xix_i的M轴。 weightiweight_i的最后一维指当属性transpose_weight为false时weightiweight_i的N轴或当 transpose_weight为true时weightiweight_i的K轴。

    • x和weight中每一组tensor的每一维大小在32字节对齐后都应小于int32的最大值 2147483647。

调用示例

调用示例代码如下,仅供参考,具体编译和执行过程请参考

[object Object]