昇腾社区首页
中文
注册
开发者
下载
Transformer精讲(理论)
Transformer精讲(理论)
中级
1.7小时
2
暂无评分
我要评分
本认证重点考察学习者对LLM大模型中注意力机制和Transformer架构的深入理解与应用能力。

认证内容

章节时长(分钟)学习目标
自注意力机制与核心组件30理解Transformer的核心机制(自注意力机制与多头注意力机制)和关键组件(编码器、解码器),掌握其在处理序列数据中的作用。
位置编码与序列处理30掌握位置编码的作用与原理和Transformer处理序列信息的方式(例:掩码多头自注意力)。
训练优化与梯度问题20了解Transformer的训练优化方法和解决梯度消失问题的技术。
模型优势与应用场景20理解Transformer相比传统模型的优势及其在自然语言处理中的应用

认证学习

MindSpore LLM大模型原理和实践:Transformer课程
本课程主要讲解当前大语言模型的关键技术及代码实现,包含注意力机制、transfomers结构、位置编码等

通过本课程将掌握:

  • 大模型原理和实践:Transformer

课程

MindSpore LLM大模型原理和实践:Transformer

认证事项

  • 1.考试仅支持电脑端操作
  • 2.通过考试后需在10天内完成实名认证,逾期未完成实名认证将无法发放证书
  • 3.考试及实名认证通过后24小时,可前往个人中心-我的微认证查看证书编号或下载电子证书
  • 4.证书自颁布之日起2年内有效
  • 5.为了确保您考取的微认证真实有效,且能充分发挥其对您的积极作用,维护认证的公正性和可信度,微认证证书支持在社区侧公开查询,可前往微认证证书查询使用证书编号进行查询。感谢您选择参加本认证,祝您取得优异成绩!
  • 面向对象

    希望深入理解注意力机制和Transformer架构,对NLP和深度学习感兴趣的学习者。

  • 您将获得

    通过本认证,学习者将掌握注意力机制的计算原理、Transformer架构、位置编码的数学设计。

  • 购前须知
    1. 考试券一经售出,不予退换货
    2. 购买后,考试券预计10分钟以内自动同步到我的券码,订单信息请在我的订单下查看
    3. 如需了解更多购买事项,请查看购前须知