认证内容
| 章节 | 时长(分钟) | 学习目标 |
|---|---|---|
| 自注意力机制与核心组件 | 30 | 理解Transformer的核心机制(自注意力机制与多头注意力机制)和关键组件(编码器、解码器),掌握其在处理序列数据中的作用。 |
| 位置编码与序列处理 | 30 | 掌握位置编码的作用与原理和Transformer处理序列信息的方式(例:掩码多头自注意力)。 |
| 训练优化与梯度问题 | 20 | 了解Transformer的训练优化方法和解决梯度消失问题的技术。 |
| 模型优势与应用场景 | 20 | 理解Transformer相比传统模型的优势及其在自然语言处理中的应用 |
认证学习
MindSpore LLM大模型原理和实践:Transformer课程
本课程主要讲解当前大语言模型的关键技术及代码实现,包含注意力机制、transfomers结构、位置编码等
通过本课程将掌握:
- 大模型原理和实践:Transformer
课程
MindSpore LLM大模型原理和实践:Transformer
认证事项
- 1.考试仅支持电脑端操作
- 2.通过考试后需在10天内完成实名认证,逾期未完成实名认证将无法发放证书
- 3.考试及实名认证通过后24小时,可前往个人中心-我的微认证查看证书编号或下载电子证书
- 4.证书自颁布之日起2年内有效
- 5.为了确保您考取的微认证真实有效,且能充分发挥其对您的积极作用,维护认证的公正性和可信度,微认证证书支持在社区侧公开查询,可前往微认证证书查询使用证书编号进行查询。感谢您选择参加本认证,祝您取得优异成绩!



