
该课程讲解大模型原理与训练实战,涵盖神经网络基础(DNN/RNN)、Transformer架构、LLaMA实现等核心内容,并配套Python/PyTorch基础与LlaMA训练实战。课程从理论推导到代码实现,完整覆盖大模型技术栈,包括注意力机制、位置编码、KV缓存等关键技术,同时提供NLP入门和大模型应用开发指导
课程目录(33.24 GB)
【Transformer】1 Transformer与注意力机制入门.mp4 129.38MB 【LLaMA】5.5 时间复杂度、机器翻译等Q&A.mp4 85.12MB 00 不同基础不同目标的学习路径规划.mp4 41.94MB 【Transformer】2 Attention注意力机制的本质.mp4 197.76MB 【LLaMA】原理与架构复现 Part 3.mp4 1.1GB 【Transformer】13 掩码与掩码注意力机制.mp4 216.11MB 【LLaMA】1 LLaMA中的Decoder架构详解.mp4 138.05MB 【LLaMA】原理与架构复现 Part 2.mp4 1.53GB 【LLaMA】原理与架构复现 Part 4.mp4 1.58GB 【Transformer】5 Embedding与位置编码.mp4 203.21MB 【LLaMA】4.5 旋转位置编码的Q&A.mp4 51.66MB 【Transformer】14 填充掩码与前瞻掩码的实现.mp4 223.85MB 【Transformer】3 Transformer中的注意力计算流程 & 多头注意力机制.mp4 224.63MB 【Transformer】12 Decoder的输入与teacher forcing.mp4 247.8MB 【Transformer】11 完整Transformer结构下的解码器Decoder.mp4 150.65MB 【LLaMA】2 LLaMA中的Embedding层.mp4 163.47MB 【Transformer】16 Decoder-Only结构下的Decoder.mp4 177.1MB 【LLaMA】3 RMSNorm均方根层归一化.mp4 159.64MB 【Transformer】15 编码-解码注意力层.mp4 162.42MB 【LLaMA】5 KV缓存的原理与初步实现.mp4 156.24MB 【Transformer】10 编码器结构详解之前馈神经网络FFN.mp4 113.68MB 【LLaMA】4 旋转位置编码ROPE.mp4 249.86MB 【Transformer】4 Transformer的基本架构.mp4 142.29MB 【Transformer】6 正余弦编码的数学与实用意义.mp4 200.29MB 【Transformer】8 编码器结构详解之残差链接.mp4 169.05MB 【Transformer】9 编码器结构详解之Layer Normalization.mp4 120.21MB 【Transformer】7 正余弦编码的实际计算与高维空间可视化.mp4 122.95MB
声明:本站所有资源版权均属于原作者所有,这里所提供资源均只能用于参考学习用,请勿直接商用。若由于商用引起版权纠纷,一切责任均由使用者承担。更多说明请参考 VIP介绍。
