添加链接
注册
登录
link管理
链接快照平台
输入网页链接,自动生成快照
标签化管理网页链接
相关文章推荐
腼腆的小马驹
·
How to 6-bit Code ...
·
1 月前
·
谦和的电池
·
Http401AuthenticationE ...
·
1 月前
·
朝气蓬勃的紫菜
·
斗罗大陆62集:柳二龙第七魂技赤龙真身登场, ...
·
6 月前
·
不羁的苦瓜
·
第二部分 释义 第五章 罚则_中国人大网
·
1 年前
·
打篮球的汽水
·
vb.net的 datagridview ...
·
1 年前
·
link管理
›
Transformer、GPT、BERT,预训练语言模型的前世今生(目录) - B ...
https://www.cnblogs.com/nickchen121/p/15105048.html
行走的甘蔗
8 月前
我为什么要做这件事呢?现存的python,机器学习视频都是为了培养人工智能算法工程师,各种高大上,各种看不懂,而有一批和我这样的同学,只想水一篇论文毕业,然后考公考编。因此,我的目标定位就是通过最快速的方法让大家具备水论文的一些必备基础。然后呢,transformer 和bert开课了,先润润嗓子,为正菜做准备。 博客配套视频链接: https://space.bilibili.com/383551518?spm_id_from=333.1007.0.0 b 站直接看 配套 github 链接:https://github.com/nickchen121/Pre-training-language-model 配套博客链接:https://www.cnblogs.com/nickchen121/p/15105048.html
博客配套视频链接: https://space.bilibili.com/383551518?spm_id_from=333.1007.0.0 b 站直接看
配套 github 链接:https://github.com/nickchen121/Pre-training-language-model
配套博客链接:https://www.cnblogs.com/nickchen121/p/15105048.html
00 预训练语言模型的前世今生(全文 24854 个词,都让你一次性爽完了)
目录
第一篇 Transformer、GPT、BERT,预训练语言模型的前世今生(理论)
第二篇 第二篇 通过 Pytorch 构建 Transformer 框架(真实战,不做调包侠)
第三篇 Huggingface 实战(待续)
推荐阅读
第一篇 Transformer、GPT、BERT,预训练语言模型的前世今生(理论)
00 预训练语言模型的前世今生(全文 24854 个词)
03 什么是预训练(Transformer 前奏)
04 统计语言模型(n元语言模型)
05 神经网络语言模型(独热编码+词向量的起源)
06 Word2Vec模型(第一个专门做词向量的模型,CBOW和Skip-gram)
07 预训练语言模型的下游任务改造简介(如何使用词向量)
08 ELMo模型(双向LSTM模型解决词向量多义问题)
09 什么是注意力机制(Attention )
10 Self-Attention(自注意力机制)
1001 Attention 和 Self-Attention 的区别(还不能区分我就真的无能为力了)
11 Self-Attention相比较 RNN和LSTM的优缺点
12 Masked Self-Attention(掩码自注意力机制)
13 Multi-Head Self-Attention(从空间角度解释为什么做多头)
14 Positional Encoding (为什么 Self-Attention 需要位置编码)
1401 位置编码公式详细理解补充
15 Transformer 框架概述
16 Transformer 的编码器(Encodes)——我在做更优秀的词向量
17 Transformer 的解码器(Decoders)——我要生成一个又一个单词
18 Transformer 的动态流程
19 Transformer 解码器的两个为什么(为什么做掩码、为什么用编码器-解码器注意力)
第二篇 第二篇 通过 Pytorch 构建 Transformer 框架(真实战,不做调包侠)
00 通过 Pytorch 实现 Transformer 框架完整代码
000 通过 Pytorch 实现 Transformer 框架完整代码(带注释)
02 Transformer 中 Add&Norm (残差和标准化)代码实现
0201 为什么 Pytorch 定义模型要有一个 init 和一个 forward,两者怎么区分
03 Transformer 中的多头注意力(Multi-Head Attention)Pytorch代码实现
04 Transformer 中的位置编码的 Pytorch 实现
05 Transformer 中的前馈神经网络(FFN)的实现
第三篇 Huggingface 实战(待续)
pytorch从入门到放弃(目录)
Python从入门到放弃(目录)
人工智能从入门到放弃(目录)
数据结构与算法-江西师范大学865(针对考研or面试)(目录)
十天快速入门Python(目录)
数据结构与算法-Python/C(目录)
Go从入门到放弃(目录)
TensorFlow2教程-旧(目录)
机器学习-项目杂记(目录)
Python能干啥-项目杂记(目录)
大数据分析和人工智能科普
人工智能(机器学习)学习之路推荐
推荐书单(网课)-人生/编程/Python/机器学习
曾Python培训讲师-Python开发无包装简历
推荐文章
腼腆的小马驹
·
How to 6-bit Code Leica M Lens - Do-It-Yourself | www.devonbuy.com
1 月前
谦和的电池
·
Http401AuthenticationEntryPoint (Spring Boot Docs 1.4.7.RELEASE API)
1 月前
朝气蓬勃的紫菜
·
斗罗大陆62集:柳二龙第七魂技赤龙真身登场,戴沐白:超级母老虎_大地之王
6 月前
不羁的苦瓜
·
第二部分 释义 第五章 罚则_中国人大网
1 年前
打篮球的汽水
·
vb.net的 datagridview 如果需要刷新怎么做?需要把dataset重新fill吗?还是?_百度知道
1 年前