------------ 必修 ------------
看完秒懂!用日常例子十分鐘搞懂 Transformer 的厲害之處
啥是大语言模型(LLM)? AI大模型科普2
ChatGPT原理揭密!背后的黑科技Transformer Demystify Transformer Behind ChatGPT 3
如何3步炼成一个ChatGPT? 4
-Attention Is All You Need 六周年回顾 | 八名作者多人创立独角兽公司
-------- 必修深入講解 -------------
機器學習2021】Transformer (上)
機器學習2021】Transformer (下)
究竟神經網路是什麼? l 第一章 深度學習(開中文字幕)
梯度下降,神經網絡如何學習 l 第二章 深度學習(開中文字幕)
什麼是反向傳播演算法?| 深度學習,第3章(開中文字幕)
Backpropagation calculus | Chapter 4, Deep learning(開中文字幕)
But what is a GPT? Visual intro to transformers | Chapter 5, Deep Learning
Attention in transformers, visually explained | Chapter 6, Deep Learning
-------Lee -----
ML Lecture 14: Unsupervised Learning - Word Embedding
什么是词嵌入,Word Embedding算法
機器學習2021】自注意力機制 (Self-attention) (上 )
機器學習2021】自注意力機制 (Self-attention) (下)
【機器學習2021】自督導式學習 (Self-supervised Learning) (四) – GPT的野望
【機器學習 2022】各式各樣神奇的自注意力機制 (Self-attention) 變型
--------------------- 小嘿嘿 --------------------
------- 莫凡 ---------
计算机怎么理解人类语言?什么是自然语言处理 NLP 技术?
BERT 看透你说的话 语言模型 #6.4 【莫烦Python NLP 自然语言处理教学】
GPT 预训练生成语言模型 #6.3【莫烦Python NLP 自然语言处理教学】
-------------------- 漫士沉思錄 ---------------------------
-------------- VcubingX + Art of The Problem -----------
ChatGPT: 30 Year History | How AI Learned to Talk
What does it mean for computers to understand language? | LM1
Why Recurrent Neural Networks are cursed | LM2
How did the Attention Mechanism start an AI frenzy? | LM3
------ 簡介 -----------
大咖來科普] 什麼是"Transformer AI"? - 耐能智慧 Kneron CEO&創辦人 劉峻誠
03 大規模視覺基礎模型之機會與挑戰
------------ AI 甘安 -------------------
---------Lucidate ---------
Discover Neural Networks in 60 Seconds: The Powerhouse Behind AI Breakthroughs!
Neural Networks Explained in 60 Seconds: The Quick & Easy Guide!
Chatgpt Transformer Positional Embeddings in 60 seconds
Transformers in 60 Seconds
Chat GPT in 60 seconds
Chatgpt & GPT 3 Transformers in 60 Seconds
Chatgpt Transformer Attention in 60 Seconds
How chatgpt works
ChatGPT - Semantics: Transformers & NLP 2
ChatGPT Position and Positional embeddings: Transformers & NLP 3
--------- The AI Hacker ------
Illustrated Guide to Transformers Neural Network: A step by step explanation
Illustrated Guide to LSTM's and GRU's: A step by step explanation
Attention mechanism: Overview
------- IBM Tech. ------------
Neural Networks Explained in 5 minutes
What are Convolutional Neural Networks (CNNs)?
Five Steps to Create a New AI Model
-------- Algorithmic Simplicity ------
Algorithmic Simplicit
从Word Embedding到Bert模型—自然语言处理中的预训练技术发展史
----- 概念簡介 水論文程序員(Transformer技術介紹)----
Transformer和BERT看不懂来这里,告诉你他们的前世今生,必能懂
03 Transformer 中的多头注意力(Multi-Head Attention)Pytorch代码实现
08 Transformer 中的编码器(Encoder)的Pytorch实现
11 (完结)Transformer 中 Transformer框架 的 forward 的构建,期待 GPT 和 BERT
03 BERT,集大成者,公认的里程碑
05 神经网络语言模型(独热编码+词向量 Word Embedding 的起源)
07 预训练语言模型的下游任务改造简介(如何使用词向量)
08 ELMo模型(双向LSTM模型解决词向量多义问题)
09 Transformer 之什么是注意力机制(Attention)
10 Transformer 框架搭建之 init 在干吗?(万事具备,开始调包)
12 Transformer的掩码自注意力机制,Masked Self-Attention(掩码自注意力机制)
13 Transformer的多头注意力,Multi-Head Self-Attention(从空间角度解释为什么做多头)
16 Transformer的编码器(Encodes)——我在做更优秀的词向量
18 Transformer 的动态流程
20 Transformer 的输出和输入是什么
------ 王木頭學科學 -------
从编解码和词嵌入开始,理解Transformer,注意力机制(Attention)的本质是卷积神经网络
“神经网络”是什么?如何直观理解它的能力极限?它是如何无限逼近真理的?
从“卷积”、到“图像卷积操作”、再到“卷积神经网络”,“卷积”意义的3次改变
卷积神经网络的底层是傅里叶变换,傅里叶变换的底层是希尔伯特空间坐标变换
“损失函数”是如何设计出来的?直观理解“最小二乘法”和“极大似然估计法”
直观解释:为什么噪声不是过拟合的原因?又什么只要没有过拟合就一定有噪声?
5. 深度学习和元胞自动机有什么关系?会给编程带来什么样的颠覆性改变?
从编解码和词嵌入开始,理解Transformer,注意力机制(Attention)的本质是卷积神经网络
“神经网络”是什么?如何直观理解它的能力极限?它是如何无限逼近真理的?
------ CodeEmporium +
----------Visual Guide to Transformer Neural Networks - (Episode 1) Position Embeddings(3集)
Hedu AI by Batool Haider(AI 基礎解說)
Self Attention in Transformer Neural Networks (with Code!)(12集)