Transformer动画解说

  • 电脑网络维修
  • 2024-11-15

一、GPT的外围是Transformer

GPT(Generative Pre-trained Transformer) 是一种基于单向Transformer解码器的预训练言语模型,它经过在大规模语料库上的无监视学习来捕捉言语的统计法令,从而具有弱小的文本生成才干。

在GPT(Generative Pre-trained Transformer)模型中,字母G、P、T各自有其特定的含意:

GPT的外围是Transformer

Transformer模型在多模态数据解决中雷同表演着关键角色 ,其能够高效、准确地解决蕴含不同类型(如图像、文本、音频、视频等)的多模态数据。

Transformer的多模态

二、Transformer的上班原理

Transformer上班原理四部曲: Embedding(向量化)、Attention(留意力机制)、MLPs(多层感知机)和Unembedding(模型输入)。

Embedding -> Attention -> MLPs -> Unembedding

阶段一:Embedding(向量化)

“Embedding”在字面上的翻译是“嵌入”,但在机器学习和人造言语解决的高低文中,咱们更偏差于将其了解为一种“向量化”或“向量示意”的技术。

(1)Tokenization(词元化):

Tokenization

(2)Embedding(向量化):

Tokens转换为向量

向量语义相似度

阶段二:Attention(留意力机制)

Attention模块协助嵌入向量构成相关性,即确定它们如何相互关联以构建出无心义的句子或段落。

留意力计算公式

(1)Attention的目标:

降级嵌入向量

建设语义相关性

(2)Attention的上班流程(留意力计算Q、K、V):

留意力计算Q、K、V

阶段三:MLPs(多层感知机或前馈网络)

Transformer的编码器和解码器中的每一层都蕴含一个全衔接的前馈神经网络。FFNN理论蕴含两个线性变换,两边经常使用ReLU激活函数启动非线性解决。

(1)MLPs在Transformer中的

MLPs在Transformer中的位置

(2)MLPs在Transformer中的作用:

MLPs在Transformer中的作用

阶段四:Unembedding(模型输入)

Transformers经过Softmax在生成输入时, 将原始留意力分数转换为输入标志的概率散布。这种概率散布将较高的留意力权重调配给更相关的标志,并将较低的权重调配给不太相关的标志。

(1)Softmax在Transformer的

Softmax在Transformer的位置

(2)Softmax在Transformer的作用:

Softmax在Transformer中的作用

原文链接:​ ​​ ​

  • 关注微信

本网站的文章部分内容可能来源于网络和网友发布,仅供大家学习与参考,如有侵权,请联系站长进行删除处理,不代表本网站立场,转载联系作者并注明出处:http://www.duobeib.com/diannaowangluoweixiu/5555.html

猜你喜欢

热门标签

洗手盆如何疏浚梗塞 洗手盆为何梗塞 iPhone提价霸占4G市场等于原价8折 明码箱怎样设置明码锁 苏泊尔电饭锅保修多久 长城画龙G8253YN彩电输入指令画面变暗疑问检修 彩星彩电解除童锁方法大全 三星笔记本培修点上海 液晶显示器花屏培修视频 燃气热水器不热水要素 热水器不上班经常出现3种处置方法 无氟空调跟有氟空调有什么区别 norltz燃气热水器售后电话 大连站和大连北站哪个离周水子机场近 热水器显示屏亮显示温度不加热 铁猫牌保险箱高效开锁技巧 科技助力安保无忧 创维8R80 汽修 a1265和c3182是什么管 为什么电热水器不能即热 标致空调为什么不冷 神舟培修笔记本培修 dell1420内存更新 青岛自来水公司培修热线电话 包头美的洗衣机全国各市售后服务预定热线号码2024年修缮点降级 创维42k08rd更新 空调为什么运转异响 热水器为何会漏水 该如何处置 什么是可以自己处置的 重庆华帝售后电话 波轮洗衣机荡涤价格 鼎新热水器 留意了!不是水平疑问! 马桶产生了这5个现象 方便 极速 邢台空调移机电话上门服务 扬子空调缺点代码e4是什么疑问 宏基4736zG可以装置W11吗 奥克斯空调培修官方 为什么突然空调滴水很多 乐视s40air刷机包 未联络视的提高方向 官网培修 格力空调售后电话 皇明太阳能电话 看尚X55液晶电视进入工厂形式和软件更新方法 燃气热水器缺点代码

热门资讯

关注我们

微信公众号