零基础解码Transformer与大模型核心原理
Transformer和大模型之间是什么关系?
-
火力猛:能同时处理大量信息(比如一句话的所有词语一起分析,而不是逐个字看); -
步骤简:用“注意力机制”(Attention)自动找到关键信息(比如理解“猫吃鱼”时,自动关联“猫→吃→鱼”的关系); -
可复制:这套方法能无限扩展,锅越大(模型参数越多),菜越香(效果越好)。
Transformer到底是什么?
Transformer输入句子处理
Encoder和Decoder的核心原理是什么?
-
4.1.1 公式含义
-
4.1.2 Q K V含义
Multi-Head Attention机制
Multi-Head Attention计算流程
Transformer内部结构
-
使用公式法能够适应比训练集里所有句子更长的句子场景,这么说可能有点绕,举一个例子,假设我们训练的时候,训练集里最长的句子只有100个单词,但是现实中我们在推理的时候,可能会存在101个单词的场景,这时候呢根据公式就可以计算出101单词的位置信息。 -
可以让模型更容易地计算出相对位置。举一个例子,假设A单词的位置是pos, B单词和A单词之间的位置距离为L,那么PE(pos+L) 则可以由 PE(pos) 计算得到。因为 Sin(A+B) = Sin(A)Cos(B) + Cos(A)Sin(B) , Cos(A+B) = Cos(A)Cos(B) - Sin(A)Sin(B)
Encoder的组成
-
Decoder存在两个Multi-Head Attention模块,而Encoder只有一个 -
Decoder的第一个Multi-Head Attention模块采用了Mask操作 -
Decoder的第二个Multi-Head Attention模块的输入,并不止依赖于第一个Multi-Head Attention模块的结果,同时依赖了Encoder的输出(后面会详细解释)
Decoder架构
Decoder架构
-
Encoder用来对输入序列进行高纬度特征提取,并生成编码后的向量信息 -
因为Encoder获取不到序列之间的位置信息,所以需要位置编码模块对其进行位置特征的补充,从而让模型能够拥有语义信息+位置信息的特征 -
Decoder基于已生成的结果和Encoder的输入进行生成最终目标序列
-
《Attention Is All You Need》https://arxiv.org/pdf/1706.03762 -
《The Illustrated Transformer》 https://jalammar.github.io/illustrated-transformer/ -
《Transformer模型详解(图解最完整版)》 https://zhuanlan.zhihu.com/p/338817680 -
《超详细图解Self-Attention》https://zhuanlan.zhihu.com/p/410776234
本文作者逾末,来自淘天集团-直播技术团队。淘宝直播作为全球领先的直播电商平台,正在重新定义人与商品、人与内容的连接方式。我们致力于打造沉浸式、互动式的购物体验,让数亿用户在这里发现好货、感受乐趣。无论是时尚穿搭、美食评测,还是科技新品发布,淘宝直播都在引领电商行业的创新潮流。同时淘宝直播也在推进打造行业领先的AI数字人技术,实现虚拟主播、智能互动、个性化推荐等创新功能。
本文分享自微信公众号 - 大淘宝技术(AlibabaMTT)。
如有侵权,请联系 support@oschina.cn 删除。
本文参与“OSC源创计划”,欢迎正在阅读的你也加入,一起分享。

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
理解非结构化文档:将 Reducto 解析与 Elasticsearch 结合使用
作者:来自 ElasticAdel Wu Elasticsearch 与行业领先的 Gen AI 工具和提供商进行了原生集成。查看我们的网络研讨会,了解如何超越 RAG 基础知识,或构建可用于生产的应用程序Elastic Vector Database。 要为您的用例构建最佳搜索解决方案,请开始免费试用云,或立即在本地计算机上试用 Elastic。 解析是大多数RAG管道中的瓶颈。扫描的 PDF 和电子表格可能很混乱,输入不当会导致检索不完整、产生幻觉和脆弱的结果。近 80%** 的企业知识被困在这些格式中,传统的 OCR 使结构和意义扁平化。 应对这一挑战需要先进的解析技术,将传统的 OCR 和视觉语言模型 (VLM) 相结合来解释文档布局和内容,并生成结构化的、LLM 就绪的块。本文将探讨这种混合方法,并演示如何将 Reducto 的文档解析 API 与 Elasticsearch 集成以进行语义搜索。 解析为何仍是巨大挑战 传统的 OCR 和基础文本提取方法只能生成文档的 “扁平” 视图。这可能适用于复制粘贴,但对于搜索来说是灾难性的。 想象一下把一份财务报告或复杂表单扁平化成一...
- 下一篇
SCALE:一个面向专业级任务的大语言模型 SQL 能力开源评测框架
随着大语言模型(LLM)在数据科学领域的应用日益广泛,学术界和工业界涌现出多种评测基准。然而,我们观察到,现有评测体系大多聚焦于 Text-to-SQL 的转换准确率,而这远不能全面反映模型在真实、复杂场景下的 SQL 处理能力。 为了弥补这一关键空白,我们经过深入研究,提出了 SCALE ------ 一个面向专业级任务的大语言模型 SQL 能力开源评测框架。我们致力于通过开放、透明和社区驱动的方式,建立一个行业公认的评估标准。 背景:现有 LLM-SQL 评测的局限性 近年来,大语言模型处理结构化查询语言(SQL)的能力取得了长足进步。一系列公开的评测基准(Benchmark)也应运而生,它们在很大程度上推动了模型在 Text-to-SQL 任务上的发展。 尽管如此,我们发现现有的评测体系仍存在显著的局限性。在专业的数据库管理和软件开发实践中,开发者面临的挑战远比"将一句话转为 SQL"要复杂得多: 性能是生命线:一个能返回正确结果但执行耗时数分钟的查询,在生产环境中是不可接受的。现有评测很少关注模型生成 SQL 的性能和效率。 环境是多样的:数据库迁移和跨平台适配是常见需求。但模...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- CentOS关闭SELinux安全模块
- CentOS8安装Docker,最新的服务器搭配容器使用
- SpringBoot2编写第一个Controller,响应你的http请求并返回结果
- Hadoop3单机部署,实现最简伪集群
- SpringBoot2初体验,简单认识spring boot2并且搭建基础工程
- Linux系统CentOS6、CentOS7手动修改IP地址
- Eclipse初始化配置,告别卡顿、闪退、编译时间过长
- Springboot2将连接池hikari替换为druid,体验最强大的数据库连接池
- Windows10,CentOS7,CentOS8安装Nodejs环境
- 设置Eclipse缩进为4个空格,增强代码规范