图解LLM

  • 电脑网络维修
  • 2024-11-15

LLM-Agent 大模型自动体热度绝后,但自动体是什么、为什么、怎样办,行业还没有一致认知,典型的小学语文课本里“小马过河”的事实版。

是什么

一、OpenAI 工程师Lilian Weng的定义 2023.6.23

布局

子指标和合成:将大型义务合成为更小的、可控制的子指标。

反思和改良:对过去的执前启动自我批判和自我反省,从失误中学习。

记忆

短期记忆:高低文学习都是应用模型的短期记忆来学习。

常年记忆:常年保管和回想消息的才干。

工具经常使用

调用外部API来失掉模型权重中缺少的额外消息。

二、复旦大学学者的调研总结 2023.9.19

大脑

Brain作为记忆和决策中心。

感知

Perception解释外部抚慰,从文本到更多模态的方式。

执行

Action执行来自“大脑”的选择。

三、NVIDIA 工程师Tanay Varshney的看法 2023.11.30

自动体外围

外围逻辑和行为特色的中央协调模块,或“关键决策模块”,包括

指标:蕴含总体指标和目的。

工具手册:可访问的一切工具的“用户手册”。

布局指南:不同布局模块的经常使用细节。

灵活记忆:推断时灵活填充与用户过去对话中最相关的记忆项。

角色(可选):最终照应中注入典型的特质。

记忆

短期记忆:回答用户的单个疑问时所教训的执行和想法的账本。

常年记忆:用户和自动体之间出现的事情的执行和想法的账本。

工具

用来执行义务的定义良好的可执行上班流。

布局

义务和疑问合成

反思或批判

LLM大模型之前,Agent就有不少钻研,LLM 让这一设想有了更事实的或者。以上是往年影响面较大的三篇内容,其中有显著的期间线,反映了行业认知的继续深化。NVIDIA 工程师的版本更繁复明了。

为什么

一、幻觉,大模型天生或者一本正派的胡说。哈工大与华为学者的调研 2023.11.9

数据惹起

毛病数据源(失误消息与成见,常识边界)

数据应用无余(常识捷径,常识召回失败)

训练所致

预训练带来(架构毛病,次优训练指标)

对齐发生(才干错位,决计错位)

推理引入

毛病的解码战略(外在采样随机性)

不完美解码表征(高低文留意力无余,Softmax瓶颈)

二、前后左右不一的自分歧性 self-consistency

单视角横向自分歧性

同高低文,多条线,同一输入的输入预期分歧

单视角纵向自分歧性

同高低文,单条线,先后同输入的输入预期分歧

多视角纵横分歧性

不同高低文,多条线,先后同输入的输入,特定状况下预期分歧

三、记忆的短期性,高低文窗口限度

没有超出高低文窗口的记忆

只能“记住”给定的有限高低文中的内容,没有其余独立的记忆存储。

高低文窗口作为LLM的刹时记忆

齐全依赖于高低文窗口来失掉任何之前的消息。

怎样办

一、从LLM外部处置疑问的思绪,典型做法,检索辅佐生成RAG

模型应用从文档中检索到的相关消息辅佐生成环节。

附加常识库

为模型提供额外的消息输入,实用于常识密集型义务。

两个关键阶段

应用编码模型基于疑问检索相关文档,如BM25、DPR、ColBERT等方法。

经常使用检索到的高低文作为条件生成内容。

RAG局限

不实用于教会模型了解宽泛的畛域或学习新的言语、格局或格调。

微调技术​

经过深入学习内化常识,适宜须要复制特定的结构、格调或格局。

二、解铃还须系铃人,从LLM外部系统性处置疑问的思绪

针对语料中的偏向与失误,语料的片面数据控制十分必要,既要丰盛详实,又要不偏不倚;放大算力提高模型精度,增强嵌入及后续训练的消息辨别度;

改良Transformer-Attention归一化算法,优化降落自在能损失,最大水平降落消息折损;自回归预测将受益于归一化优化,从而优化外部概率先验准确性;

构建重整化流的数学公式,推导出其流动的方向,并计算或者的不动点,从而借助新语料,对不动点做微扰,促成其进入更有序的相空间,成功可控的可预测的涌现;

RLHF训练联合揭示工程探求不同高低文有效揭示语,改良decoder模型,促成大模型外部采样经常使用Wasserstein距离作为概率散布近似的度量;

探测钻研外部环球模型结构,进而可以控制模型温度,指点灵活Bayes推理更贴切的采样概率散布,进一步亦可经过检索增强生成(RAG)成果,提高自分歧自评价才干。

三、内外兼修,多种概念架构层出不穷

伯克利学者增强高低文窗口 Context Window 的思绪

参与一个分层的外部高低文和相应控制配置函数。

LLM处置器以主高低文为输入,并输入由解析器解释的文本:输入或函数调用,函数调用在主高低文和外部高低文之间移动数据。

普林斯顿学者的上班也比拟有启示性

定义了一组交互模块和环节。

决策程序执行自动体的源代码。

此源代码由与 LLM (揭示模板和解析器)、外部存储器(检索和学习)和外部环境(Grounding) 交互的环节组成。

写在最后

逻辑上人脑包括两个关键系统:

系统1 担任抚慰照应,系统2担任深度思索。

大模型LLM配置目前相当于系统1,自动体Agent相似系统2。

两者相反相成,协同分歧,处置复杂疑问两者都无法或缺。

笔者偏向于从LLM外部处置现有疑问的思绪,三个关键点:

·Self-awareness,非自我看法,而是增强LLM对学到的范围的结构和相关的了解;

·范围内和跨范围采样改良,依据更好的“范围的结构和相关的了解”优化采样算法;

·构建外部上班空间,控制短中常年多档次记忆与范围交互,推理布局与经常使用工具;

参考文献

1.LLM Powered Autonomous Agents​

2.The Rise and Potential of Large Language Model Based Agents: A Survey​

3.Introduction to LLM Agents​

4.A Survey on Hallucination in Large Language Models:Principles, Taxonomy, Challenges, and Open Questions​

5.ENHANCING LARGE LANGUAGE MODELS IN CODING THROUGH MULTI-PERSPECTIVE SELF-CONSISTENCY​

6.Survey of Hallucination in Natural Language Generation​

7.Retrieval-Augmented Generation for Large Language Models: A Survey​

8.Cognitive Architectures for Language Agents​

9.​

10.MEMGPT: TOWARDS LLMS AS OPERATING SYSTEMS ​

本文转载自​​,作者:​​

  • 关注微信

本网站的文章部分内容可能来源于网络和网友发布,仅供大家学习与参考,如有侵权,请联系站长进行删除处理,不代表本网站立场,转载联系作者并注明出处:https://duobeib.com/diannaowangluoweixiu/5826.html

猜你喜欢

热门标签

洗手盆如何疏浚梗塞 洗手盆为何梗塞 iPhone提价霸占4G市场等于原价8折 明码箱怎样设置明码锁 苏泊尔电饭锅保修多久 长城画龙G8253YN彩电输入指令画面变暗疑问检修 彩星彩电解除童锁方法大全 三星笔记本培修点上海 液晶显示器花屏培修视频 燃气热水器不热水要素 热水器不上班经常出现3种处置方法 无氟空调跟有氟空调有什么区别 norltz燃气热水器售后电话 大连站和大连北站哪个离周水子机场近 热水器显示屏亮显示温度不加热 铁猫牌保险箱高效开锁技巧 科技助力安保无忧 创维8R80 汽修 a1265和c3182是什么管 为什么电热水器不能即热 标致空调为什么不冷 神舟培修笔记本培修 dell1420内存更新 青岛自来水公司培修热线电话 包头美的洗衣机全国各市售后服务预定热线号码2024年修缮点降级 创维42k08rd更新 空调为什么运转异响 热水器为何会漏水 该如何处置 什么是可以自己处置的 重庆华帝售后电话 波轮洗衣机荡涤价格 鼎新热水器 留意了!不是水平疑问! 马桶产生了这5个现象 方便 极速 邢台空调移机电话上门服务 扬子空调缺点代码e4是什么疑问 宏基4736zG可以装置W11吗 奥克斯空调培修官方 为什么突然空调滴水很多 乐视s40air刷机包 未联络视的提高方向 官网培修 格力空调售后电话 皇明太阳能电话 看尚X55液晶电视进入工厂形式和软件更新方法 燃气热水器缺点代码

热门资讯

关注我们

微信公众号