范文健康探索娱乐情感热点
投稿投诉
热点动态
科技财经
情感日志
励志美文
娱乐时尚
游戏搞笑
探索旅游
历史星座
健康养生
美丽育儿
范文作文
教案论文

ChatGPT幕后的真正大佬

  引
  ChatGPT的背后
  ChatGPT红得发紫,强得让人类心悸。
  但在它的背后,还隐藏着一位真正的大佬。
  可以说,与它相比,ChatGPT其实只是他的一个跟班小弟。
  或者说,只是它掌控家族中的一个比较靓的仔。
  这位大佬自2017年问世以来,隐约已成为AI领域的基石王者。
  它的名字叫做——Transformer!
  01
  Chat不重要,GPT 才重要   先拆解一下ChatGPT,它由Chat与GPT两部分组成。   聊天不重要,GPT才重要。   那什么是GPT,它的全英文是Generative Pre-trained Transformer。   翻译过来就是——生成式预训练的变形金刚。   先问ChatGPT——你是谁?   我是谁,它是这样解释的:   GPT是基于 Transformer 架构的预训练语言模型,可以生成自然语言文本。 Transformer 是基于自注意力机制的 深度学习模型架构 ,它在自然语言处理领域中得到了广泛的应用,如 机器翻译 、 文本分类 和 生成模型 等。   GPT是基于 Transformer 模型的改进版本,主要是针对生成任务进行了优化,通过预训练学习自然语言的语义和语法规律,进而生成高质量的文本。   因此,GPT可以看作是 Transformer 模型在生成任务上的一个 应用扩展 。   短短的自我介绍中,ChatGPT就四次提到Transformer。   Transformer模型结构图   Transformer到底是什么,让ChatGPT如此迷恋?   这只变形金刚,到底是只什么怪兽?   02
  强大的变形金刚Transformer   Transformer的定义清晰明了:   是用于 自然语言处理 (NLP)的 神经网络架构 。   在Transformer出现之前,人工智能研究领域百家争鸣。   Transformer出现之后,格局开始变了。   开始打压如日中天的循环神经网络(RNN)和卷积神经网络(CNN)。   以上图片来自网络,请原创者联络我们   Transformer架构使用了注意力机制,能够处理长序列的依赖关系。   这让它具有以下明显优点:   ❶ 并行计算:由于自注意力机制的引入,Transformer可以实现并行计算,加快训练速度。   ❷ 长序列处理:相比传统的循环神经网络和卷积神经网络,Transformer可以处理更长的序列,这是由于自注意力机制可以学习到全局的序列信息。   ❸ 模块化结构:Transformer由编码器和解码器两部分组成,每部分都包含了多层相同的模块,这种模块化结构使得Transformer更易于扩展和调整。   Transformer在各种任务中的表现,也将不断得到改善和优化,发展日新月益。   以上图片来自网络,请原创者联络我们   自2017年推出之后, Transformer 已经形成了自己的家族体系。   基于GPT架构,ChatGPT就隐藏在GPT-3的后面。   现在你就明白,它为什么叫变形金刚了。   它的确是可以演变成各种不同的角色,而且个个都挺厉害。   03
  统一自然语言NLP   人工智能的一大研究方向,首先是 自然语言处理NLP 领域。   自从 Transformers 出现后,全球NLP领域的人工智能的工程师们望风景从。   Transformers在该领域的进展所向披靡,不可阻挡,原因如下:   ❶模型大小和训练数据规模的增加 :大规模的Transformers模型,如 GPT-3.5 、 bert 、 T5 等,有些模型参数量达到 千亿级别 ,具有更强表达能力。   ❷ 多语言和跨语言应用 :由于Transformers模型具有更强泛化能力,因此可以被应用于多语言和跨语言任务,如 机器翻译 、 跨语言文本分类 等。   ❸ 与其他模型的结合和拓展 :与其他模型结合使用,如结合卷积神经网络(CNN)或循环神经网络(RNN)进行多模态学习等。   ❹ 解释性和可解释性 :随着越来越多的机器学习算法被应用于实际场景,对于模型的解释性和可解释性要求也越来越高。   LLM成长的时间线   在自然语言处理NLP领域,总体的趋势是:   LSTM/CNN→Transformer   NLP领域分为两大不同类型的任务:   ❶理解类人工智能   ❷生成式人工智能   这两个领域的研发,已经收敛到了两个不同的预训练模型框架里:   ❶ 自然语言理解 ,技术体系统一到了以Bert为代表的" 双向语言模型预训练 + 应用Fine-tuning "模式;   ❷ 自然语言生成类任务 ,其技术体系则统一到了以GPT为代表的" 自回归语言模型 (即从左到右单向语言模型)+Zero /Few Shot Prompt"模式。   而这两大模型都是基于 Transformers ,而且两者也出现了技术统一趋向。   在自然语言处理NLP这个领域,Transformer基本上已经一统天下 。   以至于那些还沉迷于CNN,RNN的工程师被警告:   放弃战斗吧,向Transformer投降!   04
  藏不住的野心:   统一计算机视觉CV   除了 NLP ,人工智能的另一分支是计算机视觉 CV 。   Transformer最开始,只是专注于自然语言的处理。   NLP曾经落后于计算机视觉 ,但是Transformer的出现迅速地改变了现状。   一出生就风华正茂,用来形容Transformer毫不为过。   它催生了一大批举世瞩目的模型,达到了令人类不安的程度。   随着Transformer统一了NLP, 计算机视觉领域 显然受到了启发。   一直沉迷于 CNN 神经网络中的科学家,开始想知道Transformer是否可以在 计算机视觉方面 取得类似的效果。   不试不知道,一试吓一跳。   Transformer在计算机视觉领域同样治疗效果明显:   ❶ 图像分类   ViT (Vision Transformer)是一种将 Transformer 应用于图像分类的模型。在 ImageNet 等基准数据集上取得了与 卷积神经网络 (CNN)相媲美的结果。   ❷ 目标检测   DETR (DEtection TRansformer)是基于 Transformer 的目标检测模型。DETR 在 COCO 数据集上取得了与 Faster R-CNN 方法相当的结果。   ❸ 语义分割   Transformer 可以用于语义分割任务,其中每个像素被视为一个 token。在 Cityscapes 、 ADE20K 和 COCO-Stuff 等数据集上取得了领先的结果。   以上例子都是Transformer的应用,它在计算机视觉领域也是虎视耽耽。   05
  花8分钟时间,   拆解Transformer这只变形金刚   Transformer为何如此强大,我们花8分钟来解剖它。   以下内容来自Jay Alammar:   Transformers可以被看做一个黑盒,以文本翻译中的法-英翻译任务为例,这个黑箱接受一句法语作为输入,输出一句相应的英语。   那么在这个黑盒子里面都有什么呢?   里面主要有两部分组成:Encoder 和 Decoder。   输入一个文本的时候,该文本数据会先经过一个叫Encoders的模块,对该文本进行编码。然后将编码后的数据再传入一个叫Decoders的模块进行解码,解码后就得到了翻译后的文本。   Encoders为编码器,Decoders为解码器。   细心的同学可能已经发现了,上图中的Decoders后边加了个s,那就代表有多个编码器了呗,没错,这个编码模块里边,有很多小的编码器,一般情况下,Encoders里边有6个小编码器,同样的,Decoders里边有6个小解码器。   在编码部分,每一个的小编码器的输入,是前一个小编码器的输出。而每一个小解码器的输入,不光是它的前一个解码器的输出,还包括了整个编码部分的输出。   那每一个小编码器里边又是什么呢?   放大一个encoder,发现里边的结构是一个自注意力机制+一个前馈神经网络。   先来看下Self-attention是什么样子的。   通过几个步骤来解释:   (1) 首先,Self-attention的输入就是词向量,即整个模型的最初的输入是词向量的形式。自注意力机制,顾名思义就是自己和自己计算一遍注意力,即对每一个输入的词向量,我们需要构建Self-attention的输入。   (2) 接下来就要计算注意力得分了,这个得分是通过计算Q与各个单词的K向量的点积得到的。以X1为例,分别将Q1和K1、K2进行点积运算,假设分别得到得分112和96。   (3) 将得分分别除以一个特定数值8(K向量的维度的平方根,通常K向量的维度是64)这能让梯度更加稳定。   (4) 将上述结果进行softmax运算得到,softmax主要将分数标准化,使他们都是正数并且加起来等于1。   (5)将V向量乘上softmax的结果,这个思想主要是为了保持我们想要关注的单词的值不变,而掩盖掉那些不相关的单词。   (6) 将带权重的各个V向量加起来,至此,产生在这个位置上(第一个单词)的Self-attention层的输出,其余位置的Self-attention输出也是同样的计算方式。   将上述的过程总结为一个公式就可以用下图表示:   Self-attention层到这里就结束了吗?   还没有,论文为了进一步细化自注意力机制层,增加了"多头注意力机制"的概念,这从两个方面提高了自注意力层的性能。   第一个方面,它扩展了模型关注不同位置的能力,这对翻译一下句子特别有用,因为我们想知道"it"是指代的哪个单词。   第二个方面,它给了自注意力层多个"表示子空间"。对于多头自注意力机制,不止有一组Q/K/V权重矩阵。   经过多头注意力机制后,就会得到多个权重矩阵Z,我们将多个Z进行拼接就得到了Self-attention层的输出:   上述我们经过了self-attention层,我们得到了self-attention的输出,self-attention的输出即是前馈神经网络层的输入,然后前馈神经网络的输入只需要一个矩阵就可以了,不需要八个矩阵,所以我们需要把这8个矩阵压缩成一个,我们怎么做呢?只需要把这些矩阵拼接起来然后用一个额外的权重矩阵与之相乘即可。   最终的Z就作为前馈神经网络的输入。   接下来就进入了小编码器里边的前馈神经网模块了。   然后在Transformer中使用了6个encoder,为了解决梯度消失的问题,在Encoders和Decoder中都是用了残差神经网络的结构,即每一个前馈神经网络的输入,不光包含上述Self-attention的输出Z,还包含最原始的输入。   上述说到的encoder是对输入(机器学习)进行编码,使用的是自注意力机制+前馈神经网络的结构,同样的,在ecoder中使用的也是同样的结构。   以上,就讲完了Transformer编码和解码两大模块,那么我们回归最初的问题,将"Je suis etudiant"翻译成"I am a student",解码器输出本来是一个浮点型的向量,怎么转化成"I am a student"这两个词呢?   这个工作是最后的线性层接上一个Softmax,其中线性层是一个简单的全连接神经网络,它将解码器产生的向量投影到一个更高维度的向量(logits)上。   假设我们模型的词汇表是10000个词,那么logits就有10000个维度,每个维度对应一个惟一的词的得分。之后的Softmax层将这些分数转换为概率。选择概率最大的维度,并对应地生成与之关联的单词作为此时间步的输出就是最终的输出啦!!   假设词汇表维度是6,那么输出最大概率词汇的过程如下:   以上就是Transformer的框架了,但是还有最后一个问题,我们都是到RNN中的每个输入是时序的,是又先后顺序的,但是Transformer整个框架下来并没有考虑顺序信息,这就需要提到另一个概念了:"位置编码"。   Transformer中确实没有考虑顺序信息,那怎么办呢,我们可以在输入中做手脚,把输入变得有位置信息不就行了,那怎么把词向量输入变成携带位置信息的输入呢?   我们可以给每个词向量加上一个有顺序特征的向量,发现sin和cos函数能够很好的表达这种特征,所以通常位置向量用以下公式来表示:   06
  Transformer,   在AI领域能形成大统一理论吗?   从以上技术可以看出: Transformer是通用深度学习模型 。   它的适用性非常强,原因在于它的 自注意力机制 (self-attention mechanism),可以更好地处理 序列数据 。   那这里就要谈一个更前沿的技术: 跨模态 。   也就是人工智能领域,能否创造 一个可以处理语言、文字、图片、视频的大统一模型 。   如果在物理世界,那就有点像爱因斯坦追求的" 大统一理论 "。   在跨模态应用中,Transformer模型通常使用 图像 和 文本特征 作为输入信息。   ❶使用 自注意力机制 来学习两个模态之间的关系。   ❷使用 多模态自注意力机制 (multi-modal self-attention)来处理多个模态之间的关系。   Transformer 应用于 跨模态任务 的效果非常好,在跨模态上取得成功的几个例子:   CLIP :CLIP是一种使用 Transformer 的 联合训练框架 ,同时使用图像和文本来预训练模型。该模型能够将 自然语言描述 和 图像 联系起来,在多个视觉推理任务上取得了非常出色的表现。   DALL-E :DALL-E 是 OpenAI 发布的一个模型,该模型通过 预训练 得到了非常强大的生成能力,在生成包括 飞行的大象 、 色彩斑斓的沙漏 等具有挑战性的图像时表现出色。   通过DALL-E生成的图像   AI绘画的老玩家一定知道这两个产品。   Transformer 在各个方向上齐头并进,形成了庞大的Transformer家族。   那么, Transformer会在AI领域能形成大统一理论吗?   现在得出这样的结论为时过早,AI领域应用非常复杂,需要结合各种技术和算法才能解决,期待单一的模型解决所有问题,有点难。   但人类对于AGI的期待,又是实实在在的。   结语   记住那些无名的技术英雄   Transformer 如此强大,仍然没有几个人知道。   就算是这背后站着 谷歌 这样的巨人,同样被大众忽略。   此时光芒四射的 chatGPT ,连太阳的光辉都能够遮盖。   可实际上, 没有Transformer的开源,就没有chatGPT 。   从 技术谱系 上来看,chatGPT只是Transformer家族中的一员。   其它谱系的成员,同样表现优秀且杰出。   如果一定要说未来谁能引领人工智能世界,我更相信是Transformer而非chatGPT 。   这里引出来另一个问题,我们不能只看到成功的山姆·阿尔特曼(Sam   Altman),还要看到chatGPT后面更多的技术英雄。例如:   Ashish Vaswani 等人:提出自注意力机制Transformer模型;   Bradly C. Stadie 等人:提出RLHF这种人类反馈机制;   Ilya Sutskever, Oriol Vinyals 等人:提出Seq2Seq模型;   EleutherAI团队: 创建GPT-Neo模型的社区项目,是GPT-3的一个分支。   Hugging Face团队: 开发了PyTorch和TensorFlow库。   Brown 等人:在GPT-3论文中提出了新颖的训练策略。   …………   这样的人还有很多,也许他们只是充满着理想主义的 科学家、工程师 、 数学家 和 程序员 ,他们在商业上 毫无追求 ,也不是最后的 名利收割者 。   但是, 我们需要记住这些人 。   当我看着Transformer那张经典的 技术原理图 时,莫名会有一种心悸,甚至百感交集,这里面容纳了上千上万智者的心血啊! 真的美,又真的让人痛。对知识的追求,千折百回,这是我们人类最值得骄傲的品质吧。   当你看到Transformer的原理图时,你会感动吗?

买基金真的可以暴富吗?基金暴富不是没有可能但是要看你怎么操作和多少本金。本金层面首先你本金要足够,卖房卖车准备艰苦奋斗,有足够的本金才有足够的收益。本金的多少影响你收益的多少。操作层面1。玩短中线,就像肝癌,身体出现哪些表现要引起重视?根据现代肿瘤学上的定义,原发性肝癌是指由肝细胞或者肝内胆管上皮细胞发生的恶性肿瘤。肝癌在全球范围内是第5大常见的恶性肿瘤,占所有癌症的的比例为5。6。在我国,肝癌死亡率占到了所有恶浙江游泳队为什么那么厉害?从孙杨到叶诗文,这些年在奥运会的游泳项目上大放异彩的运动员,大多都是来自浙江。浙江游泳队厉害,和客观的地理环境以及现在的条件都有关系。大大小小的河道,密布在浙江每个城市的各个角落。31周到36周是胎儿的猛涨期吗?你好,感谢邀请答题,胎儿前三个月是各种器官的形成起,这个时期发育不是很快,但这个时期是胎儿发育最关键的时期,是三个月之内的致畸期,孕46个月时孕妈的肚子微微鼓起,这个时候胎儿开始有孕妇胃酸烧心如何缓解?谢悟空邀请!很多准妈妈在孕期都有过烧心的不适感。烧心即是胃酸过多是孕期生理变化导致的。严重影响孕妇的饮食与情绪。准妈妈们在进餐时,要少吃多餐。少吃辛辣,油炸和高脂肪食物。孕期多喝牛孕妇是o型血,老公是ab型,孕期有必要查溶血吗?一定要查!一定要查!我就是O型血,宝爸A型,生大宝的时候,抗a值128,算是安全范围内,就没有管它,宝宝出生后,黄疸有点高,但是也没到需要照蓝光的水平,但是满月了还没有完全退干净,有没有50岁左右,整天身体不舒服,头晕头痛,腿疼的?52岁的路过,到了这个年龄,除了没人疼,剩下哪都疼捂脸捂脸捂脸首先应该检查下是否身体真的出了问题,如高血压。拿我自己举例吧,奔五的人了,有时候真的觉得身体机能下降了不少。现在高血压如何解决城乡无退休金人口养老问题?把社保统筹部分平均分配每位65周岁的老年人不就解决了吗,统筹部分是国家的企业的,又不是私人的,自已交的部分按多交多得,少交少得,不交不得合情合理,总不能让没有赶上交社保正策的部分老法官助理与检察官助理哪个好?泻药。要看从哪些方面说吧。从劳动强度上说,检察院自从反贪反渎分出去以后,保留的主要为批捕公诉,劳动强度相对较小,案件性质也决定了助理接触到的以刑事案件为主,而近些年社会形势比较稳定DNF苍穹幕落武器怎么触发苍穹之力?有没有像魔能环绕一样的炫酷外形?作为一个第三天就野生了苍穹幕落,第一次当狗拖的我非常高兴回答这个问题。苍穹幕落是没有魔能环绕的,而且触发也不需要再用装备操作键了,随便放个技能就触发了。这次改版后,很多小细节还是非为什么感觉女人都喜欢买衣服,但是买了还不怎么穿?因为喜欢就想买回家,不穿放在那里,有时是舍不得穿,有时是不习惯穿,所以买回家就存放在那里,越存越多,后来这衣服又不怎么喜欢了,所以就不想穿了,以前的我也是喜欢买不喜欢穿,衣服也不少
上林西燕镇狮身人面山,侧看像卧狮,正看似佛面横看成岭侧成峰,远近高低各不同。上林奇山秀水,独特的地貌赋予了上林与众不同的自然风光,在西燕那良附近,有网友发现了一座很奇特的山峰,侧面看着像一头卧着的狮子,正面却神似一尊佛像,让濮上新语濮阳三处网红打卡地的思考今天去了濮阳三个地方,这三个地方有一个共同的特点,都被称之为网红打卡地。第一个地方叫做濮阳工业艺术创意设计中心。这是在濮阳马颊河畔中原油田老旧厂房的基础上改造而成的一个复古街区,虽莘县大事记(九十三)山东省作家协会会员张丁材中华人民共和国2015年1月14日青岛昌盛日电有限公司董事长李坚之到莘县考察。李坚之4月7日莘县董杜庄镇西瓜博物馆莘县绿洋果蔬精品采摘园燕店镇宏源蔬菜瓜果示石家庄行唐县九口子乡花沟村泉水叮咚枣香甜燕赵视野讯近日,石家庄市行唐县九口子乡花沟村红枣喜获丰收,成为众多游客采摘游玩的好去处。据悉,行唐县是国家林业局命名的中国行唐大枣之乡中国行唐优质大枣产业基地。九口子乡花沟村位于行秋冬季不可错过的5道美食,有肉有菜还有汤,吃上一顿浑身暖烘烘秋冬季节天气会比较寒冷,凉菜一般吃得比较少,这时候热乎乎的汤菜最适合吃了,今天我整理了5道很不错的汤菜,有肉有菜还有汤,冬天吃上一顿浑身暖烘烘的!一起来看看是哪5道菜吧!推荐做法酸抗秋燥,饮食多备深秋5宝图片源于网络图文无关如今秋天已经过去一大半,秋天独有的风干物燥特征已经扑面而来,北方晚上已经进入了十几度的低温,很多人都开始进行秋补了。老话说深秋不补,过冬吃苦。无论多忙,饮食上一肾结石也和吃得太咸有关很多人都知道高血压病人需要低钠饮食(少盐),但对于肾结石代谢评估中涉及的尿钠检测颇为不解。我的结石是草酸钙结石,又不是草酸钠结石,这结石和我吃得咸一点有啥关系?这逻辑,好像也没啥问CBA三消息新疆新援两战零分,刘志轩送8次失误,李京龙进大名单大家好呀,我是北柠,各位小伙伴们要养成先赞后看的习惯哦!新疆队这个休赛期一改之前低调的作风,为了补强球队的实力,新疆队明显加大了对球队的投入,休赛期的时候新疆队连续签下了两名全新的欧冠杯巴黎圣日耳曼VS本菲卡,大巴黎是否能终止本菲卡不败?巴黎圣日耳曼巴黎圣日耳曼本赛季基本保留住了上赛季的核心阵容,不过本赛季的大巴黎有些许不同,那就是球队梅西姆巴佩内马尔三人为大巴黎的锋线三剑客,以往虽然三人在同一队,但是由于伤病问题辛巴打造新职业和就业新业态,全国首个青年公益茶品两岸福茶诞生就业是民生之本安国之策。因此,就业问题也受到了社会的广泛关注。近年来,国家支持多渠道灵活就业,在这些渠道中,以直播电商为代表的新业态打造的新职业和新就业受到了热议。头部直播电商企业顿涅茨克卢甘斯克等四地公投入俄结果出炉当地27日,顿涅茨克卢甘斯克扎波罗热赫尔松四地入俄公投结果公布,根据当地选举委员会公布的选举结果,四个地方的选民对加入俄罗斯联邦的赞成率分别为99。2398。4293。1187。0