热门标签 | HotTags
当前位置:  开发笔记 > 后端 > 正文

GPT1、GPT2、GPT3原理

一背景GPT1:GenerativePre-Training。是一种生成式的预训练模型,由OpenAi团队发表自论文《ImprovingLanguageUnderstandingb


一 背景


GPT1:Generative Pre-Training。是一种生成式的预训练模型,由OpenAi团队发表自论文《Improving Language Understanding by Generative Pre-Training》。


h0=UWe+Wp


二 模型整体结构(宏观)










图1 GPT整体结构


左侧为模型的整体结构,由12个Transformer中的Decoder模块经修改后组成(Transformer本身是由6个Encoder和6个Decoder组成)。


三 模型细节(微观)


1.Decoder的




推荐阅读
author-avatar
减肥瘦身666
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有