热门标签 | HotTags
当前位置:  开发笔记 > 人工智能 > 正文

在tf.keras.layers.Embedding中,为什么重要的是知道字典的大小?

如何解决《在tf.keras.layers.Embedding中,为什么重要的是知道字典的大小?》经验,为你挑选了1个好方法。

与标题相同,在tf.keras.layers.Embedding中,为什么重要的是要知道字典的大小作为输入维?



1> sebrockm..:

因为在内部,嵌入层不过是size的矩阵vocab_size x embedding_size。这是一个简单的查找表:n该矩阵的行存储word的向量n

因此,如果您有例如1000个不同的词,则嵌入层需要知道此数字才能存储1000个向量(作为矩阵)。

不要将图层的内部存储与其输入或输出形状混淆。输入形状是(batch_size, sequence_length)每个条目都是范围内的整数[0, vocab_size[。对于这些整数中的每个整数,图层将返回embedding_size内部矩阵的对应行(大小为向量),因此输出形状变为(batch_size, sequence_length, embedding_size)


推荐阅读
author-avatar
立行谏圣
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有