热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

tinygrad>要求python3.8以上

事实证明,一个不错的autograd张量库是神经网络所需的90%。从tinygrad.optim添加优化器(SGD、RMSprop和Adam实现

 

 事实证明,一个不错的 autograd 张量库是神经网络所需的 90%。从 tinygrad.optim 添加优化器(SGD、RMSprop 和 Adam 实现),编写一些样板小批量代码,您就拥有了所需的一切。

from tinygrad.tensor import Tensor
import tinygrad.optim as optimclass TinyBobNet:def __init__(self):self.l1 = Tensor.uniform(784, 128)self.l2 = Tensor.uniform(128, 10)def forward(self, x):return x.dot(self.l1).relu().dot(self.l2).logsoftmax()model = TinyBobNet()
optim = optim.SGD([model.l1, model.l2], lr=0.001)# ... and complete like pytorch, with (x,y) dataout = model.forward(x)
loss = out.mul(y).mean()
optim.zero_grad()
loss.backward()
optim.step()

 

 

 

 

 


推荐阅读
author-avatar
jimmy岁月_929
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有