下载完后有个压缩包之后就可以安装了。 然后加入到环境变量后,确定即可。此时CUDA生效
用于为深度学习加速用的。 注册一个账号后才可以下载。 拷贝到cuda对应目录即可。 类似将文件夹下的文件对应拷贝到CUDA下的对应文件夹下。 安装好两个之后,可以卸载CPU版本,再安装GPU版本的tensorflow了。 之后安装好GPU版本tensorflow后,跑程序后会自动调用GPU进行深度计算了。即使有CPU也会默认按照GPU运行了。
第一种思路: 准备一个特定的模型。确定好模型框架。如googleNet或者LSTM网络 之后里面的神经元的参数刚开始初始化都是一些随机值,将准备好的数据一个一个批次放进去训练,经过非常长时间将模型训练好,用googleNet训练,模型复杂,训练的参数非常多,若从头训练需要准备一个非常大的数据集,若数据少去训练,最后过拟合会很严重,这是从无到有去训练模型。 第二种思路: 先准备一个训练好的模型,如googleNet,里面的权值参数是确定的。 卷积层作用就是做图像特征提取,即固定好之前别人训练好的模型的卷积池化层的参数,一会我们训练时候也不改变这些参数。
第三种思路: 给小的学习率对之前的别人训练好的模型微调。主要还是训练我们加的最后一层。
1、 一会直接调用google模型,将图片数据传入网络中,且原来google模型中的参数不会变化。 这样可以大大减少模型训练的复杂度。 会检测压缩包,所以指定压缩包的目录路径。 然后执行批处理文件即可。有GPU驱动安装好之后就可以用GPU了。 思路二优点:所需计算的量少,速度快;只需要训练最后一层,训练参数少,迭代周期少就可以达到很高准确率。训练数据量少也可以很高准确率。
即先将图片格式转化为tfrecord格式,训练时候则就会直接调用tfrecord文件进行模型训练了。 解析时候标签必须是这种格式的文件,否则解析出问题。 当你数据集多时候,且足够长时间训练,即思路1从头开始训练比思路二训练结果要好。
这里没有分数据块,就只转化到一个tfrecords文件中。
方式2 不同任务有不同训练集就要使用多任务交替训练。不同训练集不同任务—多任务交替训练。 有一个数据集,但是多个任务就可以使用多任务联合训练方式。 将批次验证码图片传入,共享层就是一些卷积池化层组成的,对图片进行特征抽取。在最后一层上分成4个任务输出,根据4个标签,计算得到4个loss值,任务1-4的分别loss值,将4个loss值加起来,将总的损失传入一个优化器中,即这个优化器优化的是总的loss值,实际也就是分别优化4个loss值,总的loss下降了,即各个任务的loss值就会下降了,即4个任务的准确率就提升了。
即将第1与第2位置的数字去掉。 并且将alexnet模型结构修改一下即可。
这个网络使得大多数验证码都预测准确了。