作者:
物流项目组 林阳
github地址:
https://github.com/PaddlePaddle/PaddleOCR/blob/develop/doc/doc_ch/installation.md
官方建议我们使用使用docker运行PaddleOCR,可以省去很多麻烦。
所以,我们可以再服务器上先安装docker、nvidia-docker,感觉没必要用到gpu,所以接下来就不使用nvidia-docker了。
1.准备好docker环境
2.cd /home && mkdir Projects
首次运行需创建一个docker容器,再次运行时不需要运行当前命令,创建一个名字为ppocr的docker容器,并将当前目录映射到容器的/paddle目录下,这样我们可以在容器外放置图片,供容器内脚本使用
sudo docker run --name ppocr -v $PWD:/paddle --network=host -it hub.baidubce.com/paddlepaddle/paddle:latest-gpu-cuda9.0-cudnn7-dev /bin/bash
进入容器
3.安装PaddlePaddle Fluid v1.7
1)pip3 install --upgrade pip
2)python3 -m pip install paddlepaddle==1.7.2 -i https://pypi.tuna.tsinghua.edu.cn/simple
4.克隆PaddleOCR repo代码
git clone https://gitee.com/paddlepaddle/PaddleOCR
5.安装第三方库
cd PaddleOCR
pip3 install -r requirments.txt
到这,容器的环境就配置好了。。。。。。
接下来就可以下载安装模型测试了。
提供的模型比较多
测试过发现: 超轻量级中文OCR模型就够用了,而且时间1s内就可以解析出来
接下来下载模型,并开始识别图片:
mkdir inference && cd inference
下载超轻量级中文OCR模型的检测模型并解压
wget https://paddleocr.bj.bcebos.com/ch_models/ch_det_mv3_db_infer.tar && tar xf ch_det_mv3_db_infer.tar
下载超轻量级中文OCR模型的识别模型并解压
wget https://paddleocr.bj.bcebos.com/ch_models/ch_rec_mv3_crnn_infer.tar && tar xf ch_rec_mv3_crnn_infer.tar
cd …
预测image_dir指定的单张图像
python3 tools/infer/predict_system.py --image_dir="./doc/imgs/11.jpg" --det_model_dir="./inference/ch_det_mv3_db/" --rec_model_dir="./inference/ch_rec_mv3_crnn/"
到这,单张图片就被识别出来了。
至此,提交更新镜像到私有仓库