Python 5分钟搭建OCR服务器,基本破解简单的验证码!

Python 5分钟搭建OCR服务器,基本破解简单的验证码!

Why?

OCR(又叫光学字符识别)已经成为Python的一个常用工具。随着开源库Tesseract和Ocrad的出现,越来越多的程序员用OCR来编写自己的库文件和bot病毒。一个OCR的小例子,如用OCR直接从截图中提取文本,省去了重新键入的麻烦。

          学习Python中有不明白推荐加入交流群
                号:516107834
                群里有志同道合的小伙伴,互帮互助,
                群里有不错的学习教程!

开始的步骤

开始之前,我们需要开发一个后端服务层来表示OCR引擎的结果。这样你就可以用你喜欢的方式来向端用户表示你的结果。本文之后将会详细介绍。除此之外,我们还需要添加一点后端代码来生成HTML表格,以及一些使用这些API的前段代码。这部分本文没有讲,但是你可以参阅源代码。

准备好开始吧!

首先,需要安装一些依赖项。这个过程也是非常有趣的。

本文已经在Ubuntu 14.04测试,但是12.x和13.x版本应该也可以。如果你用的是OSX系统,可以用VirtualBox,Docker(注意检查有没有包含Dockerfile和install guide),或者是DigitalOcean(推荐使用)来创建相应的环境。

Python 5分钟搭建OCR服务器,基本破解简单的验证码!

OCR acronym definition speech bubble illustration

下载依赖项

我们需要Tesseract及其所有依赖项,包括Leptonica及其他相关的包。

注意:可以用_run.sh这个shell脚本来快速安装Leptonica和Tesseract的依赖包。如果这么做的话,可以直接跳到搭建Web服务器(跳转链接)部分。但是为了学习,如果你以前没有亲手构建过库文件的话,还是建议尝试一下。

$ sudo apt-get update
$ sudo apt-get install autoconf automake libtool
$ sudo apt-get install libpng12-dev
$ sudo apt-get install libjpeg62-dev
$ sudo apt-get install g++
$ sudo apt-get install libtiff4-dev
$ sudo apt-get install libopencv-dev libtesseract-dev
$ sudo apt-get install git
$ sudo apt-get install cmake
$ sudo apt-get install build-essential
$ sudo apt-get install libleptonica-dev
$ sudo apt-get install liblog4cplus-dev
$ sudo apt-get install libcurl3-dev
$ sudo apt-get install python2.7-dev
$ sudo apt-get install tk8.5 tcl8.5 tk8.5-dev tcl8.5-dev
$ sudo apt-get build-dep python-imaging --fix-missing

发生了什么?

简单说,sudo apt-get update意思就是更新包列表。然后就能安装一些图像处理的包,如libtiff,libpng等等。除此之外,我们还需要安装Python 2.7,作为我们的编程语言,以及python-imaging库。

说起图像,在将程序里面编辑图像之前我们还需要ImageMagick包。

$ sudo apt-get install imagemagick

构建Leptonica和Tesseract

再说一遍,如果你用_run.sh脚本已经安装过,就可以直接跳到搭建Web服务器(跳转链接)部分。

Leptonica

现在,开始安装Leptonica。

$ wget http://www.leptonica.org/source/leptonica-1.70.tar.gz
$ tar -zxvf leptonica-1.70.tar.gz$ cd leptonica-1.70/
$ ./autobuild$ ./configure
$ make
$ sudo make install
$ sudo ldconfig

如果这是你第一次用tar的话,按照如下步骤操作:

1. 用wget下载Leptonica的二进制文件

2. 解压

3. 用cd进入解压后的文件夹

4. 运行autobuild和configure脚本安装

5. 执行make命令build

6. Build后安装

7. 执行ldconfig创建相关的链接

OK,Leptonica创建好了,接下来就是Tesseract了。

Tesseract

现在下载并安装Tesseract吧。

$ cd ..
$ wget https://tesseract-ocr.googlecode.com/files/tesseract-ocr-3.02.02.tar.gz
$ tar -zxvf tesseract-ocr-3.02.02.tar.gz$ cd tesseract-ocr/
$ ./autogen.sh
$ ./configure
$ make
$ sudo make install
$ sudo ldconfig

此处构建了一个Leptonica的映像,这部分的详细信息参考Leptonica的解释。

环境变量

我们需要设置一个环境变量来访问Tesseract数据:

$ export TESSDATA_PREFIX=/usr/local/share/

Tesseract包

最后安装一下Tesseract相关的语言包:

$ cd ..
$ wget https://tesseract-ocr.googlecode.com/files/tesseract-ocr-3.02.eng.tar.gz
$ tar -xf tesseract-ocr-3.02.eng.tar.gz
$ sudo cp -r tesseract-ocr/tessdata 
$TESSDATA_PREFIX

OK,Tesseract也安装好了,可以CLI来测试一下。更多的信息可以参考docs(超链接)。但是,我们还需要一个Python环境。所以,接下来安装一个能够接受以下两种请求的Flask服务器:

1. 接受图像URL

2. 能够对图像进行字符识别

搭建Web服务器

最有趣的事情来了!首先,我们需要构建一种通过Python和Tesseract交互的方式。我们可以使用popen,但是那不是python的风格。所以,我们可以使用一个非常小但是功能非常强大的Python包将Tesseract封装起来——pytesseract(超链接)。

想要快点的话,就运行_app.sh脚本,否则,点击这里(超链接)获取代码/结构的模板,然后运行一下命令:

$ wget https://github.com/rhgraysonii/ocr_tutorial/archive/v0.tar.gz
$ tar -xf v0.tar.gz
$ mv ocr_tutorial-0/* ../home/
$ cd ../home
$ sudo apt-get install python-virtualenv
$ virtualenv env
$ source env/bin/activate
$ pip install -r requirements.txt

注意:Flask模板(有Real Python(超链接)维护)是一个获取简单的具有Python风格的服务器的非常棒的库。本文将它用来作为基本程序。点击这里(超链接)获取更多信息。

安装OCR引擎

现在,我们需要用pytesseract来创建一个类来读取图片。在flask_server目录下创建一个新的文件ocr.py,写入如下代码:

import pytesseract
import requests
from PIL import Image
from PIL import ImageFilter
from StringIO import StringIO
def process_image(url):
 image = _get_image(url)
 image.filter(ImageFilter.SHARPEN)
 return pytesseract.image_to_string(image)
def _get_image(url):
 return Image.open(StringIO(requests.get(url).content))

非常好!

主方法process_image()的功能是锐化图像文本。

现在,这个模块已经可以用了。

可选项:为你的OCR引擎创建一个CLI工具

做了这么多繁琐配置工作,让我们来创建一个CLI工具来调节一下心情吧。在flask_server目录下创建一个新的文件cli.py,写入如下代码:

import sys
import requests
import pytesseract
from PIL import Image
from StringIO import StringIO
def get_image(url):
 return Image.open(StringIO(requests.get(url).content))
if __name__ == '__main__':
 """Tool to test the raw output of pytesseract with a given input URL"""
 sys.stdout.write("""
===OOOO=====CCCCC===RRRRRR=====

==OO==OO===CC=======RR===RR====

==OO==OO===CC=======RR===RR====

==OO==OO===CC=======RRRRRR=====

==OO==OO===CC=======RR==RR=====

==OO==OO===CC=======RR== RR====

===OOOO=====CCCCC===RR====RR===


""")
 sys.stdout.write("A simple OCR utility
")
 url = raw_input("What is the url of the image you would like to analyze?
")
 image = get_image(url)
 sys.stdout.write("The raw output from tesseract with no processing is:

")
 sys.stdout.write("-----------------BEGIN-----------------
")
 sys.stdout.write(pytesseract.image_to_string(image) + "
")
 sys.stdout.write("------------------END------------------
")

非常简单。之后我们就能看到从我们的OCR引擎中输出到标准输出STDOUT上的文本了。执行python flask_server/cli.py来试一下吧。

回到服务器

既然我们已经安装好了OCR引擎,接下来该准备输出了。讲下面的代码加入到

app.py文件:

@app.route('/v{}/ocr'.format(_VERSION), methods=["POST"])
def ocr():
 try:
 url = request.json['image_url']
 if 'jpg' in url:
 output = process_image(url)
 return jsonify({"output": output})
 else:
 return jsonify({"error": "only .jpg files, please"})
 except:
 return jsonify(
 {"error": "Did you mean to send: {'image_url': 'some_jpeg_url'}"}
 )

确保引入的下列包是最新的:

import os
import logging
from logging import Formatter, FileHandler
from flask import Flask, request, jsonify
from ocr import process_image

最后,添加一行API版本号:

_VERSION = 1 # API version

从代码中可以看到,我们以PIL中Image文件对象的方式把JSON的响应传入引擎的process_image()方法中。并且,就目前而言,它只支持.jpg图片。

注意:如果PIL包没有安装的话,可以用Pillow包来代替。PIL有一些问题还没有解决,Python社区对它的看法也不统一,详细情况可以自行Google。

测试

运行你的程序:

$ cd ../home/flask_server/
$ python app.py

然后,在另外一个终端运行:

$ curl -X POST http://localhost:5000/v1/ocr -d '{"image_url": "some_url"}' -H "Content-Type: application/json"

例子

$ curl -X POST http://localhost:5000/v1/ocr -d '{"image_url": "https://www.realpython.com/images/blog_images/ocr/ocr.jpg"}' -H "Content-Type: application/json"
{
 "output": "ABCDE
FGH I J
KLMNO
PQRST"
}

前端

现在后端OCR引擎的API已经准备好了,我们可以增加一个基本的前端来使用这些API,并将结果通过AJAX和jQuery添加到DOM中。这部分内容本文就不讲了,详见这里(超链接)。

Python 5分钟搭建OCR服务器,基本破解简单的验证码!

用下面的样本来测试一下:

https://www.realpython.com/images/blog_images/ocr/ocr.jpg
https://www.realpython.com/images/blog_images/ocr/sample1.jpg
https://www.realpython.com/images/blog_images/ocr/sample2.jpg
https://www.realpython.com/images/blog_images/ocr/sample3.jpg
https://www.realpython.com/images/blog_images/ocr/sample4.jpg
https://www.realpython.com/images/blog_images/ocr/sample5.jpg

猜你喜欢

转载自blog.csdn.net/qq_41841569/article/details/83543338