使用 TensorFlow 2 识别验证码过程中踩过的坑

本文来自社区投稿与征集,作者:李传两,TensorFlow爱好者,喜欢钻研图像分类、图像识别、目标检测等,乐于分享,乐于助人,乐于学习。

GitHub: GitHub - YouSmart2016/captcha-tensorflow2

在学习了 CNN 之后,我一直想去做一个验证码识别:star_struck:。网上找了很多资料,杂七杂八的一大堆,但是好多是 tf1 写的:man_facepalming:。我对 tf1 不太熟悉,于是自己开始了基于 TensorFlow 2 的摸索实践。

摸索的过程异常艰难,一开始我直接用 captcha 生成了 10080 张验证码去识别,发现 loss 一直停留在 2.3 左右,accuracy 一直是 0.1 左右,训练了 100 回合,也没什么提升,电脑都快要跑废了:sob:,咋办呀?于是网上各种问大佬,找到机会就提问,其中一位大佬的回答让我受到了启发:zap:,他说:你可以先识别 1 位,然后 2 位,3 位,最后 4 位,一步一步来……(此处感谢魏巍老师)。

本文主要描述我在验证码识别过程中的一些摸索,整理出来以供大家参考:

第一回:搭建网络结构

首先我们需要搭建网络结构,如下:

model=tf.keras.models.Sequential([

    tf.keras.Input(shape=(H, W, C)),
    layers.Conv2D(32, 3, activation='relu'),
    layers.MaxPooling2D((2, 2)),

    layers.Conv2D(64, 3, activation='relu'),
    layers.MaxPooling2D((2, 2)),

    layers.Conv2D(64, 3, activation='relu'),
    layers.MaxPooling2D((2, 2)),

    layers.Conv2D(64, 3, activation='relu'),
    layers.MaxPooling2D((2, 2)),

    layers.Conv2D(64, 3, activation='relu'),
    layers.MaxPooling2D((2, 2)),

    layers.Flatten(),
    layers.Dense(1024, activation='relu'),

    layers.Dense(D * N_LABELS, activation='softmax'),
    layers.Reshape((D, N_LABELS)),
])

model.compile(optimizer='adam',
                  loss='categorical_crossentropy',
                  metrics= ['accuracy'])


callbacks=[
    tf.keras.callbacks.TensorBoard(log_dir='logs'),
    tf.keras.callbacks.ModelCheckpoint(filepath=check_point_path,
                                       save_weights_only=True,
                                       save_best_only=True)
]
history = model.fit(train_gen,
                    steps_per_epoch=len(train_idx)//batch_size,
                    epochs=100,
                    callbacks=callbacks,
                    validation_data=valid_gen,
                    validation_steps=len(valid_idx)//valid_batch_size)

summary:

我的训练数据量:train count: 7408, valid count: 3176, test count: 4536

样本图:

image 0123_c2d487ee-26b7-44cd-a940-c34a8530a4f6 image

训练结果:

Train for 231 steps, validate for 99 steps
Epoch 1/100
1/231 […] - ETA: 4:18 - loss: 2.2984 - accuracy: 0.1328
231/231 [==============================] - 143s 618ms/step - loss: 2.3032 - accuracy: 0.0971 - val_loss: 2.3029 - val_accuracy: 0.0987
Epoch 2/100
230/231 [============================>.] - ETA: 0s - loss: 2.3026 - accuracy: 0.1014
231/231 [==============================] - 121s 525ms/step - loss: 2.3026 - accuracy: 0.1013 - val_loss: 2.3031 - val_accuracy: 0.0986
Epoch 3/100
230/231 [============================>.] - ETA: 0s - loss: 2.3026 - accuracy: 0.1029
231/231 [==============================] - 138s 597ms/step - loss: 2.3026 - accuracy: 0.1026 - val_loss: 2.3032 - val_accuracy: 0.0986
Epoch 4/100
230/231 [============================>.] - ETA: 0s - loss: 2.3025 - accuracy: 0.1031
231/231 [==============================] - 124s 537ms/step - loss: 2.3025 - accuracy: 0.1031 - val_loss: 2.3032 - val_accuracy: 0.0987
Epoch 5/100
230/231 [============================>.] - ETA: 0s - loss: 2.3025 - accuracy: 0.1040
231/231 [==============================] - 123s 532ms/step - loss: 2.3025 - accuracy: 0.1039 - val_loss: 2.3032 - val_accuracy: 0.0989
Epoch 6/100
230/231 [============================>.] - ETA: 0s - loss: 2.3025 - accuracy: 0.1039
231/231 [==============================] - 118s 509ms/step - loss: 2.3025 - accuracy: 0.1038 - val_loss: 2.3033 - val_accuracy: 0.0988
…
Epoch 20/100
230/231 [============================>.] - ETA: 0s - loss: 2.3025 - accuracy: 0.1038
231/231 [==============================] - 120s 521ms/step - loss: 2.3025 - accuracy: 0.1038 - val_loss: 2.3034 - val_accuracy: 0.0988
Epoch 21/100
190/231 [=======================>…] - ETA: 20s - loss: 2.3025 - accuracy: 0.1032

loss 一直没有变化,accuracy 也很低,不知道出现了什么原因,困扰一两个星期:pensive:,都想要放弃了,太难了。但是我不死心,非要把它搞出来,4 位识别不出来,能不能先识别一位呢[image]?好,那就开始搞,一位比较简单,跟 Mnist 数据集很相似,在这我就不赘述了。

第二回:2 位彩色验证码训练

接着来识别 2 位的验证码。train count: 441, valid count: 189, test count: 270

样本图:

image image image

下面是我用 2 位验证码进行训练的结果:

30 张图片进行测试,结果:

哎呦,有感觉了,有了起色了,但是出现了过拟合的现象,解决过拟合的方法主要有:

  1. Get more training data
  2. Reduce the capacity of the network
  3. Add weight regularization
  4. Add dropout
  5. Data-augmentation
  6. Batch normalization

第三回:增加彩色验证码数据集

于是我就增加了数据集。train count: 4410, valid count: 1890, test count: 2700

然后又出现了 loss 一直在 2.3,accuracy 在 0.09 左右,这是什么鬼呢:man_facepalming:?但是我还是不死心呀,继续想办法呀,既然彩色的有难度,我先识别黑白的样本行不行呢:thinking:,先试试吧。

第四回:2 位黑白验证码训练

网络结构依然采用上面的,input_shape(100,120,3)

这是我用 2 位的黑白图片的验证码进行了训练,效果很好,收敛也很快:+1:

训练第 50 回合时:

Epoch 50/50
26/27 [============>…] - ETA: 0s - loss: 0.0150 - accuracy: 0.9940
27/27 [==============] - 8s 289ms/step - loss: 0.0212 - accuracy: 0.9936 - val_loss: 0.2348 - val_accuracy: 0.9446

随机选取了 30 张图片进行了测试,2 张识别错了:

样本图:

看着这结果,我露出了洁白的大牙:grin::grin::grin:,信心大增呀,继续搞,直接上 4 位验证码。

第五回:4 位黑白验证码训练

依然采用上面的网络结构,这次使用的是 4 位黑白图片的验证码。train count: 2469, valid count: 1059, test count: 1512

训练第 20 回合:

Epoch 20/20
76/77 [====>.] - ETA: 0s - loss: 0.0409 - accuracy: 0.9860
77/77 [======] - 33s 429ms/step - loss: 0.0408 - accuracy: 0.9861 - val_loss: 0.3283 - val_accuracy: 0.9221

随机选取 30 张图片进行测试,8 张错误:

4 位验证码的样本图:

从结果来看,有点过拟合:thinking:,没关系,继续加大数据集。

第六回:增加黑白验证码数据集

依旧采用上面的网络结构,这次我增加了数据集 4939 张,依旧使用的是 4 位黑白的验证码,训练结果还是挺好的:train count: 4939, valid count: 2117, test count: 3024

第 20 回合:

Epoch 20/20
153/154 [==>.] - ETA: 0s - loss: 0.0327 - accuracy: 0.9898
154/154 [====] - 75s 488ms/step - loss: 0.0329 - accuracy: 0.9898 - val_loss: 0.1057 - val_accuracy: 0.9740

可以看出 训练集的准确率 跟验证集上很接近,随机选取 30 张图片进行测试,6 张错误图如下:

好了,搞了这么多,由此我觉得是噪点影响了深度学习的识别,maxpool 的时候连带着噪点也采样了,我们需要将噪点处理掉,再喂入神经网络。

第七回:预处理

在上面的推理中,我感觉是噪点影响了神经网络的识别,于是乎我在送入网络之前进行了去噪,二值化操作,训练如下:train count: 4939, valid count: 2117, test count: 3024

image

从图中可以看出,模型收敛了,但有点过拟合,第 20 回合训练结果如下:

Epoch 20/20
153/154 [==>.] - ETA: 0s - loss: 0.0407 - accuracy: 0.9861
154/154 [===] - 69s 450ms/step - loss: 0.0408 - accuracy: 0.9860 - val_loss: 0.3227 - val_accuracy: 0.9244

随机选取了 30 张图片进行了测试,8 张错误:

image

做到这里, 我对之前的推测有了猜疑:是噪点影响的吗?我觉得不完全是。核心原因是我在尝试的过程中对验证码进行了处理,从 RGB 的验证码变成了单通道的黑白验证码,使得图片的信息减少了,神经网络的计算量也大大减少了,网络模型很快得到了收敛,loss 显著减少,accuracy 在不断提高。

整个过程是使用 CPU 进行训练的,电脑配置是 Intel®_Core™i7-6700HQ_CPU@_2.60GHz,8G 内存。如果大家的电脑配置高,用 GPU 进行训练,我觉得即使不做预处理,效果也能出来。

中文:TensorFlow 公众号