详解如何从TensorFlow的mnist数据集导出手写体数字图片
在TensorFlow的官方入门课程中,多次用到mnist数据集。
mnist数据集是一个数字手写体图片库,但它的存储格式并非常见的图片格式,所有的图片都集中保存在四个扩展名为idx3-ubyte的二进制文件。
如果我们想要知道大名鼎鼎的mnist手写体数字都长什么样子,就需要从mnist数据集中导出手写体数字图片。了解这些手写体的总体形状,也有助于加深我们对TensorFlow入门课程的理解。
下面先给出通过TensorFlow api接口导出mnist手写体数字图片的python代码,再对代码进行分析。代码在win7下测试通过,linux环境也可以参考本处代码。
(非常良心的注释和打印有木有)
#!/usr/bin/python3.5
# -*- coding: utf-8 -*-
import os
import tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data
from PIL import Image
# 声明图片宽高
rows = 28
cols = 28
# 要提取的图片数量
images_to_extract = 8000
# 当前路径下的保存目录
save_dir = "./mnist_digits_images"
# 读入mnist数据
mnist = input_data.read_data_sets("MNIST_data/", one_hot=False)
# 创建会话
sess = tf.Session()
# 获取图片总数
shape = sess.run(tf.shape(mnist.train.images))
images_count = shape[0]
pixels_per_image = shape[1]
# 获取标签总数
shape = sess.run(tf.shape(mnist.train.labels))
labels_count = shape[0]
# mnist.train.labels是一个二维张量,为便于后续生成数字图片目录名,有必要一维化(后来发现只要把数据集的one_hot属性设为False,mnist.train.labels本身就是一维)
#labels = sess.run(tf.argmax(mnist.train.labels, 1))
labels = mnist.train.labels
# 检查数据集是否符合预期格式
if (images_count == labels_count) and (shape.size == 1):
print ("数据集总共包含 %s 张图片,和 %s 个标签" % (images_count, labels_count))
print ("每张图片包含 %s 个像素" % (pixels_per_image))
print ("数据类型:%s" % (mnist.train.images.dtype))
# mnist图像数据的数值范围是[0,1],需要扩展到[0,255],以便于人眼观看
if mnist.train.images.dtype == "float32":
print ("准备将数据类型从[0,1]转为binary[0,255]...")
for i in range(0,images_to_extract):
for n in range(pixels_per_image):
if mnist.train.images[i][n] != 0:
mnist.train.images[i][n] = 255
# 由于数据集图片数量庞大,转换可能要花不少时间,有必要打印转换进度
if ((i+1)%50) == 0:
print ("图像浮点数值扩展进度:已转换 %s 张,共需转换 %s 张" % (i+1, images_to_extract))
# 创建数字图片的保存目录
for i in range(10):
dir = "%s/%s/" % (save_dir,i)
if not os.path.exists(dir):
print ("目录 ""%s"" 不存在!自动创建该目录..." % dir)
os.makedirs(dir)
# 通过python图片处理库,生成图片
indices = [0 for x in range(0, 10)]
for i in range(0,images_to_extract):
img = Image.new("L",(cols,rows))
for m in range(rows):
for n in range(cols):
img.putpixel((n,m), int(mnist.train.images[i][n+m*cols]))
# 根据图片所代表的数字label生成对应的保存路径
digit = labels[i]
path = "%s/%s/%s.bmp" % (save_dir, labels[i], indices[digit])
indices[digit] += 1
img.save(path)
# 由于数据集图片数量庞大,保存过程可能要花不少时间,有必要打印保存进度
if ((i+1)%50) == 0:
print ("图片保存进度:已保存 %s 张,共需保存 %s 张" % (i+1, images_to_extract))
else:
print ("图片数量和标签数量不一致!")
上述代码的实现思路如下:
1.读入mnist手写体数据;
2.把数据的值从[0,1]浮点范围转化为黑白格式(背景为0-黑色,前景为255-白色);
3.根据mnist.train.labels的内容,生成数字索引,也就是建立每一张图片和其所代表数字的关联,由此创建对应的保存目录;
4.循环遍历mnist.train.images,把每张图片的像素数据赋值给python图片处理库PIL的Image类实例,再调用Image类的save方法把图片保存在第3步骤中创建的对应目录。
在运行上述代码之前,你需要确保本地已经安装python的图片处理库PIL,pip安装命令如下:
pip3 install Pillow
或 pip install Pillow,取决于你的pip版本。
上述python代码运行后,在当前目录下会生成mnist_digits_images目录,在该目录下,可以看到如下内容:
可以看到,我们成功地生成了黑底白字的数字图片。
如果仔细观察这些图片,会看到一些肉眼也难以分辨的数字,譬如:
上面这几个数字是2。想不到吧?
下面这两个是5(看起来更像6):
这个是7:(7长这样?有句MMP不知当讲不当讲)
猜猜下面这个是什么:
这是大写的L?不是。
有点像1,是1吗?也不是。
倒立拉粑的7?sorry,又猜错了。
实话告诉您,它是2!一开始我也是不相信的,知道真相的那一刻我下巴差点掉下来!
这些手写图片,一般人用肉眼观察,识别率能达到98%就不错了,但是通过TensorFlow搭建的卷积神经网络识别率可以达到99%,非常地神奇!
以上是 详解如何从TensorFlow的mnist数据集导出手写体数字图片 的全部内容, 来源链接: utcz.com/z/323669.html