之前在看一些图片识别文章的时候,总是好奇,那些关于图片的数据,包括像素的RGB之类的信息是从何而来,今天看Getting Started with Tensorflow ,正好有讲,也学着试试。
imread
主要是使用matplotlib中的imread命令读取图片,我在官网上查看了matplotlib库中图片的使用方法
Image tutorial,对此有很详细的介绍。
由于需要用到matplotlib,我并没有安装过,所以还是先安装。
matplotlib安装 (不同系统可参照官方文档)
sudo apt-get install python-matplotlib
安装成功
imshow
读取完图片后,就是显示的过程啦,用imshow的方法。我着急的尝试了一下
import matplotlib.image as mpimg
import matplotlib.pyplot as plt
input_img = mpimg.imread('fbp.jpg')
plt.imshow(input_img)
plt.show()
一切正常哈哈啊哈哈
一些疑问:
图片出来之后,我想看一下图片的属性,之前学习到TensorFlow中的Tensor作为基础数据结构,有三个属性,rank,shape,type
print 'input dim = {}'.format(input_img.ndim) ##rank
print 'input shape = {}'.format(input_img.shape) ##shape
输出的shape,很显然是图像的像素,和图片的属性上一样。
但是疑问来了。官方文档上是这样提示的:
说是每一个数据对应的是一个像素,数据是RGB的数据。这好像和做出来的不一样啊。。。
疑问解除
可能是比较晚了,脑子有点昏,官方文档是把图片读取后用数组全部输出了,中间有省略好,应该是有很多组,我自己的操作是把官方文档输出的数组的大小表示了出来,原来是一回事。。。低级失误,头晕。。。
转载请注明原文地址: https://ju.6miu.com/read-600318.html