环境:win7 64位 Anaconda(python3.5)-TensorFlow
安装好TensorFlow后,参考TenforFlow官方教程开始学习。此文为使用MNIST数字集训练softmax regression,实现数字识别。
MNIST放在Yann LeCun的网站上。
每张图像是28*28,将图像拉伸成一维的,就是有28*28=784的数字的向量。将图像拉伸成一维的,会损失2维结构信息。
训练图像55,000张,所以mnist.train.images是个[55000,784]的矩阵。 验证图像有5,000张,所以mnist.validation.images是[5000,784]。 测试图像10,000张。每个像素值在0-1之间。
因为数字在0-9之间,共有10类。图像的标签采用one-hot方式。比如3对应[0,0,1,0,0,0,0,0,0,0]。 训练图像对应的labels,mnist.train.labels就是[55,000,10]的矩阵。
数据下载到了C:\Users\Administrator\MNIST_data中。
softmax regression中计算预测值的公式是y=softmax(W*x+b),所以要定义W,x,b和y。
x = tf.placeholder(tf.float32, [None, 784]) W = tf.Variable(tf.zeros([784, 10])) b = tf.Variable(tf.zeros([10])) y = tf.matmul(x, W) + bx是一个placeholder(占位符),当我们要求TensorFlow运行一个计算时 会输入它。tf.float32是数据类型,[None,784]指数据维度,因为图像数量可任意选择,所以用None。
W,b定义为Variable,初始为0。
计算y时,为了让维度对应,将x,W调换顺序。
labels对应的y_
y_ = tf.placeholder(tf.float32, [None, 10])损失函数使用交叉熵(cross-entropy)用了内置的计算cross-entropy的函数。
cross_entropy = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(y, y_))optimizer用Gradient Densent, learning rate设置为0.5。
train_step = tf.train.GradientDescentOptimizer(0.5).minimize(cross_entropy)先用个session对象初始化变量
init = tf.global_variables_initializer() sess = tf.Session() sess.run(init)每个batch为100的SGD
for i in range(1000): batch_xs, batch_ys = mnist.train.next_batch(100) sess.run(train_step, feed_dict={x: batch_xs, y_: batch_ys})用tf.argmax(y,1)函数返回预测结果中沿着一个轴(axis)的最大值的索引(index),即预测的类别。用tf.equal检查预测值与真实值是否相等。
correct_prediction = tf.equal(tf.argmax(y,1), tf.argmax(y_,1))correct_prediction是一个布尔值列表,类似于 [True, False, True, True] ,将其转化为[1,0,1,1],即可计算准确度accuracy。
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))精度是91%。