微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

tensorflow实现简单的卷积神经网络

1.卷积神经网络(Convolutional Neural Network ,CNN)

优点:

(1)直接使用图像的原始像素作为输入,不必先使用SIFT等算法提取特征,减少了大量重复、繁琐的数据预处理工作;

(2)卷积神经网络训练的模型对缩放、平移、旋转等畸变具有不变性,有很强的泛化性;

(3)卷积神经网络最大的特点是卷积的权值共享结构,大幅减少神经网络的参数量,防止过拟合的同时又降低神经网络模型的复              杂度。

          ……

所以,这也是卷积神经网络这么火的原因吧。

2.tensorflow实现简单的卷积神经网络的代码实现

(1)环境:Ubuntu16.04 + python3.5 + tensorflow 1.14的cpu(或者GPU,笔者的是cpu,不得不说,真的很慢)

(2)CNN的简单网络模型:两个卷积层 + 一个全连接

(3)代码实现(来自TensorFlow的开源实现):

/*导入tensorflow,创建路径,载入数据集*/
from tensorflow.examples.tutorials.mnist import input_data
import tensorflow as tf
mnist = input_data.read_data_sets("MNIST_data",one_hot = True)/*第一个参数是路径*/

/*创建认的Interactive session,之后的运算认跑在这个session中,不同的session中的运算和数据是相互独立的*/
sess = tf.InteractiveSession()

/*卷积神经网络有很多的权重和偏置需要创建,需要先定义好初始化函数,方便重复使用,越复杂的神经网络,初始化函数越复杂,也越重要。给权重制造一些随机的噪声打破完全对称,如截断的正态分布噪声,标准差设为0.1,给偏置增加小的正值,避免死亡节点*/
def weight_variable(shape):
    initial = tf.truncated_normal(shape, stddev=0.1)
    return tf.Variable(initial)

def bias_variable(shape):
    initial = tf.constant(0.1, shape = shape)
    return tf.Variable(initial)
/*定义卷积层和池化层的函数,tf.nn.Conv2d是tensorflow中的2维卷积函数,参数中,x是输入,W是卷积的参数,如[5,5,1,32],前面两个数字代表卷积核的尺寸,第3个是通道(channel)的数量,如果是灰度单色,就是1,如果是RGB,就是3,最后一个数字代表卷积核数量,即这个卷积核提取多少类的特征。strides代表卷积模板移动的步长,都是1代表会划过图片的每一个点。padding代表边界的处理方式,SAME代表给边界加上padding,使输入和输出保持同样的尺寸。tf.nn.max_pool是tensorflow的最大池化函数,使用2X2的最大池化,将2X2的像素块将为1X1的,最大池化会保留原始像素块中灰度值最高的那个像素,即保留最显著特征*/
def conv2d(x, W):
    return tf.nn.Conv2d(x, W, strides = [1,1,1,1], padding = 'SAME')

def max_pool_2X2(x):
    return tf.nn.max_pool(x, ksize = [1,2,2,1], strides = [1,2,2,1], passing = 'SAME')

/*先创建输入数据的地方placeholder,第一个参数是数据类型,第二个[None, 784],代表tensor的shape,即数据尺寸。x是特征,y_是真实的label*/
x = tf.placeholder(tf.float32, [None,784])
y_ = tf.placeholder(tf.float32, [None,10])

/*卷积神经网络要用到空间结构信息,因此要把1维的输入向量转为2维的图片结构,即从1X784-->28X28,-1代表样本数量不固定,最后的1是指通道数量为1*/
x_image = tf.reshape(x, [-1,28,28,1])

/*定义第一个卷积层,ReLU为激活函数,进行非线性处理*/
W_conv1 = weight_variable([5,5,1,32])
b_conv1 = bias_variable([32])
h_conv1 = tf.nn.relu(conv2d(x_image, W_conv1) + b_conv1)
h_pool1 = max_pool_2X2(h_conv1)

/*定义第二个卷积层,卷积核数量变成了64,其他一样*/
W_conv2 = weight_variable([5,5,1,64])
b_conv2 = bias_variable([64])
h_conv2 = tf.nn.relu(conv2d(x_image, W_conv2) + b_conv2)
h_pool2 = max_pool_2X2(h_conv2)

/*前面使用两次2X2的最大池化,现在边长为之前的1/4,即28X28 --> 7X7,两次卷积之后,输出的tensor尺寸为7X7X64,使用tf.reshape函数输出进行变形处理,转为1维向量,然后连接一个全连接层,隐含结点为1024,最后使用relu激活函数*/

W_fc1 = weight_variable([7 * 7 * 64, 1024])
b_fc1 = bias_variable([1024])
h_pool2_flat = tf.reshape(h_pool2,[-1,7 * 7 * 64])
h_fc1 = tf.nn.relu(tf.matmul(h_pool2_flat,W_fc1) + b_fc1)

/*使用Dropout层,减轻过拟合*/
keep_prob = tf.placeholder(tf.float32)
h_fc1_drop = tf.nn.dropout(h_fc1, keep_prob)

/*最后将dropout的输出连接到softmax层,得到概率输出*/
W_fc2 = weight_variable([1024,10])
b_fc2 = bias_variable([10])
y_conv = tf.nn.softmax(tf.matmul(h_fc1_drop, W_fc2) + b_fc2)

/*定义损失函数cross_entropy,优化器使用Adam,学习速率为1e-4*/
cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_ * tf.log(y_conv),reduction_indices=[1]))
train_step = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy)

/*定义评测准确率*/
correct_prediction = tf.equal(tf.argmax(y_conv,1) tf.argmax(y_,1))
accuracy = tf.reduce.mean(tf.cast(correct_prediction, tf.float32))

/*开始训练,首先初始化所有参数,使用大小为50的mini-batch,进行20000次迭代,训练的样本共100万*/
tf.initialize_all_variable().run()
for i in range(20000):
    batch = mnist.train.next_batch(50)
    if i%10 ==0:
        train_accuracy = accuracy.eval(Feed_dict=        {x:batch[0],y_:batch[1],keep_prob:1.0})
        print("step %d, training accuracy %g" %(i, train_accuracy))
    train_step.run(Feed_dict={x:batch[0], y_:batch[1], keep_prob:0.5})

/*全部训练完成,得到整体的分类准确率*/
print("test accuracy %g"%accuracy.eval(Feed_dict={x:mnist.test.images, y_:mnist.test.labels, keep_prob: 1.0})

(4)最终结果,这个简单的CNN模型的准确率约为99.2%,在tensorflow的cpu版本上面运行,时间比较久,在GPU版本上面就快很多了。

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐