对于“python机器学习之神经网络(二)”,完整攻略如下:
Python机器学习之神经网络(二)
神经网络详解
神经网络是一种人工智能技术,基于神经元的连接方式,可以进行各种各样的模型训练,比如分类、回归等,而且在图像识别、自然语言处理等领域也得到了广泛的应用。在神经网络中,我们常用的模型有单层神经网络、多层神经网络和卷积神经网络。
神经网络的模型大致可以分为以下几个部分:
- 输入层:负责将原始数据输入神经网络中,通常会对原始数据进行预处理,比如归一化等。
- 隐藏层:负责对信号进行加工处理,增加网络对抗干扰能力,并且将其与权重结合。
- 输出层:根据网络计算的结果,生成最终的分类或者回归结果。
神经网络的训练,通常会使用反向传播算法,即根据当前的网络输出结果和真实结果,反向调整权值和偏置值,不断迭代优化模型。
TensorFlow实现神经网络
TensorFlow是一个非常流行的机器学习框架,提供了一系列的API,方便我们实现各种各样的算法。
在TensorFlow中实现神经网络的流程大体如下:
- 加载数据集
- 定义模型架构
- 实现前向传播算法
- 实现反向传播算法
- 用训练数据训练模型
- 用测试数据验证模型性能
示例一:基于MNIST数据集实现手写数字识别
这里我们可以使用MNIST数据集,进行手写数字的识别模型训练。
# 加载MNIST数据集
from tensorflow.examples.tutorials.mnist import input_data
mnist = input_data.read_data_sets('MNIST_data', one_hot=True)
import tensorflow as tf
def weight_variable(shape):
initial = tf.truncated_normal(shape, stddev=0.1)
return tf.Variable(initial)
def bias_variable(shape):
initial = tf.constant(0.1, shape=shape)
return tf.Variable(initial)
def conv2d(x, W):
return tf.nn.conv2d(x, W, strides=[1, 1, 1, 1], padding='SAME')
def max_pool_2x2(x):
return tf.nn.max_pool(x, ksize=[1, 2, 2, 1],
strides=[1, 2, 2, 1], padding='SAME')
x = tf.placeholder(tf.float32, [None, 784])
y_ = tf.placeholder(tf.float32, [None, 10])
x_image = tf.reshape(x, [-1,28,28,1])
W_conv1 = weight_variable([5, 5, 1, 32])
b_conv1 = bias_variable([32])
h_conv1 = tf.nn.relu(conv2d(x_image, W_conv1) + b_conv1)
h_pool1 = max_pool_2x2(h_conv1)
W_conv2 = weight_variable([5, 5, 32, 64])
b_conv2 = bias_variable([64])
h_conv2 = tf.nn.relu(conv2d(h_pool1, W_conv2) + b_conv2)
h_pool2 = max_pool_2x2(h_conv2)
W_fc1 = weight_variable([7 * 7 * 64, 1024])
b_fc1 = bias_variable([1024])
h_pool2_flat = tf.reshape(h_pool2, [-1, 7*7*64])
h_fc1 = tf.nn.relu(tf.matmul(h_pool2_flat, W_fc1) + b_fc1)
keep_prob = tf.placeholder(tf.float32)
h_fc1_drop = tf.nn.dropout(h_fc1, keep_prob)
W_fc2 = weight_variable([1024, 10])
b_fc2 = bias_variable([10])
y_conv = tf.matmul(h_fc1_drop, W_fc2) + b_fc2
cross_entropy = tf.reduce_mean(
tf.nn.softmax_cross_entropy_with_logits(labels=y_, logits=y_conv))
train_step = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy)
correct_prediction = tf.equal(tf.argmax(y_conv, 1), tf.argmax(y_, 1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
with tf.Session() as sess:
sess.run(tf.global_variables_initializer())
for i in range(20000):
batch = mnist.train.next_batch(50)
if i % 100 == 0:
train_accuracy = accuracy.eval(feed_dict={
x: batch[0], y_: batch[1], keep_prob: 1.0})
print('step %d, training accuracy %g' % (i, train_accuracy))
train_step.run(feed_dict={x: batch[0], y_: batch[1], keep_prob: 0.5})
print('test accuracy %g' % accuracy.eval(feed_dict={
x: mnist.test.images, y_: mnist.test.labels, keep_prob: 1.0}))
在这个示例中,我们使用了卷积神经网络,并且通过不断调整权重和偏置,来得到最终的识别模型。
示例二:基于鸢尾花数据集实现分类模型
另外,我们也可以通过鸢尾花数据集,来实现一个简单的分类模型,通过这个示例,可以更好地理解神经网络的训练过程。
import tensorflow as tf
import numpy as np
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
iris_data = load_iris()
x_data = iris_data.data
y_data = iris_data.target.reshape(-1,1)
train_x, test_x, train_y, test_y = train_test_split(x_data, y_data, test_size=0.3)
num_classes = np.unique(train_y).shape[0]
X = tf.placeholder(tf.float32, [None, 4])
Y = tf.placeholder(tf.int32, [None, 1])
y_one_hot = tf.one_hot(Y, num_classes)
y_one_hot = tf.reshape(y_one_hot, [-1, num_classes])
W = tf.Variable(tf.zeros([4, num_classes]))
b = tf.Variable(tf.zeros([num_classes]))
logits = tf.matmul(X, W) + b
entropy = tf.nn.softmax_cross_entropy_with_logits_v2(labels=y_one_hot, logits=logits)
loss = tf.reduce_mean(entropy)
optimizer = tf.train.GradientDescentOptimizer(learning_rate=0.01).minimize(loss)
prediction = tf.argmax(tf.nn.softmax(logits), 1)
correct_prediction = tf.equal(prediction, tf.argmax(y_one_hot, 1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
with tf.Session() as sess:
sess.run(tf.global_variables_initializer())
for i in range(1000):
_, loss_value = sess.run([optimizer, loss], feed_dict={X: train_x, Y: train_y})
if i % 100 == 0:
print("Loss: {:.4f}".format(loss_value))
print("Test Accuracy: {:.4f}".format(accuracy.eval({X: test_x, Y: test_y})))
在这个示例中,我们使用了一层神经网络,并且通过梯度下降算法,不断调整权重和偏置,来得到最终的分类模型。
本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:python机器学习之神经网络(二) - Python技术站