往期回顾
在上一篇文章中,我们已经掌握了机器学习的基本套路,对模型、目标函数、优化算法这些概念有了一定程度的理解,而且已经会训练单个的感知器或者线性单元了。在这篇文章中,我们将把这些单独的单元按照一定的规则相互连接在一起形成神经网络,从而奇迹般的获得了强大的学习能力。我们还将介绍这种网络的训练算法:反向传播算法。最后,我们依然用代码实现一个神经网络。如果您能坚持到本文的结尾,将会看到我们用自己实现的神经网络去识别手写数字。现在请做好准备,您即将双手触及到深度学习的大门。
神经元
神经元和感知器本质上是一样的,只不过我们说感知器的时候,它的激活函数是阶跃函数;而当我们说神经元时,激活函数往往选择为sigmoid函数或tanh函数。如下图所示:
sigmoid函数是一个非线性函数,值域是(0,1)。函数图像如下图所示
sigmoid函数的导数是:
可以看到,sigmoid函数的导数非常有趣,它可以用sigmoid函数自身来表示。这样,一旦计算出sigmoid函数的值,计算它的导数的值就非常方便。
神经网络是什么?
神经网络其实就是按照一定规则连接起来的多个神经元。上图展示了一个全连接(full connected, FC)神经网络,通过观察上面的图,我们可以发现它的规则包括:
- 神经元按照层来布局。最左边的层叫做输入层,负责接收输入数据;最右边的层叫输出层,我们可以从这层获取神经网络输出数据。输入层和输出层之间的层叫做隐藏层,因为它们对于外部来说是不可见的。
- 同一层的神经元之间没有连接。
- 第N层的每个神经元和第N-1层的所有神经元相连(这就是full connected的含义),第N-1层神经元的输出就是第N层神经元的输入。
- 每个连接都有一个权值。
上面这些规则定义了全连接神经网络的结构。事实上还存在很多其它结构的神经网络,比如卷积神经网络(CNN)、循环神经网络(RNN),他们都具有不同的连接规则。
计算神经网络的输出
接下来举一个例子来说明这个过程,我们先给神经网络的每个单元写上编号。
如上图,输入层有三个节点,我们将其依次编号为1、2、3;隐藏层的4个节点,编号依次为4、5、6、7;最后输出层的两个节点编号为8、9。因为我们这个神经网络是全连接网络,所以可以看到每个节点都和上一层的所有节点有连接。比如,我们可以看到隐藏层的节点4,它和输入层的三个节点1、2、3之间都有连接,其连接上的权重分别为:
神经网络的矩阵表示
神经网络的计算如果用矩阵来表示会很方便,我们先来看看隐藏层的矩阵表示。
首先我们把隐藏层4个节点的计算依次排列出来:
则每一层的输出向量的计算可以表示为:
这就是神经网络输出值的计算方法。
神经网络的训练
我们以监督学习为例来解释反向传播算法。在“(2)Deep Learning之线性单元和梯度下降”中我们介绍了什么是监督学习,如果忘记了可以再看一下。
,不同激活函数的计算公式不同,详情见“反向传播算法”一节。
我们已经介绍了神经网络每个节点误差项的计算和权重更新方法。显然,计算一个节点的误差项,需要先计算每个与其相连的下一层节点的误差项。这就要求误差项的计算顺序必须是从输出层开始,然后反向依次计算每个隐藏层的误差项,直到与输入层相连的那个隐藏层。这就是反向传播算法的名字的含义。当所有节点的误差项计算完毕后,我们就可以根据式5来更新所有的权重。
以上就是基本的反向传播算法,并不是很复杂。
反向传播算法的推导
反向传播算法其实就是链式求导法则的应用。然而,这个如此简单且显而易见的方法,却是在Roseblatt提出感知器算法将近30年之后才被发明和普及的。对此,Bengio这样回应道:很多看似显而易见的想法只有在事后才变得显而易见。
接下来,我们用链式求导法则来推导反向传播算法,也就是上一小节的式3、式4、式5。
前方高能预警——接下来是数学公式重灾区,读者可以酌情阅读,不必强求。
按照机器学习的通用套路,我们先确定神经网络的目标函数,然后用随机梯度下降优化算法去求目标函数最小值时的参数值。
我们取网络所有输出层节点的误差平方和作为目标函数:
然后,我们用“(2)Deep Learning之线性单元和梯度下降”中介绍的随机梯度下降算法对目标函数进行优化:
输出层权值训练
隐藏层权值训练
——数学公式警报解除——
至此,我们已经推导出了反向传播算法。需要注意的是,我们刚刚推导出的训练规则是根据激活函数是sigmoid函数、平方和误差、全连接网络、随机梯度下降优化算法。如果激活函数不同、误差计算方式不同、网络连接结构不同、优化算法不同,则具体的训练规则也会不一样。但是无论怎样,训练规则的推导方式都是一样的,应用链式求导法则进行推导即可。
神经网络的实现
完整代码请参考GitHub: (python2.7)
现在,我们要根据前面的算法,实现一个基本的全连接神经网络,这并不需要太多代码。我们在这里依然采用面向对象设计。
首先,我们先做一个基本的模型:
Node实现如下:
1 # 节点类,负责记录和维护节点自身信息以及与这个节点相关的上下游连接,实现输出值和误差项的计算。 2 class Node(object): 3 def __init__(self, layer_index, node_index): 4 ''' 5 构造节点对象。 6 layer_index: 节点所属的层的编号 7 node_index: 节点的编号 8 ''' 9 self.layer_index = layer_index10 self.node_index = node_index11 self.downstream = []12 self.upstream = []13 self.output = 014 self.delta = 015 def set_output(self, output):16 '''17 设置节点的输出值。如果节点属于输入层会用到这个函数。18 '''19 self.output = output20 def append_downstream_connection(self, conn):21 '''22 添加一个到下游节点的连接23 '''24 self.downstream.append(conn)25 def append_upstream_connection(self, conn):26 '''27 添加一个到上游节点的连接28 '''29 self.upstream.append(conn)30 def calc_output(self):31 '''32 根据式1计算节点的输出33 '''34 output = reduce(lambda ret, conn: ret + conn.upstream_node.output * conn.weight, self.upstream, 0)35 self.output = sigmoid(output)36 def calc_hidden_layer_delta(self):37 '''38 节点属于隐藏层时,根据式4计算delta39 '''40 downstream_delta = reduce(41 lambda ret, conn: ret + conn.downstream_node.delta * conn.weight,42 self.downstream, 0.0)43 self.delta = self.output * (1 - self.output) * downstream_delta44 def calc_output_layer_delta(self, label):45 '''46 节点属于输出层时,根据式3计算delta47 '''48 self.delta = self.output * (1 - self.output) * (label - self.output)49 def __str__(self):50 '''51 打印节点的信息52 '''53 node_str = '%u-%u: output: %f delta: %f' % (self.layer_index, self.node_index, self.output, self.delta)54 downstream_str = reduce(lambda ret, conn: ret + '\n\t' + str(conn), self.downstream, '')55 upstream_str = reduce(lambda ret, conn: ret + '\n\t' + str(conn), self.upstream, '')56 return node_str + '\n\tdownstream:' + downstream_str + '\n\tupstream:' + upstream_str
1 class ConstNode(object): 2 def __init__(self, layer_index, node_index): 3 ''' 4 构造节点对象。 5 layer_index: 节点所属的层的编号 6 node_index: 节点的编号 7 ''' 8 self.layer_index = layer_index 9 self.node_index = node_index10 self.downstream = []11 self.output = 112 def append_downstream_connection(self, conn):13 '''14 添加一个到下游节点的连接15 ''' 16 self.downstream.append(conn)17 def calc_hidden_layer_delta(self):18 '''19 节点属于隐藏层时,根据式4计算delta20 '''21 downstream_delta = reduce(22 lambda ret, conn: ret + conn.downstream_node.delta * conn.weight,23 self.downstream, 0.0)24 self.delta = self.output * (1 - self.output) * downstream_delta25 def __str__(self):26 '''27 打印节点的信息28 '''29 node_str = '%u-%u: output: 1' % (self.layer_index, self.node_index)30 downstream_str = reduce(lambda ret, conn: ret + '\n\t' + str(conn), self.downstream, '')31 return node_str + '\n\tdownstream:' + downstream_str
Layer对象,负责初始化一层。此外,作为Node的集合对象,提供对Node集合的操作。
1 class Layer(object): 2 def __init__(self, layer_index, node_count): 3 ''' 4 初始化一层 5 layer_index: 层编号 6 node_count: 层所包含的节点个数 7 ''' 8 self.layer_index = layer_index 9 self.nodes = []10 for i in range(node_count):11 self.nodes.append(Node(layer_index, i))12 self.nodes.append(ConstNode(layer_index, node_count))13 def set_output(self, data):14 '''15 设置层的输出。当层是输入层时会用到。16 '''17 for i in range(len(data)):18 self.nodes[i].set_output(data[i])19 def calc_output(self):20 '''21 计算层的输出向量22 '''23 for node in self.nodes[:-1]:24 node.calc_output()25 def dump(self):26 '''27 打印层的信息28 '''29 for node in self.nodes:30 print node
Connection对象,主要职责是记录连接的权重,以及这个连接所关联的上下游节点。
1 class Connection(object): 2 def __init__(self, upstream_node, downstream_node): 3 ''' 4 初始化连接,权重初始化为是一个很小的随机数 5 upstream_node: 连接的上游节点 6 downstream_node: 连接的下游节点 7 ''' 8 self.upstream_node = upstream_node 9 self.downstream_node = downstream_node10 self.weight = random.uniform(-0.1, 0.1)11 self.gradient = 0.012 def calc_gradient(self):13 '''14 计算梯度15 '''16 self.gradient = self.downstream_node.delta * self.upstream_node.output17 def get_gradient(self):18 '''19 获取当前的梯度20 '''21 return self.gradient22 def update_weight(self, rate):23 '''24 根据梯度下降算法更新权重25 '''26 self.calc_gradient()27 self.weight += rate * self.gradient28 def __str__(self):29 '''30 打印连接信息31 '''32 return '(%u-%u) -> (%u-%u) = %f' % (33 self.upstream_node.layer_index, 34 self.upstream_node.node_index,35 self.downstream_node.layer_index, 36 self.downstream_node.node_index, 37 self.weight)
Connections对象,提供Connection集合操作。
1 class Connections(object):2 def __init__(self):3 self.connections = []4 def add_connection(self, connection):5 self.connections.append(connection)6 def dump(self):7 for conn in self.connections:8 print conn
Network对象,提供API。
1 class Network(object): 2 def __init__(self, layers): 3 ''' 4 初始化一个全连接神经网络 5 layers: 二维数组,描述神经网络每层节点数 6 ''' 7 self.connections = Connections() 8 self.layers = [] 9 layer_count = len(layers)10 node_count = 0;11 for i in range(layer_count):12 self.layers.append(Layer(i, layers[i]))13 for layer in range(layer_count - 1):14 connections = [Connection(upstream_node, downstream_node) 15 for upstream_node in self.layers[layer].nodes16 for downstream_node in self.layers[layer + 1].nodes[:-1]]17 for conn in connections:18 self.connections.add_connection(conn)19 conn.downstream_node.append_upstream_connection(conn)20 conn.upstream_node.append_downstream_connection(conn)21 def train(self, labels, data_set, rate, iteration):22 '''23 训练神经网络24 labels: 数组,训练样本标签。每个元素是一个样本的标签。25 data_set: 二维数组,训练样本特征。每个元素是一个样本的特征。26 '''27 for i in range(iteration):28 for d in range(len(data_set)):29 self.train_one_sample(labels[d], data_set[d], rate)30 def train_one_sample(self, label, sample, rate):31 '''32 内部函数,用一个样本训练网络33 '''34 self.predict(sample)35 self.calc_delta(label)36 self.update_weight(rate)37 def calc_delta(self, label):38 '''39 内部函数,计算每个节点的delta40 '''41 output_nodes = self.layers[-1].nodes42 for i in range(len(label)):43 output_nodes[i].calc_output_layer_delta(label[i])44 for layer in self.layers[-2::-1]:45 for node in layer.nodes:46 node.calc_hidden_layer_delta()47 def update_weight(self, rate):48 '''49 内部函数,更新每个连接权重50 '''51 for layer in self.layers[:-1]:52 for node in layer.nodes:53 for conn in node.downstream:54 conn.update_weight(rate)55 def calc_gradient(self):56 '''57 内部函数,计算每个连接的梯度58 '''59 for layer in self.layers[:-1]:60 for node in layer.nodes:61 for conn in node.downstream:62 conn.calc_gradient()63 def get_gradient(self, label, sample):64 '''65 获得网络在一个样本下,每个连接上的梯度66 label: 样本标签67 sample: 样本输入68 '''69 self.predict(sample)70 self.calc_delta(label)71 self.calc_gradient()72 def predict(self, sample):73 '''74 根据输入的样本预测输出值75 sample: 数组,样本的特征,也就是网络的输入向量76 '''77 self.layers[0].set_output(sample)78 for i in range(1, len(self.layers)):79 self.layers[i].calc_output()80 return map(lambda node: node.output, self.layers[-1].nodes[:-1])81 def dump(self):82 '''83 打印网络信息84 '''85 for layer in self.layers:86 layer.dump()
至此,实现了一个基本的全连接神经网络。可以看到,同神经网络的强大学习能力相比,其实现还算是很容易的。
梯度检查
怎么保证自己写的神经网络没有BUG呢?事实上这是一个非常重要的问题。一方面,千辛万苦想到一个算法,结果效果不理想,那么是算法本身错了还是代码实现错了呢?定位这种问题肯定要花费大量的时间和精力。另一方面,由于神经网络的复杂性,我们几乎无法事先知道神经网络的输入和输出,因此类似TDD(测试驱动开发)这样的开发方法似乎也不可行。
办法还是有滴,就是利用梯度检查来确认程序是否正确。梯度检查的思路如下:
1 def gradient_check(network, sample_feature, sample_label): 2 ''' 3 梯度检查 4 network: 神经网络对象 5 sample_feature: 样本的特征 6 sample_label: 样本的标签 7 ''' 8 # 计算网络误差 9 network_error = lambda vec1, vec2: \10 0.5 * reduce(lambda a, b: a + b, 11 map(lambda v: (v[0] - v[1]) * (v[0] - v[1]),12 zip(vec1, vec2)))13 # 获取网络在当前样本下每个连接的梯度14 network.get_gradient(sample_feature, sample_label)15 # 对每个权重做梯度检查 16 for conn in network.connections.connections: 17 # 获取指定连接的梯度18 actual_gradient = conn.get_gradient()19 # 增加一个很小的值,计算网络的误差20 epsilon = 0.000121 conn.weight += epsilon22 error1 = network_error(network.predict(sample_feature), sample_label)23 # 减去一个很小的值,计算网络的误差24 conn.weight -= 2 * epsilon # 刚才加过了一次,因此这里需要减去2倍25 error2 = network_error(network.predict(sample_feature), sample_label)26 # 根据式6计算期望的梯度值27 expected_gradient = (error2 - error1) / (2 * epsilon)28 # 打印29 print 'expected gradient: \t%f\nactual gradient: \t%f' % (30 expected_gradient, actual_gradient)
至此,会推导、会实现、会抓BUG,你已经摸到深度学习的大门了。接下来还需要不断的实践,我们用刚刚写过的神经网络去识别手写数字。
神经网络实战——手写数字识别
针对这个任务,我们采用业界非常流行的MNIST数据集。MNIST大约有60000个手写字母的训练样本,我们使用它训练我们的神经网络,然后再用训练好的网络去识别手写数字。
手写数字识别是个比较简单的任务,数字只可能是0-9中的一个,这是个10分类问题。
超参数的确定
我们首先需要确定网络的层数和每层的节点数。关于第一个问题,实际上并没有什么理论化的方法,大家都是根据经验来拍,如果没有经验的话就随便拍一个。然后,你可以多试几个值,训练不同层数的神经网络,看看哪个效果最好就用哪个。嗯,现在你可能明白为什么说深度学习是个手艺活了,有些手艺很让人无语,而有些手艺还是很有技术含量的。
不过,有些基本道理我们还是明白的,我们知道网络层数越多越好,也知道层数越多训练难度越大。对于全连接网络,隐藏层最好不要超过三层。那么,我们可以先试试仅有一个隐藏层的神经网络效果怎么样。毕竟模型小的话,训练起来也快些(刚开始玩模型的时候,都希望快点看到结果)。
输入层节点数是确定的。因为MNIST数据集每个训练数据是28*28的图片,共784个像素,因此,输入层节点数应该是784,每个像素对应一个输入节点。
输出层节点数也是确定的。因为是10分类,我们可以用10个节点,每个节点对应一个分类。输出层10个节点中,输出最大值的那个节点对应的分类,就是模型的预测结果。
隐藏层节点数量是不好确定的,从1到100万都可以。下面有几个经验公式:
因此,我们可以先根据上面的公式设置一个隐藏层节点数。如果有时间,我们可以设置不同的节点数,分别训练,看看哪个效果最好就用哪个。我们先拍一个,设隐藏层节点数为300吧。
模型的训练和评估
MNIST数据集包含10000个测试样本。我们先用60000个训练样本训练我们的网络,然后再用测试样本对网络进行测试,计算识别错误率:
我们每训练10轮,评估一次准确率。当准确率开始下降时(出现了过拟合)终止训练。
代码实现
下面是处理MNIST数据的代码:
1 #!/usr/bin/env python 2 # -*- coding: UTF-8 -*- 3 import struct 4 from bp import * 5 from datetime import datetime 6 # 数据加载器基类 7 class Loader(object): 8 def __init__(self, path, count): 9 '''10 初始化加载器11 path: 数据文件路径12 count: 文件中的样本个数13 '''14 self.path = path15 self.count = count16 def get_file_content(self):17 '''18 读取文件内容19 '''20 f = open(self.path, 'rb')21 content = f.read()22 f.close()23 return content24 def to_int(self, byte):25 '''26 将unsigned byte字符转换为整数27 '''28 return struct.unpack('B', byte)[0]29 # 图像数据加载器30 class ImageLoader(Loader):31 def get_picture(self, content, index):32 '''33 内部函数,从文件中获取图像34 '''35 start = index * 28 * 28 + 1636 picture = []37 for i in range(28):38 picture.append([])39 for j in range(28):40 picture[i].append(41 self.to_int(content[start + i * 28 + j]))42 return picture43 def get_one_sample(self, picture):44 '''45 内部函数,将图像转化为样本的输入向量46 '''47 sample = []48 for i in range(28):49 for j in range(28):50 sample.append(picture[i][j])51 return sample52 def load(self):53 '''54 加载数据文件,获得全部样本的输入向量55 '''56 content = self.get_file_content()57 data_set = []58 for index in range(self.count):59 data_set.append(60 self.get_one_sample(61 self.get_picture(content, index)))62 return data_set63 # 标签数据加载器64 class LabelLoader(Loader):65 def load(self):66 '''67 加载数据文件,获得全部样本的标签向量68 '''69 content = self.get_file_content()70 labels = []71 for index in range(self.count):72 labels.append(self.norm(content[index + 8]))73 return labels74 def norm(self, label):75 '''76 内部函数,将一个值转换为10维标签向量77 '''78 label_vec = []79 label_value = self.to_int(label)80 for i in range(10):81 if i == label_value:82 label_vec.append(0.9)83 else:84 label_vec.append(0.1)85 return label_vec86 def get_training_data_set():87 '''88 获得训练数据集89 '''90 image_loader = ImageLoader('train-images-idx3-ubyte', 60000)91 label_loader = LabelLoader('train-labels-idx1-ubyte', 60000)92 return image_loader.load(), label_loader.load()93 def get_test_data_set():94 '''95 获得测试数据集96 '''97 image_loader = ImageLoader('t10k-images-idx3-ubyte', 10000)98 label_loader = LabelLoader('t10k-labels-idx1-ubyte', 10000)99 return image_loader.load(), label_loader.load()
1 def get_result(vec):2 max_value_index = 03 max_value = 04 for i in range(len(vec)):5 if vec[i] > max_value:6 max_value = vec[i]7 max_value_index = i8 return max_value_index
我们使用错误率来对网络进行评估,下面是代码实现:
1 def evaluate(network, test_data_set, test_labels):2 error = 03 total = len(test_data_set)4 for i in range(total):5 label = get_result(test_labels[i])6 predict = get_result(network.predict(test_data_set[i]))7 if label != predict:8 error += 19 return float(error) / float(total)
最后实现我们的训练策略:每训练10轮,评估一次准确率,当准确率开始下降时终止训练。下面是代码实现:
1 def train_and_evaluate(): 2 last_error_ratio = 1.0 3 epoch = 0 4 train_data_set, train_labels = get_training_data_set() 5 test_data_set, test_labels = get_test_data_set() 6 network = Network([784, 300, 10]) 7 while True: 8 epoch += 1 9 network.train(train_labels, train_data_set, 0.3, 1)10 print '%s epoch %d finished' % (now(), epoch)11 if epoch % 10 == 0:12 error_ratio = evaluate(network, test_data_set, test_labels)13 print '%s after epoch %d, error ratio is %f' % (now(), epoch, error_ratio)14 if error_ratio > last_error_ratio:15 break16 else:17 last_error_ratio = error_ratio18 if __name__ == '__main__':19 train_and_evaluate()
向量化编程
完整代码请参考GitHub: (python2.7)
在经历了漫长的训练之后,我们可能会想到,肯定有更好的办法!是的,程序员们,现在我们需要告别面向对象编程了,转而去使用另外一种更适合深度学习算法的编程方式:向量化编程。主要有两个原因:一个是我们事实上并不需要真的去定义Node、Connection这样的对象,直接把数学计算实现了就可以了;另一个原因,是底层算法库会针对向量运算做优化(甚至有专用的硬件,比如GPU),程序效率会提升很多。所以,在深度学习的世界里,我们总会想法设法的把计算表达为向量的形式。我相信优秀的程序员不会把自己拘泥于某种(自己熟悉的)编程范式上,而会去学习并使用最为合适的范式。
下面,我们用向量化编程的方法,重新实现前面的全连接神经网络。
首先,我们需要把所有的计算都表达为向量的形式。对于全连接神经网络来说,主要有三个计算公式。
前向计算,我们发现式2已经是向量化的表达了:
现在,我们根据上面几个公式,重新实现一个类:FullConnectedLayer。它实现了全连接层的前向和后向计算:
1 # 全连接层实现类 2 class FullConnectedLayer(object): 3 def __init__(self, input_size, output_size, 4 activator): 5 ''' 6 构造函数 7 input_size: 本层输入向量的维度 8 output_size: 本层输出向量的维度 9 activator: 激活函数10 '''11 self.input_size = input_size12 self.output_size = output_size13 self.activator = activator14 # 权重数组W15 self.W = np.random.uniform(-0.1, 0.1,16 (output_size, input_size))17 # 偏置项b18 self.b = np.zeros((output_size, 1))19 # 输出向量20 self.output = np.zeros((output_size, 1))21 def forward(self, input_array):22 '''23 前向计算24 input_array: 输入向量,维度必须等于input_size25 '''26 # 式227 self.input = input_array28 self.output = self.activator.forward(29 np.dot(self.W, input_array) + self.b)30 def backward(self, delta_array):31 '''32 反向计算W和b的梯度33 delta_array: 从上一层传递过来的误差项34 '''35 # 式836 self.delta = self.activator.backward(self.input) * np.dot(37 self.W.T, delta_array)38 self.W_grad = np.dot(delta_array, self.input.T)39 self.b_grad = delta_array40 def update(self, learning_rate):41 '''42 使用梯度下降算法更新权重43 '''44 self.W += learning_rate * self.W_grad45 self.b += learning_rate * self.b_grad
上面这个类一举取代了原先的Layer、Node、Connection等类,不但代码更加容易理解,而且运行速度也快了几百倍。
现在,我们对Network类稍作修改,使之用到FullConnectedLayer:
1 # Sigmoid激活函数类 2 class SigmoidActivator(object): 3 def forward(self, weighted_input): 4 return 1.0 / (1.0 + np.exp(-weighted_input)) 5 def backward(self, output): 6 return output * (1 - output) 7 # 神经网络类 8 class Network(object): 9 def __init__(self, layers):10 '''11 构造函数12 '''13 self.layers = []14 for i in range(len(layers) - 1):15 self.layers.append(16 FullConnectedLayer(17 layers[i], layers[i+1],18 SigmoidActivator()19 )20 )21 def predict(self, sample):22 '''23 使用神经网络实现预测24 sample: 输入样本25 '''26 output = sample27 for layer in self.layers:28 layer.forward(output)29 output = layer.output30 return output31 def train(self, labels, data_set, rate, epoch):32 '''33 训练函数34 labels: 样本标签35 data_set: 输入样本36 rate: 学习速率37 epoch: 训练轮数38 '''39 for i in range(epoch):40 for d in range(len(data_set)):41 self.train_one_sample(labels[d], 42 data_set[d], rate)43 def train_one_sample(self, label, sample, rate):44 self.predict(sample)45 self.calc_gradient(label)46 self.update_weight(rate)47 def calc_gradient(self, label):48 delta = self.layers[-1].activator.backward(49 self.layers[-1].output50 ) * (label - self.layers[-1].output)51 for layer in self.layers[::-1]:52 layer.backward(delta)53 delta = layer.delta54 return delta55 def update_weight(self, rate):56 for layer in self.layers:57 layer.update(rate)
现在,Network类也清爽多了,用我们的新代码再次训练一下MNIST数据集吧。
小结
至此,你已经完成了又一次漫长的学习之旅。你现在应该已经明白了神经网络的基本原理,高兴的话,你甚至有能力去动手实现一个,并用它解决一些问题。如果感到困难也不要气馁,这篇文章是一个重要的分水岭,如果你完全弄明白了的话,在真正的『小白』和装腔作势的『大牛』面前吹吹牛是完全没有问题的。
作为深度学习入门的系列文章,本文也是上半场的结束。在这个半场,你掌握了机器学习、神经网络的基本概念,并且有能力去动手解决一些简单的问题(例如手写数字识别,如果用传统的观点来看,其实这些问题也不简单)。而且,一旦掌握基本概念,后面的学习就容易多了。
在下半场,我们讲介绍更多『深度』学习的内容,我们已经讲了神经网络(Neutrol Network),但是并没有讲深度神经网络(Deep Neutrol Network)。Deep会带来更加强大的能力,同时也带来更多的问题。如果不理解这些问题和它们的解决方案,也不能说你入门了『深度』学习。
目前业界有很多开源的神经网络实现,它们的功能也要强大的多,因此你并不需要事必躬亲的去实现自己的神经网络。我们在上半场不断的从头发明轮子,是为了让你明白神经网络的基本原理,这样你就能非常迅速的掌握这些工具。在下半场的文章中,我们改变了策略:不会再去从头开始去实现,而是尽可能应用现有的工具。
下一篇文章,我们介绍不同结构的神经网络,比如鼎鼎大名的卷积神经网络,它在图像和语音领域已然创造了诸多奇迹,在自然语言处理领域的研究也如火如荼。某种意义上说,它的成功大大提升了人们对于深度学习的信心。
参考资料
- Tom M. Mitchell, "机器学习", 曾华军等译, 机械工业出版社
- CS 224N / Ling 284, Neural Networks for Named Entity Recognition
- LeCun et al. Gradient-Based Learning Applied to Document Recognition 1998
原文地址:https://www.zybuluo.com/hanbingtao/note/476663
通俗易懂全面,十分感谢这位老师,写在这里作学习之用,极力推荐大家去看原文。