当前位置:文档之家› 人工神经网络 PPT课件

人工神经网络 PPT课件


Non-Separable
感知机存在的问题
▪ 噪声(不可分情况): if the data isn't separable, weights
might thrash
▪ 泛化性: finds a “barely” separating
solution
改进感知机
线性可分情况
▪ Which of these linear separators is optimal?
▪ 依次处理每个样本
▪ Predict with current weights
y arg max y x
x
y
▪ If correct, no change! ▪ If wrong: lower score of wrong answer,
raise score of right answer
y y x y* y* x
▪ Unsupervised
▪ How to compete?
- Hard competition Only one neuron is activated - Soft competition Neurons neighboring the true winner are activated.
重要的人工神经网络模型
什么是神经网络
▪ 所谓的人工神经网络就是基于模仿生物大脑的结构和功能而 构成的一种信息处理系统(计算机)。
仿生
人工神经网络
▪ 个体单元相互连接形成多种类型结构的图
▪ 循环、非循环 ▪ 有向、无向
▪ 自底向上(Bottom-Up)AI
▪ 起源于生物神经系统
▪ 从结构模拟到功能模拟
▪ 生物学启示 ▪ 多层神经网络 ▪ Hopfield网络 ▪ 自组织网络
n
X C
xi ci 2
i 1
y f f n i xi
i0
y
f
f
n
xi c
2
i1
f ( )
Threshold
f ( )
Logistic Sigmoid
f ( )
1
1 exp( )
激活函数
f ( )
Linear
f ( )
Hyperbolic tangent Sigmoid
y
▪ Score (activation) of a class y:
y x
▪ Prediction highest score wins
y arg max y x
y
1 x biggest
2 x biggest
3 x biggest
学习: Multiclass Perceptron
▪ 初始化
▪ 结构
A kind of multi-layer perceptron, in which the Sigmoid activation function is used.
f ( ) tanh()
f ( )
Saturating Linear
f ( )
+1
0
Gaussian
人工神经网络
▪ 多个人工神经元按照特定的网络结构联接在一起,就构成了 一个人工神经网络。
▪ 神经网络的目标就是将输入转换成有意义的输出。
生物系统中的学习
▪ 自适应学习
▪ 适应的目标是基于对环境信息的响应获得 更好的状态
adding or subtracting the feature vector. Subtract if y* is -1.
y* x
y* x
x
30
多类判别情况
▪ If we have multiple classes:
▪ A weight vector for each class:
▪ 在神经层面上,通过突触强度的改变实 现学习
▪ 消除某些突触,建立一些新的突触
生物系统中的学习
▪ Hebb学习律
▪ 神经元同时激活,突触强度增加 ▪ 异步激活,突触强度减弱
▪ 学习律符合能量最小原则
▪ 保持突触强度需要能量,所以在需要的地 方保持,在不需要的地方不保持。
ANN的学习规则
▪ 能量最小 ENERGY MINIMIZATION
▪采用不同的激活函数
▪平方损失: 1 n 2
m
yk (xi ) tk,i 2
i1 k 1
单层感知机
单层感知机
单层感知机
单层感知机
▪采用线性激活函数,权值向量具有解析解
▪批处理模式
▪ 一次性更新权重 ▪ 缺点:收敛慢
▪增量模式
▪ 逐样本更新权值 ▪ 随机近似,但速度快并能保证收敛
多层感知机 (MLP)
▪ 学习方法
How to automatically determine the connection weights or even structure of ANN?
Solutions to these two problems leads to a concrete ANN!
N结构
▪ 前馈结构(Feedforward Architecture) - without loops - static
Support Vector Machines
▪ Maximizing the margin: good according to intuition, theory, practice ▪ Only support vectors matter; other training examples are ignorable ▪ Support vector machines (SVMs) find the separator with max margin
▪ 学习模型 Incremental vs. Batch
▪ 两种类型 Supervised vs. Unsupervised
学习策略: Hebbrian Learning
▪ 若两端的神经元同时激活,增强联接权重 ▪ Unsupervised Learning
ij t 1 ij t xi t x j t
▪ 结构的可塑性
▪ 神经元之间的柔性连接:突触的信息传递特性是可变的 ——学习记忆的基础
神经元模型
▪ 从生物学结构到数学模型
人工神经元
▪ M-P模型
Input
x1
ω1
x2
ω2
ωn
xn
Threshold
θ
y Output
y f f gX
f: 激活函数(Activation Function) g: 组合函数(Combination Function)
▪ 反馈/循环结构(Feedback/Recurrent Architecture) - with loops - dynamic (non-linear dynamical systems)
……… ………
……… ………
……… ……… ……… ……… ………
……… ……… ……… ……… ………
………
k 1
ω ω ω ω
学习策略: Stochastic Learning
▪ 采用随机模式,跳出局部极小
- 如果网络性能提高,新参数被接受. - 否则,新参数依概率接受
Local Minimum
Global Minimum
学习策略: Competitive Learning
▪ “胜者为王”(Winner-take-all )
▪ 多层神经网络 ▪ 径向基网络 ▪ Hopfield网络 ▪ Boltzmann机 ▪ 自组织网络 ▪ ……
多层感知机(MLP)
感知机
▪ 感知机实质上是一种神经元模型
▪ 阈值激活函数
v i xi
i
y f (v)
x1 x2 x3
w1 w2 w3
>0?
Rosenblatt, 1957
判别规则
McClloch and Pitts, A logical calculus of the ideas immanent in nervous activity, 1943
组合函数
▪ Weighted Sum
n
gX i xi i 1
y f f n i xi
i1
▪ Radial Distance
人工神经网络
中国科学院自动化研究所 吴高巍 gaowei.wu@ 2016-11-29
联结主义学派
▪ 又称仿生学派或生理学派
▪ 认为人的思维基元是神经元,而不是符号 处理过程
▪ 认为人脑不同于电脑
▪ 核心:智能的本质是联接机制。 ▪ 原理:神经网络及神经网络间的连接机
制和学习算法
麦卡洛可(McCulloch) 皮茨(Pitts)
▪ If wrong: adjust the weight vector
学习: Binary Perceptron
▪ 初始化 ▪ 对每一个训练样本:
▪ Classify with current weights
y
1 1
if x 0 if x 0
▪ If correct (i.e., y=y*), no change! ▪ If wrong: adjust the weight vector by
内容
生物学启示
生物神经元
• 神经元组成:细胞体,轴突,树突,突触 • 神经元之间通过突触两两相连。信息的传递发生在突触。 • 突触记录了神经元间联系的强弱。 • 只有达到一定的兴奋程度,神经元才向外界传输信息。
神经元
▪ 神经元特性
▪ 信息以预知的确定方向传递 一个神经元的树突-细胞体-轴突-突触-另
相关主题