支持向量机分类器,基于结构风险最小化原则。支持向量机的性能取决于不同的参数,如惩罚因子,<我nline-formula>
模式识别系统由不同的部分组成。这样一个系统的最重要的一个部分是分类的,这是由不同分类器的过程。显然,有一个强大的分类器精度高是至关重要的在模式识别系统中,由于系统的输出精度高的影响分类器的精度。所以一个准确的模式识别系统,可用于不同的应用程序强烈需要一个高性能的分类器。一个强大的支持向量机分类技术,简称SVM ( 在这项研究中多目标的算法被用来为两个目标函数:找到最优超平面识别评分和可靠性。本文的其余部分组织如下。节
支持向量机是一种两级分类器描述如下( 在图 一些常见的内核函数 线性:<我nline-formula>
多项式:<我nline-formula>
RBF:<我nline-formula>
二次:<我nline-formula>
在所有这些功能<我nline-formula>
粒子群优化算法进行首先提出了肯尼迪和埃伯哈特在1995年(
在一个多目标优化问题很明显,有多个目标函数,进行优化,所以一个多目标优化问题可以定义如下 实际上外部存档保存输出的算法。介绍了到目前为止的不同版本MOPSO。在这项研究中我们使用了一个介绍( 他们被放置在超立方体协调由目标函数计算。每个超立方体评估通过将其解决方案的数量划分为一个常数。后评估每个超立方体,轮盘赌机制将选择其中一个超立方体。最后一个解决方案,选择放置在选定的超立方体,随机粒子的领袖。MOPSO过程描述如下: 初始化每个粒子的位置和速度。
更新粒子的位置( 评估粒子。
更新存储库。
更新<我nline-formula>
主循环的结束。
介绍了人工神经网络在1974年( 最简单的感知器神经网络包括三个(输入、隐藏和输出)层,如图 多层感知器神经网络。
在这种方法中权重更新反复学习模式。培训过程停止当所有模式的总误差值达到一个值低于确定的临界点时,或者当整个学习周期到达最终点。值得注意的是这里提到的训练方法的误差反向传播方法的术语,降低协调的可能性在局部最小值相比,误差反向传播方法。
RBF神经网络是一个流行的监督学习算法。它是一种特定的MLP网络(
径向基函数神经网络。
基函数通常采取的形式<我nline-formula>
在本文中,我们使用MOPSO优化惩罚因子,选择适当的核函数,优化选择内核的参数,和两个目标函数,特征选择识别评分和可靠性,其性能与RBF和MLP神经网络相比。粒子的结构显示在图 粒子的建设。
第一个变量,<我nline-formula>
如果我们认为这两个类是“积极”和“消极”,然后预测测试样品可分为四组: 样本是“积极的”,正确预测“正面”(TP)。
样品是“积极的”但是归类为“负面”(FN)。
样品是“消极”并正确地归类为“负面”(TN)。
样品的“负面”,但预测为“正面”(FP)。
根据这一分类,识别评分计算 one-versus-all三级数据集的分类方法。
提出的方法应用于九个不同数据集从UCI机器学习库( 使用数据集的特征。
识别评分的比例和可靠性。
学习时间不同的分类器(第二)。
MOPSO-SVM和特征选择。
根据表 事实上自从MOPSO获得的超平面有一个数量的测试样本的分类错误(未知样本),一些样品存在多个超平面将它们分配给相应的类。也可能会有一些样品,没有一个超平面将它们分配给相应的类。等样品被认为是错误的样品,不能区分他们的类。图 样品被认为是错误的样本。
分析了数字表
数据集
类的数量
数量的样品
数的功能
玻璃
6
214年
9
虹膜
3
150年
4
酒
3
175年
13
德国
2
1000年
20.
电离层
2
351年
33
声纳
2
208年
60
肝炎
2
80年
19
保柏
2
345年
6
元音
11
990年
13
心
2
270年
13
玻璃
虹膜
酒
德国
电离层
声纳
肝炎
保柏
元音
心
MOPSO-SVM
识别评分
81.31
94.67
97.75
84.20
92.31
90.87
96.25
82.32
97.78
87.41
可靠性
92.94
97.93
One hundred.
89.89
93.99
90.85
92.095
82.06
99.89
87.3
支持向量机
识别评分
61.21
82.33
90.45
78.35
92.59
83.41
92.5
73.04
97.17
83.88
可靠性
94.64
98.45
99.65
79.57
92.98
87年
89.87
72.77
99.89
85.49
中长期规划
识别评分
82.78
98.54
98.42
89.86
96.44
93.76
92.76
87.94
77.6
92.8
可靠性
73.088
98.68
98.438
88.35
96.35
93.97
86.51
87.59
78.30
92.82
RBF
识别评分
81.76
96.92
81.58
91.5
90.02
94.72
94.78
88.12
99.12
83.7
可靠性
75.822
96.96
88.87
94.94
93.11
94.86
97.07
91.49
99.3
86.59
玻璃
虹膜
酒
德国
电离层
声纳
肝炎
保柏
元音
心
MOPSO-SVM
0.64
0.204
0.224
0.635
0.184
0.084
0.0436
0.191
11.85
0.118
支持向量机
2.74
1.138
1.12
0.663
0.179
0.116
0.0423
0.148
8.60
0.135
中长期规划
22.17
2.14
2.06
37.84
2.24
3.43
2.12
4.93
38.13
2.33
RBF
5.27
3.55
4.08
21.17
11.28
5.98
3.005
3.78
18.9
6.21
玻璃
虹膜
酒
德国
电离层
声纳
肝炎
保柏
元音
心
与特征选择
识别评分
81.31
94.67
97.75
84.20
92.31
90.87
96.25
82.32
97.78
87.41
可靠性
92.94
97.93
One hundred.
89.89
93.99
90.85
92.095
82.06
99.89
87.3
没有特征选择
识别评分
71.50
95.33
97.19
84.30
92.02
87.98
95年
81.16
96.06
84.07
可靠性
84.5
96.68
98.41
90.84
94.12
88.81
90.815
80.64
99.68
83.89
在这项研究中多目标算法被用来优化支持向量机的参数,也为两个目标函数进行特征选择和该方法的性能(MOPSO-SVM)与单一的支持向量机相比,RBF和MLP神经网络。根据报告结果,可以看出,该方法给出了可靠性和识别评分,可比RBF和MLP神经网络,在重叠的数据集分类显示它们的有效性,甚至在某些情况下提供更好的可靠性和/或识别评分比RBF和中长期规划,例如,玻璃,虹膜,葡萄酒,电离层,肝炎,元音的数据集。该方法也就是减少学习时间在大多数的实验。此外根据表 其实前一节所示的结果表明,使用启发式算法支持向量机从一个正常的分类器转换成一个专家一个是成功的。此外优化SVM为了增加其可靠性除了精度通过使用多目标启发式算法根据获得的结果是一个成功的想法。报告结果也显示的能力和有效性MOPSO搜索解空间。换句话说,MOPSO是一个强大的算法可以非常有效地解决多目标优化问题。
作者宣称没有利益冲突。