遗传算法 - 高级主题
在本节中,我们将介绍遗传算法中的一些高级主题。只想了解遗传算法的读者可以选择跳过本节。
约束优化问题
约束优化问题是那些我们必须最大化或最小化给定目标函数值并受到某些约束的优化问题。因此,并非解决方案空间中的所有结果都是可行的,并且解决方案空间包含可行区域,如下图所示。
在这种情况下,交叉和变异运算符可能会给我们提供不可行的解决方案。因此,在处理约束优化问题时,GA 必须采用额外的机制。
一些最常见的方法是 −
使用惩罚函数来降低不可行解决方案的适应度,最好使适应度与违反的约束数量或与可行区域的距离成比例降低。
使用修复函数,采用不可行解决方案并对其进行修改,以满足违反的约束。
完全不允许不可行解决方案进入种群。
使用特殊表示或解码器函数来确保解决方案的可行性。
基本理论背景
在本节中,我们将讨论 Schema 和 NFL 定理以及构建块假设。
Schema 定理
研究人员一直在试图弄清楚遗传算法工作背后的数学原理,而霍兰德的 Schema 定理就是朝着这个方向迈出的一步。多年来,人们对 Schema 定理进行了各种改进和建议,使其更加通用。
在本节中,我们不会深入研究 Schema 定理的数学原理,而是尝试对 Schema 定理的基本内容进行基本的了解。需要了解的基本术语如下 −
Schema 是一个"模板"。形式上,它是字母表上的字符串 = {0,1,*},
其中 * 表示无关,可以取任何值。
因此,*10*1 可能表示 01001、01011、11001 或 11011
从几何学上讲,模式是解决方案搜索空间中的超平面。
模式的顺序是基因中指定的固定位置的数量。
定义长度是基因中两个最远的固定符号之间的距离。
模式定理指出,具有高于平均适应度、较短定义长度和较低阶数的模式更有可能在交叉和突变中存活下来。
构建块假设
构建块是具有高于给定平均适应度的低阶、低定义长度模式。构建块假设认为,随着 GA 通过连续识别和重新组合这些"构建块"而不断进步,这些构建块将成为 GA 成功和适应的基础。
没有免费午餐 (NFL) 定理
Wolpert 和 Macready 于 1997 年发表了一篇题为"优化没有免费午餐定理"的论文。它本质上表明,如果我们对所有可能问题的空间取平均值,那么所有非重访黑盒算法都将表现出相同的性能。
这意味着我们对问题的了解越多,我们的 GA 就会越针对问题,并提供更好的性能,但它通过对其他问题表现不佳来弥补这一点。
基于 GA 的机器学习
遗传算法也在机器学习中得到应用。分类器系统是一种基于遗传学的机器学习 (GBML) 系统,经常用于机器学习领域。 GBML 方法是机器学习的一种小众方法。
GBML 系统有两种类型 −
匹兹堡方法 − 在这种方法中,一条染色体编码一个解决方案,因此适应度被分配给解决方案。
密歇根方法 − 一个解决方案通常由多条染色体表示,因此适应度被分配给部分解决方案。
应该记住,交叉、突变、拉马克或达尔文等标准问题也存在于 GBML 系统中。