这里是引用
人工智能是计算机科学的一个大领域,它模拟计算机中的智能行为。在此基础上,提出了一种基于元启发式( metaheuristic)的粒子群优化算法来模拟鸟类觅食、鱼群移动等。这种算法能够模拟群体的行为,以便迭代地优化数值问题。例如,它可以被分类为像蚁群算法、人工蜂群算法和细菌觅食这样的群体智能算法。
J. Kennedy 和 R.Eberhart 在1995年提出的粒子群优化(Particle Swarm Optimization,PSO)变得非常流行,它是一种基于随机优化(Stochastic Optimization)的强大算法,受鸟群中的规则启发,连续优化过程允许多目标和更多的变化。该方法包括不断寻找最佳解,以每次迭代计算的一定速度移动粒子(在这种情况下表示为位置 (x,y)(x,y)(x,y))。每个粒子的运动都有其自身的影响,最著名的位置也是空间搜索中最著名的位置。最终期望的结果是粒子群收敛到最优解。重要的是要提到粒子群算法不使用梯度下降,所以它可以用于非线性问题,只要它不要求问题必须是可微的。
C++/Python代码可参考该仓库。
涌现复杂性(Emergent Complexity)是一种现象,描述了大群体的各个组成部分如何以相同但更简单的规则一起工作,以创建多样而复杂的系统。有一些自然的复杂行为可以作为涌现的例子。例如,蚂蚁本能地相互交流,以建立一个活的桥梁,在寻找食物来源时最小化交换距离(Video)。鸟类相互跟随,形成更大的群体,这增加了它们发现捕食者和食物来源的可能性。不像通常的复杂性(complexity)概念,它不一定有用,自然复杂性(natural complexity)是一百万年自然选择过程的结果,在这个过程中,能源的使用是增加生存机会的最重要因素。因此,如果同一个问题有两个解决方案,更简单、需要更少能量的方法将因自然选择而存在。这就是为什么大自然建议的解决方案会很简单,但仍然能有效地尽可能减少动物的能量消耗。因此,科学家们分别观察了一群欧椋鸟(starlings,八哥😸)中的每只鸟,发现它们中的每只都采取简单的行动来形成复杂的结构。
在自然界中,在一个数值问题中,任何boid(类似鸟的物体)的可观察到的邻近区域都被限制在一定的范围内。因此,它可以收敛到一些局部极小值(minima)或鞍点(saddle point),其中梯度(在该情况下对应的是速度)将为0。然而,拥有一个以上的boid可以让鸟群中的所有鸟关注到误差函数的更大范围,并且如果它们中的任何一只在误差方面看到了更好的位置,就不会陷入局部极小值。对上述原则进行数学建模,使群体找到误差函数的全局最小值。
通过使用上述规则,我们可以轻松得出将驱动每个boid的数学方程式。
在以上等式中:
w,c1,c2,learningRatew, c_1, c_2, learningRatew,c1,c2,learningRate 是在优化过程中应微调的超参数。
粒子群优化算法伪代码:
其中:
使用Python来实现对群体智能背(swarm intelligence)后的数学理论进行了讨论和建模。为了测试算法,Rastrigin函数将被用作误差函数,这是优化问题中最具挑战性的函数之一。在平面上有很多余弦振荡会引入无数的局部极小值,在这些极小值中,boid会卡住。(图自:Source)
import numpy as npdef error(current_pos):x = current_pos[0]y = current_pos[1]return (x ** 2 - 10 * np.cos(2 * np.pi * x)) + \(y ** 2 - 10 * np.cos(2 * np.pi * y)) + 20def grad_error(current_pos):x = current_pos[0]y = current_pos[1]return np.array([2 * x + 10 * 2 * np.pi * x * np.sin(2 * np.pi * x),2 * y + 10 * 2 * np.pi * y * np.sin(2 * np.pi * y)])
如上所述,每个boid都将具有位置,速度,误差,最佳位置和已知误差(best-known error)。我们还应该编写一个setter函数来在需要时修改参数。
class Particle:def __init__(self, dim, minx, maxx):self.position &#61; np.random.uniform(low&#61;minx, high&#61;maxx, size&#61;dim)self.velocity &#61; np.random.uniform(low&#61;minx, high&#61;maxx, size&#61;dim)self.best_part_pos &#61; self.position.copy()self.error &#61; error(self.position)self.best_part_err &#61; self.error.copy()def setPos(self, pos):self.position &#61; posself.error &#61; error(pos)if self.error < self.best_part_err:self.best_part_err &#61; self.errorself.best_part_pos &#61; pos
粒子群算法类将由误差函数表面上的移动粒子列表组成。要初始化函数&#xff0c;需要函数的维数、boids的数量以及纪元的数量。
class PSO:w &#61; 0.729c1 &#61; 1.49445c2 &#61; 1.49445lr &#61; 0.01def __init__(self, dims, numOfBoids, numOfEpochs):self.swarm_list &#61; [self.Particle(dims, -500, 500) for i in range(numOfBoids)]self.numOfEpochs &#61; numOfEpochsself.best_swarm_position &#61; np.random.uniform(low&#61;-500, high&#61;500, size&#61;dims)self.best_swarm_error &#61; 1e80 # Set high value to best swarm error
最后&#xff0c;编写代码来找到最佳优化误差函数的位置。首先&#xff0c;在每个时期&#xff0c;每个粒子都被逐个挑选并优化其位置。一旦粒子的位置更新&#xff0c;“如果”语句检查它是否是粒子群的最佳位置。
def optimize(self):for i in range(self.numOfEpochs):for j in range(len(self.swarm_list)):current_particle &#61; self.swarm_list[j] # get current particleVcurr &#61; grad_error(current_particle.position) # calculate current velocity of the particledeltaV &#61; self.w * Vcurr \&#43; self.c1 * (current_particle.best_part_pos - current_particle.position) \&#43; self.c2 * (self.best_swarm_position - current_particle.position) # calculate delta Vnew_position &#61; self.swarm_list[j].position - self.lr * deltaV # calculate the new positionself.swarm_list[j].setPos(new_position) # update the position of particleif error(new_position) < self.best_swarm_error: # check the position if it&#39;s best for swarmself.best_swarm_position &#61; new_positionself.best_swarm_error &#61; error(new_position)print(&#39;Epoch: {0} | Best position: [{1},{2}] | Best known error: {3}&#39;.format(i,self.best_swarm_position[0],self.best_swarm_position[1],self.best_swarm_error))
运行PSO并观察算法的性能。
pso &#61; PSO(dims&#61;2, numOfBoids&#61;30, numOfEpochs&#61;500)
pso.optimize()
...
Epoch: 27 | Best position: [2.1199768747964054,-1.1332450655810595] | Best known error: 11.792438949384607
Epoch: 28 | Best position: [2.1199768747964054,-1.1332450655810595] | Best known error: 11.792438949384607
Epoch: 29 | Best position: [2.1199768747964054,-1.1332450655810595] | Best known error: 11.792438949384607
Epoch: 30 | Best position: [2.1199768747964054,-1.1332450655810595] | Best known error: 11.792438949384607
Epoch: 31 | Best position: [2.1199768747964054,-1.1332450655810595] | Best known error: 11.792438949384607
Epoch: 32 | Best position: [1.0839903018536725,-1.1678886593978168] | Best known error: 8.966098069909691
从下面的等高线图可以很容易地看出&#xff0c;swarm只需要几个纪元就能收敛到Rastrigin函数的全局最小值。要获得创建轮廓可视化的代码以及过程的错误时期图&#xff0c;可以参考&#xff1a;T. Ahadli, Particle Swarm Optimization C&#43;&#43;/Python Project Codes。
完整代码
"""
Copyright © 2020 Tarlan Ahadli
"""import numpy as np
import matplotlib.pyplot as pltdef error(current_pos):x &#61; current_pos[0]y &#61; current_pos[1]return (x ** 2 - 10 * np.cos(2 * np.pi * x)) &#43; \(y ** 2 - 10 * np.cos(2 * np.pi * y)) &#43; 20def grad_error(current_pos):x &#61; current_pos[0]y &#61; current_pos[1]return np.array([2 * x &#43; 10 * 2 * np.pi * x * np.sin(2 * np.pi * x),2 * y &#43; 10 * 2 * np.pi * y * np.sin(2 * np.pi * y)])class PSO:class Particle:def __init__(self, dim, minx, maxx):self.position &#61; np.random.uniform(low&#61;minx, high&#61;maxx, size&#61;dim)self.velocity &#61; np.random.uniform(low&#61;minx, high&#61;maxx, size&#61;dim)self.best_part_pos &#61; self.position.copy()self.error &#61; error(self.position)self.best_part_err &#61; self.error.copy()def setPos(self, pos):self.position &#61; posself.error &#61; error(pos)if self.error < self.best_part_err:self.best_part_err &#61; self.errorself.best_part_pos &#61; posw &#61; 0.729c1 &#61; 1.49445c2 &#61; 1.49445lr &#61; 0.01def __init__(self, dims, numOfBoids, numOfEpochs):self.swarm_list &#61; [self.Particle(dims, -500, 500) for i in range(numOfBoids)]self.numOfEpochs &#61; numOfEpochsself.best_swarm_position &#61; np.random.uniform(low&#61;-500, high&#61;500, size&#61;dims)self.best_swarm_error &#61; 1e80 # Set high value to best swarm errordef optimize(self):for i in range(self.numOfEpochs):for j in range(len(self.swarm_list)):current_particle &#61; self.swarm_list[j] # get current particleVcurr &#61; grad_error(current_particle.position) # calculate current velocity of the particledeltaV &#61; self.w * Vcurr \&#43; self.c1 * (current_particle.best_part_pos - current_particle.position) \&#43; self.c2 * (self.best_swarm_position - current_particle.position) # calculate delta Vnew_position &#61; self.swarm_list[j].position - self.lr * deltaV # calculate the new positionself.swarm_list[j].setPos(new_position) # update the position of particleif error(new_position) < self.best_swarm_error: # check the position if it&#39;s best for swarmself.best_swarm_position &#61; new_positionself.best_swarm_error &#61; error(new_position)print(&#39;Epoch: {0} | Best position: [{1},{2}] | Best known error: {3}&#39;.format(i,self.best_swarm_position[0],self.best_swarm_position[1],self.best_swarm_error))pso &#61; PSO(dims&#61;2, numOfBoids&#61;30, numOfEpochs&#61;500)
pso.optimize()
总而言之&#xff0c;粒子群优化&#xff08;Particle Swarm Optimization&#xff09;模拟了鸟或鱼群的集体行为。它受益于自然界解决自身优化问题的方式&#xff0c;以最大限度地减少能量使用。自然的设计和原理在计算机科学问题上有很多出色的实际应用。
Nature-Inspired Optimization Algorithms: Particle Swarm Optimization Using Python
Implementing the Particle Swarm Optimization (PSO) Algorithm in Python