毕节市网站建设_网站建设公司_Angular_seo优化
2026/1/9 20:25:22 网站建设 项目流程

基于遗传算法的最优化求解问题 其通过遗传算法对简单的多元函数求极值问题进行优化求解,得到了最优解和迭代收敛曲线 代码通用性很好 很适合小白入门

今天咱们来聊聊怎么教计算机自己找答案——这事儿听着玄乎,其实用遗传算法就能轻松搞定。举个栗子,假设我们要找函数f(x,y)=x²+y²的最小值,人类肉眼一看就知道在(0,0)处,但计算机可不会代数运算,这时候就该让基因进化大法上场了。

先准备个种群,就像养鱼塘放鱼苗:

import numpy as np def create_population(size, dim, lbound, rbound): return np.random.uniform(lbound, rbound, (size, dim))

这函数生成了20条染色体(解),每条有x,y两个基因,取值范围定在-10到10。好比在鱼塘里随机撒下不同品种的鱼苗,等着看哪些能适应环境。

接下来是适者生存环节:

def fitness(individual): return -sum(individual**2) # 求最小值转换为求负数的最大值 def selection(pop, fitnesses, elite_size=4): elite_indices = np.argsort(fitnesses)[-elone_size:] return pop[elite_indices]

这里有个骚操作:把求最小值转换成求负数的最大值。选择阶段就像选美比赛,表现最好的前4名直接晋级,保留下优质基因。

重点来了——交配和变异:

def crossover(parent1, parent2): cross_point = np.random.randint(1, len(parent1)) return np.hstack((parent1[:cross_point], parent2[cross_point:])) def mutate(individual, mutation_rate=0.1): mask = np.random.rand(len(individual)) < mutation_rate individual[mask] += np.random.normal(0, 0.5, sum(mask)) return individual

交叉操作像父母各剪一段基因拼接成新个体,变异则是随机给某些基因加点噪声。注意变异幅度用正态分布,这样既不会突变太猛也不会完全不变,比固定步长聪明多了。

整套进化流程封装成:

def genetic_algorithm(func, dim=2, iter_num=50): pop = create_population(20, dim, -10, 10) best_values = [] for _ in range(iter_num): fitnesses = np.array([func(ind) for ind in pop]) elites = selection(pop, fitnesses) selected = elites.copy() while len(selected) < 20: parents = elites[np.random.choice(len(elites), 2, replace=False)] child = crossover(*parents) child = mutate(child) selected = np.vstack((selected, child)) pop = selected best_values.append(-np.max(fitnesses)) # 转换回原函数值 return best_values

迭代过程中始终保持种群数量稳定,每一代都保留精英并补充新血。记录最优解的变化趋势,方便后续画收敛曲线。

跑完50代后画个进化轨迹:

import matplotlib.pyplot as plt history = genetic_algorithm(fitness) plt.plot(history, 'g', linewidth=2) plt.title('进化过程曲线') plt.xlabel('迭代次数') plt.ylabel('函数值') plt.show()

你会发现曲线像滑梯一样往下溜,最后稳稳停在0附近。实际跑几次会发现,基本在10代以内就能找到精度1e-4级别的解,比随机搜索高效不止一个量级。

这套代码的妙处在于改个目标函数就能解决其他优化问题。比如把fitness函数改成sum(np.sin(individual)individual*2),立马变成求解震荡函数的最小值。参数调整也简单,种群规模、变异率、选择数量这些都可以根据问题复杂度灵活配置。

刚入门的同学可能会问:为什么不直接用梯度下降?问得好!遗传算法的优势在于:1)不依赖梯度信息,2)能跳出局部最优,3)特别适合离散/非线性问题。当然,计算量确实大些,但对于小白理解优化算法的本质,这可比推导数学公式直观多啦。

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询