4

据我所知,NEAT(Augmenting Topologies的Neuroevolution)是一种使用进化概念来训练神经网络的算法。另一方面,强化学习是一种机器学习,具有“奖励”更多成功节点的概念。NEAT vs增强学习

这两个字段之间有什么区别,因为它们看起来很相似?或者NEAT来自强化学习?

回答

5

总之,他们几乎没有什么共同点。

NEAT是进化方法。这是优化功能的黑匣子方法。在这种情况下 - 神经网络(可以很容易地测量)的性能。到它的架构(你在进化过程中改变它)。

强化学习是关于代理人,学习政策在环境中表现良好。因此他们解决了不同的,更复杂的问题。从理论上讲,你可以学习使用RL的NEAT,因为你可能会提出“给定一个神经网络作为一个状态,学习如何修改它以获得更好的性能”。关键的区别将是 - NEAT输出是一个网络,RL输出是策略,算法的策略。在某些环境中可以多次使用的东西,采取行动并获得奖励。

+1

两种方法都非常不同,正如您所说,通常在不同的环境中使用。但强化学习并不一定能解决更多“复杂”的问题(参见:https://arxiv.org/pdf/1703.03864.pdf) – Pablo