June 2020
Intermediate to advanced
768 pages
22h 23m
German
Im letzten Kapitel haben Sie die Bellman-Gleichung und ihre praktische Anwendung namens Wertiteration kennengelernt. Dieser Ansatz hat es uns ermöglicht, die Geschwindigkeit und Konvergenz in der FrozenLake-Umgebung beträchtlich zu verbessern. Das ist vielversprechend, aber geht da noch mehr?
In diesem Kapitel werden wir versuchen, den gleichen Ansatz auf sehr viel komplexere Aufgaben anzuwenden, nämlich auf Computerspiele für die Spielkonsole Atari 2600, die der De-facto-Benchmark in der RL-Forschung sind.
Zwecks Inangriffnahme dieses anspruchsvolleren Ziels werden wir uns in diesem Kapitel mit folgenden Themen befassen:
Erörterung der Probleme bei der Wertiteration und einer Variante namens Q-Learning
Anwendung von ...