Alex Cann (leitender Entwickler) und
Mehdi Saeedi (KI-Leitung für ML basierte NPCs) von AMD stellen unter der Bezeichnung
AMD Schola neue Entwicklungsbibliotheken bzw. Frameworks
für die Unreal Engine vor.
Das Schola-Projekt bietet ein Toolkit bzw. Plugin für die Steuerung von Objekten in Unreal mittels
Reinforcement Learning (RL). Die Werkzeuge sollen dabei helfen Umgebungen zu erstellen und Agenten zu definieren die sich mit Python-basierten RL-Frameworks (z.B. Gym, RLLib oder Stable Baselines 3) nutzen lassen um
NPCs mit RL während des Spiels zu
steuern.
Schola soll dabei helfen RL-Algorithmen direkt in Spieleprojekte integrieren zu können indem es einen Brückenschlag zwischen Forschung und Spielentwicklung bietet, den Gamedevelopern einen einfachen standardisierten Zugang ermöglicht. Durch die Verbindung von Open-Source-RL-Bibliotheken (idR. Python) mit der Unreal Engine ermöglicht es Schola KI-Forschern und Spieleentwicklern das Gameplay einfach zu erweitern.
Der Vorteil durch AMD Schola liegt in der Unterstützung zweier populärer Open-Source-RL-Bibliotheken (
RLlib und
Stable-Baselines3) sowie der
Gymnasium-API*. Entwicklern, die mit diesen Tools vertraut sind, bietet es dadurch die Möglichkeit zur Integration mehrerer RL-Bibliotheken bei unmittelbarer Kompatibilität mit der Unreal Engine. Alle Trainings, Tests und Fehlerbehebungen können direkt im Unreal-Engine-Ökosystem durchgeführt werden.
Schola bietet für die Unreal Engine:
- Tools für die Verbindung und Steuerung von Agenten mit ONNX-Modellen, Inferencing mit/ohne Python
- einfache Schnittstellen zur Entwicklung von RL-Umgebungen
- Unterstützung beim Aufbau wiederverwendbarer Sensoren und Aktoren
- Multi-Agenten-Umgebungen mit mehrere Agenten die konkurrierrend ausgeführt werden
- Mehrfache Kopien einer Umgebung innerhalb desselben UE-Prozesse um das Training zu beschleunigen
- Training ohne Rendering um den Trainingsdurchsatz deutlich zu erhöhen
Erste
Codebeispiele bieten Lösungsansätze für NPCs in Labyrinten, bei Verfolgungsjagdten, oder beim Zielen-und-Schiessen.
Empfohlen werden Unreal Engine ab 5.4.4 sowie Python ab 3.9.19.
Mit der Veröffentlichung kommt man noch Microsofts DirectX Team bei
Neural Rendering zuvor und bietet ebenso der
Amethyst Initiative eine Vorlage.
*Fussnote: OpenAI Gym als Vorläufer durch Gymnasium der Farama Foundation abgelöst.