Bestärkendes Lernen als Teilgebiet des Maschinellen Lernens.-Grundbegriffe des Bestärkenden Lernens.-Optimale Entscheidungen in einem bekannten Umweltsystem.-Dynamische Programmierung.- rekursive Tiefensuche.-Entscheiden und Lernen in einem unbekannten Umweltsystem.-Q- und Sarsa Learning, Eignungspfade, Dyna-Q.-Policy Gradient und Actor Critic.- Monte Carlo-Evaluationen und Monte Carlo-Baumsuche (MCTS).-Künstliche neuronalen Netze als Schätzer für Zustandsbewertungen und Handlungspreferenzen.-Werden digitale Agenten bald intelligenter als Menschen sein?.-Leitbilder in der K.I..
Nach seinem Studium der Informatik und Philosophie mit Schwerpunkt künstliche Intelligenz und maschinelles Lernen an der Humboldt-Universität in Berlin und einigen Jahren als Projektingenieur ist Uwe Lorenz derzeit als Gymnasiallehrer für Informatik und Mathematik tätig. Seit seinem Erstkontakt mit Computern Ende der 80er Jahre hat ihn das Thema Künstliche Intelligenz nicht mehr losgelassen.
In uralten Spielen wie Schach oder Go können sich die brillantesten Spieler verbessern, indem sie die von einer Maschine produzierten Strategien studieren. Robotische Systeme üben ihre Bewegungen selbst. In Arcade Games erreichen lernfähige Agenten innerhalb weniger Stunden übermenschliches Niveau. Wie funktionieren diese spektakulären Algorithmen des bestärkenden Lernens? Mit gut verständlichen Erklärungen und übersichtlichen Beispielen in Java und Greenfoot können Sie sich die Prinzipien des bestärkenden Lernens aneignen und in eigenen intelligenten Agenten anwenden. Greenfoot (M.Kölling, King’s College London) und das Hamster-Modell (D.Bohles, Universität Oldenburg) sind einfache aber auch mächtige didaktische Werkzeuge, die entwickelt wurden, um Grundkonzepte der Programmierung zu vermitteln. Wir werden Figuren wie den Java-Hamster zu lernfähigen Agenten machen, die eigenständig ihre Umgebung erkunden.
Der Inhalt
Bestärkendes Lernen als Teilgebiet des Maschinellen Lernens
Grundbegriffe des Bestärkenden Lernens
Optimale Entscheidungen in einem bekannten Umweltsystem – dynamische Programmierung – rekursive Tiefensuche
Entscheiden und Lernen in einem unbekannten Umweltsystem – Monte Carlo-Evaluationen und Monte Carlo-Baumsuche (MCTS) – Q- und Sarsa Learning, Eignungspfade, Dyna-Q
– Policy Gradient und Actor-Critic
neuronale Netze als Schätzer für Zustandsbewertungen und Aktionspreferenzen
Werden digitale Agenten bald intelligenter als Menschen sein?
Leitbilder in der K.I.
Die Zielgruppen
Fortbildung für Lehrkräfte, Dozenten, die Einblicke in die Programmierung von lernfähigen Agenten bekommen möchten
Techniker, Informatiker, die ML-Algorithmen besser verstehen wollen
Programmierer, die Lernalgorithmen selbst implementieren wollen
Schüler oder Studierende, die sich mit maschinellem Lernen und intelligentenAgenten beschäftigen
Der Autor
Uwe Lorenz ist nach seinem Studium der Informatik und Philosophie mit Schwerpunkt künstliche Intelligenz und maschinelles Lernen an der Humboldt-Universität in Berlin und einigen Jahren als Projektingenieur derzeit als Gymnasiallehrer für Informatik und Mathematik tätig, – seit seinem Erstkontakt mit Computern Ende der 80iger Jahre hat ihn das Thema Künstliche Intelligenz nicht mehr losgelassen.