Skip to content
/ QL24 Public

Q-learning tutorial for INF100 spring semester 2024. This is a modified version containing only the Q-learning part.

Notifications You must be signed in to change notification settings

odinhg/QL24

Repository files navigation

Tutorial: Løs labyrint med Q-læring 🤖

Vi skal nå utvide programmet vårt fra forrige uke slik at agenten lærer seg å løse labyrinten ved hjelp av Q-læring, en form for forsterkende læring (reinforcement learning).

Det ferdige prosjektet kan se noe slikt ut:

Animert eksempel som viser det ferdige prosjektet.

Den oransje ruten er agenten vår som prøver å finne fram til den blå målruten. Når vi starter programmet så har agenten ingen kunnskap om labyrinten. Gjennom å utforske labyrinten, samler agenten gradvis erfaring og blir til slutt ekspert på å finne målet (eller målene).

Kunnskapen agenten lærer lagres i en såkalt Q-tabell som representerer verdien av å utføre en spesifikk handling (gå venstre, høyre, opp eller ned) i en gitt tilstand (agentens posisjon).

Agenten mottar tilbakemelding på sine handlinger via en belønningsfunksjon. For eksempel, å gå inn i veggen gir en sterk negativ belønning. Å nå målruten gir en sterk positiv belønning. Å gå til en ny åpen rute gir en svak negativ belønning (siden vi vil at agenten skal lære seg å finne den raskeste veien til målet).

Innhold

💻 Tutorial

  1. Før du begynner (start her)
  2. Resett agenten
  3. Styr hastigheten
  4. Opprett Q-tabell
  5. Belønningsfunksjonen
  6. Lag variabler
  7. Høyeste Q-verdi
  8. Retning med høyeste Q-verdi
  9. ε-grådig strategi
  10. Q-læringsalgoritmen

Når du er ferdig med alle delene, kan du ta en titt på listen nedenfor dersom du ønsker å forbedre programmet ditt.

📒 Slides

Gå til slides om Q-læring.


Utvidelser

Her er en liste over forslag til mulige forbedringer og eksperimenter du kan velge å implementere:

  • Prøv forskjellige verdier av læringsparametrene $\alpha$, $\gamma$ og $\epsilon$.
  • Automatisk resett agenten dersom den bruker for mange steg uten å nå en målrute.
  • La agenten gå diagonalt (utvid $\mathcal{A}$ med fire nye retninger).
  • Prøv å ha flere enn bare én målrute i labyrinten.
  • Lag fin grafikk.
  • Lag en labyrintgenerator som automatisk lager en løsbar labyrint...
  • ...eller lag et eget program for å tegne labyrinter.
  • Lag nye rutetyper. For eksempel, lag en bomberute som gir stor negativ belønning og resetter agenten.
  • Tegn en pil i de åpne rutene som peker i den retningen som har høyest Q-verdi (se hvordan pilene endrer seg under trening).
  • Start med en tom Q-tabell og legg til tilstander ved behov. Med andre ord, start med en Q-tabell som kun inneholder en rad for startposisjonen agent_pos og utvid Q-tabellen når agenten utforsker en nye ruter.
  • Utforsk dyp Q-læring (Deep Q-learning) hvor vi erstatter Q-tabellen med et nevralt nettverk. Se for eksempel her (link) og her (link).

Eksempel/inspirasjon:

Animert eksempel som viser en forbedret versjon.

About

Q-learning tutorial for INF100 spring semester 2024. This is a modified version containing only the Q-learning part.

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages