Skip to content

stared/falenty-gpt

Repository files navigation

GPT od podstaw

Warsztaty w ramach Funduszu Zdolni (30 kwietnia - 2 maja 2026).

Materiały i inspiracje

Dane

Modele Markowa

Tworzymy GPT od podstaw

Wszystkie obecne wiodące AI to sztuczne sieci neuronowe opierające się na architekturze transformerów. W trakcie warsztatów i Ty możesz wytrenować miniaturową wersję Generative Pre-trained Transformer (GPT).

Będzie trochę teorii (o tym, że propagacja wsteczna to zwykłe różniczkowanie przez części, oraz co robi "entropia" i "temperatura"), ale głównie skupimy się na pisaniu i śledzeniu kodu w Pythonie (wcześniejsza znajomość nie jest wymagana).

Zobaczymy, co uda się nam zrobić w 3 dni - może wygenerować nazwy miejscowości, zaklęć i potworów? A może i dojść do poziomu GPT-2, najlepszej sieci z 2019 roku?

Plan warsztatów

Dzień 1

  • Co się dzieje, jak piszemy w czasie rzeczywistym?
  • Next token prediction (przewidywanie kolejnego tokenu)
  • Tokenizator
  • Ile historii model potrzebuje?
  • A może łańcuchy Markova?

Dzień 2

  • Encoding (kodowanie)
  • Sieć neuronowa (regresja logistyczna)
  • Sieć dwuetapowa (jeśli zdążymy)
  • Jak uczymy model?
  • Co to jest transformer?
  • Przygotowanie danych

Dzień 3

  • Trenujemy model

Wymagania i środowisko (How)

  • Laptop (narzędzie uv + Python)
  • Jupyter Notebook
  • Opcjonalnie: Google Colab lub Lightning.ai

Kluczowe spostrzeżenia (Insights)

  • It's all text (wszystko sprowadza się do tekstu)
  • Pretraining vs conversational models
  • Na ile się uczysz?

Bonus

  • Wystawienie wytrenowanego modelu jako strony internetowej

About

No description, website, or topics provided.

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

 
 
 

Contributors