Week 1 · Day 1/30

LLM Fundamentals

Ako fungujú transformery, attention mechanizmus a tokenizácia

📅 2026-03-04 ⏱️ 5-6 hodín 📊 Foundations & RAG
LLM Fundamentals — Neural network visualization
Celkový progres 3%

🎯 Cieľ dňa

Pochopiť architektúru transformerov, self-attention mechanizmus (Q/K/V matice), multi-head attention, positional encoding a tokenizáciu (BPE). Toto je základ všetkého čo príde.

theory core fundamentals

📚 Study Resources

🎬

3Blue1Brown — Attention in Transformers, Visually Explained

Najlepšia vizuálna explainécia attention mechanizmu. Začni tu.

video
📖

The Illustrated Transformer — Jay Alammar

Klasická referencia. Vizuálny walkthrough celej transformer architektúry.

article
🤗

Hugging Face LLM Course — How Do Transformers Work?

Free hands-on kurz s kódom. Transformers internals od Hugging Face.

course
🎓

DeepLearning.AI — How Transformer LLMs Work

Free short course od Andrew Ng's tímu. Buduje intuíciu s code examples.

course
🔧

Andrej Karpathy — minBPE Tokenizer from Scratch

Buildni BPE tokenizer from scratch. Lecture notes sú zlato.

hands-on

💡 Key Concepts

Transformer Architecture — Encoder-decoder štruktúra, prečo nahradila RNNs/LSTMs (paralelizácia, long-range dependencies)
Self-Attention — Query, Key, Value matice; scaled dot-product attention; ktoré tokeny sa 'pozerajú' na ktoré
Multi-Head Attention — Viacero attention operácií paralelne (GPT-3 má 96 hláv na blok) — zachytávajú rôzne typy vzťahov
Positional Encoding — Ako transformery vedia poradie slov, keď spracúvajú všetky tokeny súčasne
Tokenizácia (BPE) — Subword tokenizácia, Byte Pair Encoding, prečo bugy v tokenizéri spôsobujú problémy v LLM
Embeddings — Ako sa slová stávajú vysoko-dimenzionálnymi vektormi nesúcimi sémantický význam

🔧 Praktické cvičenie

Buildni BPE tokenizer from scratch.

  1. Klonuj karpathy/minbpe, prečítaj lecture.md
  2. Implementuj basic BPE algoritmus v Pythone
  3. Natrénuj ho na malom textovom korpuse
  4. Porovnaj output s OpenAI tiktoken na rovnakom texte
  5. Pozoruj ako sa rôzne texty splitujú rôzne