Ako fungujú transformery, attention mechanizmus a tokenizácia
Pochopiť architektúru transformerov, self-attention mechanizmus (Q/K/V matice), multi-head attention, positional encoding a tokenizáciu (BPE). Toto je základ všetkého čo príde.
Najlepšia vizuálna explainécia attention mechanizmu. Začni tu.
videoKlasická referencia. Vizuálny walkthrough celej transformer architektúry.
articleFree hands-on kurz s kódom. Transformers internals od Hugging Face.
courseFree short course od Andrew Ng's tímu. Buduje intuíciu s code examples.
courseBuildni BPE tokenizer from scratch. Lecture notes sú zlato.
hands-onBuildni BPE tokenizer from scratch.