Bu video, Büyük Dil Modellerinin (LLM) temel bileşenlerini, tokenization, embedding ve attention mekanizmasını detaylıca açıklar.
Key Takeaways
- LLM'ler metinleri tokenlara bölerek işler ve bu tokenlar üzerinden tahmin yapar.
- Attention mekanizması, kelimeler arasındaki ilgiyi hesaplayarak bağlam oluşturur.
- Dil, yapısal olmayan veri olarak sayısal forma embedding ile dönüştürülür.
- Transformer mimarisi, LLM'lerin temelini oluşturur ve bağlam penceresi önemlidir.
- Halüsinasyon gibi problemler modelin çalışma mekanizmasıyla ilişkilidir.
Summary
- Büyük Dil Modellerinin (LLM) anatomisi ve çalışma prensipleri anlatılıyor.
- Tokenization kavramı ve metinlerin küçük parçalara bölünmesi süreci açıklanıyor.
- Embedding ile metinlerin bilgisayarın anlayacağı sayısal forma dönüştürülmesi ele alınıyor.
- Attention mekanizmasının LLM'lerdeki önemi ve 'Attention is all you need' makalesinin etkisi vurgulanıyor.
- Transformer mimarisinde kelimeler arasındaki bağlam ve ilgi yapısı detaylandırılıyor.
- Parametre sayısı ve halüsinasyon problemleri teknik açıdan ele alınıyor.
- Dil ve dilin yapısal olmayan veri olarak bilgisayar tarafından işlenmesi konusu işleniyor.
- Token boyutlarının ve sayısının teknolojik gelişmelerle nasıl değiştiği anlatılıyor.
- Bağlam penceresi (context window) kavramı ve LLM'lerdeki rolü açıklanıyor.
- Güncel LLM örnekleri ve günlük hayatta nasıl çalıştıkları hakkında bilgiler veriliyor.











