Bu video, Generative AI modellerinin öğrenme süreçlerini pretraining, fine-tuning ve RLHF aşamalarıyla Türkçe olarak anlatıyor.
Key Takeaways
- Generative AI modelleri önceden büyük veri üzerinde eğitilerek (pretraining) hazırlanır.
- Fine-tuning ile modeller belirli görevler için ince ayar yapılabilir.
- RLHF, insan geri bildirimleriyle model performansını artıran önemli bir yöntemdir.
- LLM'ler, metin içindeki kelime tahminleriyle kendi kendine etiketleme yapabilir ve böylece etiketleme ihtiyacını azaltır.
- Model eğitimi yüksek maliyet ve enerji tüketimi gerektirirken, eğitilen modeller farklı amaçlarla kullanılabilir.
Summary
- Generative AI video serisinin 6. videosu olup, modellerin nasıl eğitildiği ve çalışma sistematiği anlatılıyor.
- Pretraining (ön eğitim), fine-tuning (ince ayar) ve RLHF (Reinforcement Learning with Human Feedback) kavramları detaylandırılıyor.
- GPT ve Transformer mimarisi gibi temel terimler ve yapay zekanın çalışma prensipleri açıklanıyor.
- Supervised (gözetimli) ve unsupervised (gözetimsiz) öğrenme türleri ve etiketleme süreçleri örneklerle anlatılıyor.
- LLM'lerin (Large Language Models) kendi içinde veri etiketlemesi yapabilme başarısı vurgulanıyor.
- Model eğitimi sırasında GPU kullanımı, maliyetler ve enerji tüketimi gibi teknik detaylar paylaşılıyor.
- Pre-trained modellerin ne olduğu ve open source modellerin kullanımı hakkında bilgi veriliyor.
- Self-supervised öğrenme kavramı ve gözetimli/gözetimsiz öğrenmenin farkları açıklanıyor.
- Model eğitimi ile kullanım zamanının farklı süreçler olduğu belirtiliyor.
- Veri etiketleme maliyetlerinin azaltılması ve insan geri bildirimlerinin önemi üzerinde duruluyor.











