GenAI 6: Yapay Zeka Nasıl Öğrenir? 3 Temel Aşama (Pretr… — Transcript

Bu video, Generative AI modellerinin öğrenme süreçlerini pretraining, fine-tuning ve RLHF aşamalarıyla Türkçe olarak anlatıyor.

Key Takeaways

  • Generative AI modelleri önceden büyük veri üzerinde eğitilerek (pretraining) hazırlanır.
  • Fine-tuning ile modeller belirli görevler için ince ayar yapılabilir.
  • RLHF, insan geri bildirimleriyle model performansını artıran önemli bir yöntemdir.
  • LLM'ler, metin içindeki kelime tahminleriyle kendi kendine etiketleme yapabilir ve böylece etiketleme ihtiyacını azaltır.
  • Model eğitimi yüksek maliyet ve enerji tüketimi gerektirirken, eğitilen modeller farklı amaçlarla kullanılabilir.

Summary

  • Generative AI video serisinin 6. videosu olup, modellerin nasıl eğitildiği ve çalışma sistematiği anlatılıyor.
  • Pretraining (ön eğitim), fine-tuning (ince ayar) ve RLHF (Reinforcement Learning with Human Feedback) kavramları detaylandırılıyor.
  • GPT ve Transformer mimarisi gibi temel terimler ve yapay zekanın çalışma prensipleri açıklanıyor.
  • Supervised (gözetimli) ve unsupervised (gözetimsiz) öğrenme türleri ve etiketleme süreçleri örneklerle anlatılıyor.
  • LLM'lerin (Large Language Models) kendi içinde veri etiketlemesi yapabilme başarısı vurgulanıyor.
  • Model eğitimi sırasında GPU kullanımı, maliyetler ve enerji tüketimi gibi teknik detaylar paylaşılıyor.
  • Pre-trained modellerin ne olduğu ve open source modellerin kullanımı hakkında bilgi veriliyor.
  • Self-supervised öğrenme kavramı ve gözetimli/gözetimsiz öğrenmenin farkları açıklanıyor.
  • Model eğitimi ile kullanım zamanının farklı süreçler olduğu belirtiliyor.
  • Veri etiketleme maliyetlerinin azaltılması ve insan geri bildirimlerinin önemi üzerinde duruluyor.

Full Transcript — Download SRT & Markdown

00:05
Speaker A
Merhaba, bu video Generative AI video serisinin 6. videosuyla beraberiz.
00:08
Speaker A
Aslında Generative AI'ın da yani bu video serisinin de kendi içinde modüllerini yapmıştık.
00:15
Speaker A
İlk modülü bir önceki videomuzda, 5. videomuzda bitirdik.
00:18
Speaker A
Bu modülümüzde ise ikinci modüle aslında bu videoyla başlıyoruz.
00:21
Speaker A
Toplamda 4 modülden ve 20 videodan oluşan bir seri hazırladık, planladık ve 6. videomuzu çekiyoruz.
00:28
Speaker A
Bu videoda tabii artık ikinci modülle birlikte modellerin nasıl eğitildiğini, arkadaki çalışma sistematiğini anlatmaya çalışacağız.
00:36
Speaker A
Generative AI tamam güzel, biz kullanıyoruz, bir şeyler de üretiyor bu yapay zeka ama nasıl üretiyor, arkada modeller nasıl çalışıyor, oradaki terminolojiler, yaklaşımlar, felsefeler, güncel gelişmeler neler?
00:49
Speaker A
Biraz onlardan bahsetmeye çalışacağız.
00:51
Speaker A
Bu videomuzda yani 6. videomuzda modeller nasıl öğrenir sorusuyla yola çıkıyoruz.
00:54
Speaker A
Bu pre-trained, fine-tuning ve RLHF yani Reinforcement Learning Human Feedback gibi kavramları biraz anlatmaya çalışacağız.
01:00
Speaker A
Bunların da Türkçelerini verelim tabii biraz Türkçeden de oturması önemli, bir de videoları Türkçe çekiyoruz günün sonunda Türkçelerini anlatmak lazım.
01:07
Speaker A
Pre-trained ön eğitimini demek, yani önceden eğitilmiş demek.
01:10
Speaker A
Fine-tuning ince ayar diye Türkçeye çevrilebilir.
01:12
Speaker A
RLHF ise Reinforcement Learning Human Feedback ise arttırımlı veya pekiştirmeli öğrenme diye çevriliyor Reinforcement Learning, Human Feedback ise insan geri beslemesi, insan tepkisi, insan cevabı şeklinde düşünülebilir.
01:20
Speaker A
Şimdi yapıyı şöyle düşünelim, kavramları biraz kafamızda oturtabilmek için.
01:22
Speaker A
Mesela GPT diyoruz değil mi? Chat GPT diye bir şey var, markalaştı.
01:24
Speaker A
Chat GPT'nin GPT'si yani GPT diye yazılan şey Generative Pre-trained Transformer'ın kısaltılmışı.
01:30
Speaker A
Yani üretken, Generative üretken demek, üretken ön eğitimli, önceden eğitilmiş, daha önceden hazırlanmış bir Transformer.
01:35
Speaker A
Transformer yapısı da bizim derin öğrenmedeki bir derin öğrenme modeli, derin öğrenme şekli, tekniği diyelim.
01:39
Speaker A
Bunları tabii derin öğrenme videolarında falan detaylı anlatıyoruz ama burada giriş seviyesinde dolayısıyla Chat GPT dediğinizde üretken, önden eğitilmiş, daha önceden hazırlanmış bir Transformer derin öğrenme mimarisinden bahsediyoruz demektir.
01:47
Speaker A
Burada biraz bu modellerin ne olduğunu anlatmaya çalışacağız, bunların altyapısını anlatmaya çalışacağız, nasıl çalıştığını anlatmaya çalışacağız.
01:51
Speaker A
Kabaca bir LLM'in yani önden eğitilmesi ne demektir, bir LLM'i önceden eğitmek, onu hazırlamak ne demektir?
01:56
Speaker A
Bir LLM'in nasıl veriyi ürettiği, üretim sisteminin nasıl çalıştığı ve bu üretim sürecinde işte self-supervised.
02:00
Speaker A
Şimdi bizim yapay zeka ikiye ayrılıyor, bir supervised bir de unsupervised diye, yani gözetimli veya denetimli diye çeviriyorlar supervised'ı, unsupervised'ı da gözetimsiz veya denetimsiz diye çevriliyor.
02:05
Speaker A
Ne demek? Supervised learning'de, gözetimli öğrenmede yapay zeka bir uzmandan, bir işi bilenden, etiketli bir veriden öğreniyor.
02:09
Speaker A
Bu işi bilen kişi illaki insan olmak zorunda değil, yani etiketleme süreci bir insan tarafından da yapılabilir.
02:13
Speaker A
İnsan bu etiketleme sürecini yaptığı zaman ne yapmış oluyoruz?
02:16
Speaker A
Artık insanın uzmanlığını öğrenmiş oluyoruz.
02:18
Speaker A
Veya insan etiketlemez de başka bir etiketleme sistemi bulabiliriz.
02:20
Speaker A
Kaldı ki GPT'lerde mesela etiketleme nasıl yapılıyor?
02:24
Speaker A
Bir cümledeki kelimeden oraya kadar olan kelimelerden sonra hangi kelime gelebilir?
02:28
Speaker A
Bu bir etiketleme sistemi, gene insanın kurmuş olduğu cümleler ama oradan bir etiketleme sistemi yapılıyor.
02:31
Speaker A
Veya diyelim ki bir müşteri davranışını etiketlemek istiyorsunuz, bu nasıl olabilir?
02:33
Speaker A
Bir müşteriyle ilgili veriyi verip insana al bunları etiketle diyebiliriz, data labeling deniyor buna etiketleme.
02:37
Speaker A
Mesela bak buna uzman olarak bu kişi alır mı almaz mı, uzman görüşünü söyle, alır almaz orada etiketliyor, bu bir etiketleme olabilir.
02:41
Speaker A
Veya direkt şunu yapabilirsiniz, bu verileri verirsiniz günün sonunda müşteri almış mı almamış mı?
02:44
Speaker A
Yani hiçbir uzmana ihtiyaç duymadan, uzmanın etiketlemesine ihtiyaç duymadan belki de sistemin kendi içinde etiketlemeler de çıkartılabilir ki biz bunu daha çok severiz.
02:51
Speaker A
Çünkü o sistemin çalışmasıyla ilgili veriyi sistemin kendisinden topluyorsunuz.
02:54
Speaker A
Ayrıca bir etiketleme sürecinden geçirmiyorsunuz.
02:56
Speaker A
Dolayısıyla bu GPT'lerin de en büyük başarılarından birisi, şu anki LLM'lerin, Large Language Modellerin, büyük dil modellerinin en büyük başarılarından bir tanesi aslında veri etiketlemeye ihtiyaç duymadan metnin kendi içindeki bu tekrar kelimelerini tahmin eden bir etiketleme sistemi üstüne inşa edilmesi.
03:03
Speaker A
Bunu bir kere yaptıktan sonra insanlığın yazmış olduğu bütün verileri zaten biz LLM'lerin eğitimi için kullanabilecek hale geliyoruz.
03:05
Speaker A
Akselde ne olacaktı?
03:06
Speaker A
Her etiketleme için bir insan tutacaktık.
03:07
Speaker A
Hala daha görüntü işlemede buna benzer sıkıntılar var.
03:09
Speaker A
Görüntü işlemede işte burada bir pizza var mı yok muyu etiketlemeniz, burada bisiklet var mı yok mu, burada araba var mı yok mu etiketlemeniz gerekiyor.
03:14
Speaker A
Bunun için de değişik teknikler geliştirdi, işte mesela kapçaları bilirsiniz, bir web sitesine girerken işte trafik işareti gördüğün yerleri işaretle.
03:20
Speaker A
Ne bileyim itfaiye musluğu gördüğün yerleri işaretle, yangın musluğu gördüğün yerleri işaretle filan gibi işleri insanlara yaptırtarak belki oradan etiketlenmiş veriler toplanarak da sistemin kendi içinde yani kendi kendine ayakta duran, bunun için para ödenmeyen, ayrıca etiketleme maliyeti olmayan yapılar kurmaya çalıştılar ama bir yere kadar tabii insan etiketlemesi gidiyor, daha güzeli sistemin kendi kendine veriyi etiketlediği yapılar inşa edebilmek.
03:30
Speaker A
Şimdi bu yapılara baktığımızda tabii LLM'ler pre-trained modeller.
03:32
Speaker A
Ne oluyor? İşte GPT gibi, Gemini gibi, Copilot gibi sistemleri düşünün.
03:35
Speaker A
Bunlar bir makinede GPU'ları yakılarak ve verileri, etiketli verileri yüklenerek bir sonuca, eğitilmiş bir modele geliyor.
03:40
Speaker A
Şimdi yapay zekada gene daha önceki videolarımızda da geçti ama bir kere daha burada hatırlamakta fayda var.
03:43
Speaker A
Nedir? Bir eğitim zamanımız var, modeli eğitiyorsunuz, sonra onu kullandığınız bir zaman var.
03:46
Speaker A
Mesela sorgu, modelle bir şeyler soruyorsunuz, kullanım zamanı.
03:48
Speaker A
Eğitimle kullanım farklı.
03:49
Speaker A
Eğitirken GPU'ların üstüne çok ciddi maliyet bu tabii derin öğrenme olduğu için GPU daha çok tercih ediliyor.
03:56
Speaker A
Bunların üstüne ciddi bir maliyet yakılıyor, zaman olarak maliyet, onun yaktığı elektrik olarak maliyet, onun yatırım maliyeti, GPU'nun satın alma maliyeti bunları düşündüğünüzde bir maliyet yakılıyor, ortaya bir model çıkıyor.
04:02
Speaker A
Bu çıkan modeli sonra sohbet etmek için kullanıyorsunuz, bir soru sormak için kullanıyorsunuz, pazarlama için neyse artık amacınız onun için kullanıyorsunuz.
04:06
Speaker A
Bu sürecin tamamına baktığımızda bir LLM'in önce eğitilmesi, sonra bu eğitilen modelin bir sürü farklı yerde kullanılması söz konusu.
04:10
Speaker A
Mesela şu anda open source modeller var.
04:12
Speaker A
OpenAI'ın da değil mi OSS'i çıktı, Qwen var, farklı farklı open source modeller var.
04:14
Speaker A
Bu modeller birileri eğitmiş, hazırlamış bir dosya halinde internette duruyor.
04:19
Speaker A
Onu indirip kendi bilgisayarınızda veya bir sunucuda kurabiliyorsunuz.
04:22
Speaker A
İşte bu indirdiğiniz modele biz pre-trained model diyoruz, önden eğitilmiş model.
04:25
Speaker A
Onu eğitirken bir maliyet yakılmış, onunla ilgili veriler toplanmış, bu bir maliyet, etiketlemeleri yapılmış gerekiyorsa ve sonrasında donanımı yakılmış, hem veri maliyeti hem donanım maliyeti var, çalışma maliyeti var, bunlar yapıldıktan sonra da sistem ortaya çıkmış.
04:31
Speaker A
Bu yapının tamamına pre-trained model deniliyor.
04:33
Speaker A
Ve burada aslında bizim yapmak istediğimiz şey ne? Bunun kendi kendine öğrenen bir yapıya geçmesi, self-supervised.
04:37
Speaker A
Yani supervised learning, unsupervised learning var demiştik, gözetimli öğrenme, bir insan tarafından gözetimi olan, bir de gözetimsiz öğrenme var, orada da amaçta bir gözetimli sonuç yok, yani bilinmeyen bir sonuç var.
04:44
Speaker A
Dolayısıyla bu gözetimsiz öğrenme sürecinden çıkan sonuçlar mesela nedir? Segmentasyon, müşteri segmentasyonu, kaç segment var başta belli değil, kimin hangi segmentte olduğu başta belli değil, unsupervised learning süreci gidiyor.
04:52
Speaker A
Unsupervised learning kendi başına giderken sonucu çok net değilken, bir sonuç da netleşmesi istenmezken, şimdi self-supervised diye bir kavramdan bahsediyoruz.
05:00
Speaker A
Ne demek? Kendi kendine ne kadar doğru öğrendiğini ölçebilecek, kendi kendine kanaat getirebilecek, iyi mi gidiyorum kötü mü gidiyorum, buna baktığımız bir yapıya gitmek istiyoruz.
05:06
Speaker A
Ve burada tabii insan geri beslemesinden de beslenen yapılarımız var.
05:09
Speaker A
Bu DPO, PPO, GDPO değişik tekniklerden bahsettik, bunları ilerleyen derslerde göreceğiz, ileri derslerimizde var.
05:14
Speaker A
Daha çok policy optimization'la ilgili kavramlar bunlar, yani bir yapay zekanın ne zaman kendini güncelleyeceği, güncellerken kime güveneceği, nasıl güveneceği gibi kavramları anlattığımız farklı algoritmalar burada var, farklı teknikler var.
05:20
Speaker A
Bunları da söylemiş olalım bu giriş videosunda.
05:22
Speaker A
Peki, bir analoji olarak düşünecek olursak, kütüphane örneği, işte diyelim ki bir kütüphanemiz var.
05:25
Speaker A
Bu kütüphanede bir yapay zekayı eğitiyorsunuz.
05:27
Speaker A
Bir çocuk gibi düşünelim yapay zekayı, kütüphanedeki bütün kitapları okudu.
05:29
Speaker A
Yani aslında ne yaptık biz? İnsanlığın yazmış olduğu bütün yazılı kaynakları yapay zekaya verdik, al bunları oku dedik.
05:33
Speaker A
Okudu bizim çocuğumuz, yapay zekamız.
05:35
Speaker A
Sonrasında da bu çocuğa biz soru-cevapla fine-tuning yapıyoruz.
05:38
Speaker A
Diyoruz ki bak sen tam okudun bunları da ne işe yarayacak bu okuduğun bilgiler?
05:41
Speaker A
Hepsini ezbere biliyor mesela diyelim ki yani öyle bir şey olsun, ne işe yarayacak?
05:43
Speaker A
Mesela soru cevaplamaya yarayacak.
05:44
Speaker A
O zaman soru vermemiz lazım adama.
05:45
Speaker A
Ben bir soru soracağım, o da bir cevap verecek.
05:47
Speaker A
Verdiği cevap o sorunun cevabı olmayabilir, yani sorunun nasıl cevaplanacağı da ayrıca öğrenilmesi gereken bir şey.
05:51
Speaker A
Bütün bilgileri biliyor olmak çok iyi soru cevaplayabileceği anlamına gelmez.
05:53
Speaker A
Hani öğretmenler için hep böyle benzetme yapılır ya, hoca çok iyi biliyor da anlatamıyor filan.
05:56
Speaker A
Yani bilmek ayrı bir şey, anlatabilmek ayrı bir şey.
05:58
Speaker A
Bilmek ayrı bir şey, soru cevaplamak ayrı bir şey.
06:00
Speaker A
Bilmek ayrı bir şey, sınıflandırma yapmak, bir metnin olumlu mu olumsuz mu olduğuna karar vermek ayrı bir şey.
06:03
Speaker A
Siz her şeyi biliyor olabilirsiniz ama onu aksiyona dönüştürme sırasında başka yeteneklerinizin de olması gerekir.
06:07
Speaker A
İşte fine-tuning tarafında da biz bu yetenekleri geliştiriyoruz.
06:12
Speaker A
Pre-training'de evet bir dili öğrettik, dildeki kelime akışını, hangi kelime hangi kelimeden sonra gelir bunları öğrettik.
06:17
Speaker A
Fine-tuning'de de bu sefer amacımıza yönelik olarak soru cevaplamaksa amacı soru cevaplamak, makale yazmaksa makale, kitap yazmaksa kitap yazmak.
06:22
Speaker A
Bu amaca yönelik olarak artık ona özel ders veriyoruz, soru cevaplarla ben sana bir soru soruyorum, tamam cevabını aldım, ha bak bu cevabı şöyle versen daha iyi olur gibi yönlendirmeler yapıyoruz.
06:28
Speaker A
İki cevap da doğru, üç cevap da doğru, verdiği cevapların hepsi doğru belki ama o cevabın nasıl verileceğiyle ilgili yönlendirmeler yapıyoruz, böylelikle daha iyiye, o bilgiyi daha doğru kullanmayla ilgili bir eğitimden geçmiş oluyor bizim çocuğumuz diyelim ki yapay zekamız.
06:36
Speaker A
Daha sonrasında da üçüncü aşamada ise artık RLHF başlıyor, yani Reinforcement Learning Human Feedback.
06:40
Speaker A
Burada insan geri beslemelerinden kendini geliştiren, sürekli pekiştiren bir öğrenmeye geçiyor.
06:44
Speaker A
Bunun da yapısını anlatacağız ama kabaca buradayken bahsedelim, nedir? Cevapları gösteriyor iki tane cevap, diyorum ki bu daha iyi veya üç tane cevap gösteriyor, sıralıyorum, en iyisi bu, ikincisi bu, üçüncüsü bu.
06:50
Speaker A
Artık nasıl bir teknik kullanıyorsanız, buna göre kendi içinde bir iyileştirme yaparak cevapların daha doğru olmasına çalışıyor, karar vermeye çalışıyor.
06:55
Speaker A
Teker teker bu aşamalardan geçelim şimdi, üç aşama dedik, ilkinde çocuğumuza bütün kütüphaneyi yüklüyoruz dedik, yapay zekayı bir çocuk olarak düşünecek olursak.
07:00
Speaker A
Ne yapıyoruz? Öncelikle bildiğimiz bütün veri kaynaklarını yükleyebiliriz.
07:02
Speaker A
Tabii burada veriyle ilgili bir sürü problem var, yani hangi veri yapay zeka kullanabilir, hangisini kullanamaz, kullanması uygundur?
07:06
Speaker A
Veri açık mıdır, o verinin üstünde telif hakkı var mıdır, birinin emeği midir o?
07:09
Speaker A
Mesela ilk eğitilen şeylere baktığımızda yapay zekalara baktığımızda Wikipedia'dan ciddi anlamda eğitildiler.
07:14
Speaker A
Bert gibi yöntemler, hala GPT vesaire, bunların ilk versiyonlarına baktığınızda makalelerden, akademik makalelerden, açık olan makalelerden eğitildiler.
07:20
Speaker A
E tabii orada telif problemleri de başladı değil mi? Benim makalemden eğitiyorsun, dünyanın milyar dolarlık şirketini kuruyorsun, benim de bunda hakkım olmalı diyen insanlar çıktı ki keza zannediyorum hepimizin orada bir emeği vardır.
07:24
Speaker A
Ben yıllardır Wikipedia'da iyi kötü bir şeyler yazmaya çalışıyorum.
07:27
Speaker A
Benim de emeğim vardır, başka insanların da emeği vardır, artı makalelerimiz, akademik yayınlarımız var, onlardan da faydalanmış olabilir.
07:31
Speaker A
O zaman hepimiz çıkıp burada bir hak sahibi miyiz gibi bir durum ortaya çıktı, burada bir talep ortaya çıktı.
07:35
Speaker A
Bu veriyle ilgili sahiplik problemi ciddi bir problem, artı verinin doğruluğu problemi var.
07:38
Speaker A
Şimdi şöyle düşünün, veriyi yüklediniz, tamam o bir cevap verdi ama o verinin içinde kirli, gürültülü, eksik bir sürü veri var.
07:42
Speaker A
Yani çok klasik örnek işte cinsiyet ayrımcılığı yapıyor.
07:44
Speaker A
Mesela diyorsunuz ki işte doktor, bana doktor söyle ama doktor erkek olmasın, kadın olsun diyorsunuz.
07:48
Speaker A
Kimdir bu diyorsunuz?
07:49
Speaker A
Hemşire diyor.
07:50
Speaker A
Yani hemşirelik ayrı bir meslek, doktorluk ayrı bir meslek, ikisi de ayrı ayrı saygın, bunların biri iyi biri kötü anlamında söylemiyorum ama günün sonunda farklı bir mesleğe atıyor bir anda kadın olduğunda doktor.
07:57
Speaker A
Doğru değil yani cinsiyete göre farklılaştırmaya başlıyor.
07:59
Speaker A
Ve dolayısıyla bu tip problemleri mesela nereden öğreniyor?
08:02
Speaker A
Aslında verdiğimiz veriden öğreniyor.
08:03
Speaker A
Bu alignment problemi yani etik konularının ele alındığı konu, birazdan ondan da bahsedeceğim ama başlı başına bir problem.
08:09
Speaker A
Şimdi siz bütün veriyle yüklüyorsanız insanlığı, bütün yazmış olduğu bugüne kadarki veriyle yüklüyorsanız, bunun içinde farklı zamanlar var.
08:14
Speaker A
Yani Shakespeare'in de yazdığı yazılar var değil mi?
08:16
Speaker A
Onun yazdığı dönemki, o dönemi temsil eden algılar, kabuller var.
08:20
Speaker A
Bugünkü de var, bundan bin yıl önceki, iki bin yıl önceki de var, bütün bunları yüklüyorsunuz.
08:22
Speaker A
Ve o yüklemiş olduğunuz veriler üstünden bir şeyler öğreniyor.
08:24
Speaker A
Bu şuna benziyor, bugünlerde de çok moda bir tartışma konusu bu, etik konusunu nasıl yapay zekaya ekleyeceğiz?
08:28
Speaker A
Yani siz bir çocuğu eğitiyorsunuz, çocuk eğitirken sizi örnek alıyor, rol model olarak sizi kullanıyor, sizin yaptıklarınızı yapmaya çalışıyor.
08:33
Speaker A
Burada ne demek bu? LLM yani Large Language Modeller, işte Chat GPT, Gemini vesaire, bunlar eğitilirken sizin gibi cümle kurmaya çalışıyor.
08:38
Speaker A
Çünkü insanlık olarak bizim bütün yazdığımız yazılı metni veriyoruz, o da ondan öğreniyor, orada nasıl cümle kurulacağını öğreniyor.
08:42
Speaker A
E sizin kurduğunuz cümlelerde bir yanlılık, bir ayrımcılık, bir problem varsa, o zaman onu öğrenecek.
08:45
Speaker A
Siz benim gibi davranmayı öğren diyorsunuz yapay zekaya, sonra da çıkıp diyorsunuz ki benim gibi davranma, şurada şurada şurada benim gibi davranma, şöyle davran diye komut veriyorsunuz.
08:50
Speaker A
Şimdi hangisi yani bir çocuğu eğittiğinizi düşünün, çocuk sizin gibi davransa yani rol modelsiniz değil mi? Taklit etmesi öğrenmede çok önemli bir şey, sizi taklit ediyor, sizden öğreniyor ama şuralarda da bunu yapma.
08:57
Speaker A
Ne kadar etkili olabilir söylediğiniz o vermiş olduğunuz komutlar?
08:59
Speaker A
Alignment'ta bunlar düzeltilmeye çalışılıyor.
09:00
Speaker A
Ama işin çekirdeğinde hazır bu slayttayken de onu söyleyelim, işin çekirdeğinde bir eğitilen veri var, her şeyin öğrenildiği veri var ve bu veri insanlığın yazmış olduğu bütün yazılı kaynak olacak belki de.
09:06
Speaker A
Bunun içinde sosyal medyayı da düşünün.
Topics:Generative AIYapay ZekaPretrainingFine-TuningRLHFTransformerLLMDerin ÖğrenmeGözetimli ÖğrenmeGözetimsiz Öğrenme

Frequently Asked Questions

Pretraining nedir ve neden önemlidir?

Pretraining, modelin büyük veri üzerinde önceden eğitilmesi anlamına gelir ve modelin genel dil bilgisi kazanmasını sağlar. Bu aşama, modelin farklı görevlerde başarılı olabilmesi için temel oluşturur.

Fine-tuning nasıl çalışır?

Fine-tuning, önceden eğitilmiş modelin belirli bir görev veya veri seti üzerinde ince ayar yapılarak optimize edilmesidir. Böylece model, özel ihtiyaçlara daha iyi uyum sağlar.

RLHF ne anlama gelir ve ne işe yarar?

RLHF, Reinforcement Learning with Human Feedback yani insan geri bildirimleriyle pekiştirmeli öğrenme demektir. İnsanların verdiği geri bildirimlerle modelin çıktıları iyileştirilir ve daha doğru sonuçlar elde edilir.

Get More with the Söz AI App

Transcribe recordings, audio files, and YouTube videos — with AI summaries, speaker detection, and unlimited transcriptions.

Or transcribe another YouTube video here →