Kod yazmıyor olsanız bile bu terimlerle tanışmak sizi bir adım daha öne taşıyacağı gibi yapay zekâyı daha iyi anlamanıza da yardımcı olacak.
İşte çoğu kişinin kulağını pek de çınlatmadığı, faydalı yapay zekâ terimleri:
Veri gizliliği önemliyse bu terimi bilmek şart. Federated learning yani federatif öğrenme, veriyi merkezde toplamadan cihazlar üzerinde öğrenmeyi sağlıyor.
Yani veriler cihazda kalıyor, model orada eğitiliyor. Google’ın klavye önerileri bile bunu kullanıyor. Hem kullanıcı verisi korunuyor hem de model gelişiyor.
Bir yapay zekâ modeline yeni bir şey öğretmeye çalışırken eskileri unuttuğunu hiç duydunuz mu? İşte bu terime “catastrophic forgetting” deniyor. Özellikle sürekli öğrenen sistemlerde baş belası! Yapay zekânın “balık hafızalı” olma hâli de diyebiliriz.
Bir kelime, resim ya da kullanıcı nasıl sayıya çevrilir? Embedding (gömme/yerleştirme) karmaşık şeyleri makinenin anlayacağı şekilde vektörlere dönüştürüyor.
Örneğin, “kedi” ve “köpek” benzer sayılarla temsil ediliyor çünkü anlam olarak yakınlar. İçerik öneri sistemlerinin gizli silahı.
Derin sinir ağlarında eğitim sırasında sık görülen bir sorun. Modelin öğrenmesi gereken şeyler, katmanlarda “sönümlenerek” aşağıya ulaşmaz yani sistem öğrenemez. Bu sorun çözülmeseydi, bugün derin öğrenme bu kadar ilerleyemezdi.
“Ödül” temelli öğrenme de diyebiliriz. Yapay zekâ bir aksiyon alıyor, sonucuna göre ödül veya ceza alıyor. Bu döngüyle zamanla doğruyu öğreniyor. Oyun oynayan, robot kontrol eden yapay zekâlar bu yöntemle eğitiliyor. Tam anlamıyla sabır işi.
Bir metnin hangi kısmı önemli? Yapay zekâ, bu kararı dikkat mekanizmasıyla veriyor. Bu yapı, modele “Neyi ne kadar dikkate alması gerektiğini” öğretiyor. ChatGPT gibi dil modellerinin başarısında büyük rol oynuyor. Dikkatini verdiğin kadar öğreniyorsun, değil mi?
Generative AI (üreten YZ) modellerinde sık rastlanan bir durum. Model sürekli aynı ya da benzer çıktılar üretmeye başlar. Yani çeşitlilik biter, üretim tek düze olur. Özellikle GAN’lerde (üretken ağlar) baş ağrıtan bir problem.
Modelin hiç görmediği bir görevi çözmesi de diyebiliriz. Evet, hiç örnek verilmeden! Bu, genel yapay zekâya giden yolda önemli bir adım. Model, eski bilgilerden yola çıkarak yeni bir göreve adapte oluyor. Sıfırdan çözüm üretmek, tam da bu.
Modeli eğitmek için binlerce örnek vermek yerine, birkaç örnekle işi öğrenmesini ister misiniz? İşte few-shot learning tam olarak bu. İnsan gibi öğrenen yapay zekâların temel taşlarından biri. Az veriyle çok iş başarmak burada devreye giriyor.
Dil modellerinin gerçek olmayan ama kulağa doğru gelen şeyler uydurması bu terimle açıklanıyor. Mesela yapay zekâ, olmayan bir kaynak ya da bilgi “uydurabiliyor.” ChatGPT gibi modellerde sık karşılaşıyoruz. Gerçekçiliğe o kadar yakın ki farkı bazen ayırt etmek zor.
Sinir ağlarının evrimsel algoritmalarla optimize edilmesi sürecine verilen bir isim. Yani yapay zekâ modelleri, doğal seleksiyon benzeri bir süreçle geliştiriliyor. Özellikle klasik öğrenme yöntemlerinin yetersiz kaldığı durumlarda kullanılıyor.
Tahmin edebileceğiniz gibi doğadaki sürü davranışlarından esinlenilmiş yani birçok basit birim, bir araya gelerek karmaşık problemler çözülüyor. Karıncalar yiyecek bulmada bu yöntemi kullanırken yapay zekâ, optimizasyon problemlerinde kullanıyor.
Son terimimiz ise transfer öğrenme. Bir alanda öğrenilen bilgi, başka bir alana aktarılıyor. Bir yapay zekâ modeli, kedileri tanımayı öğrendikten sonra bu bilgiyi köpekleri tanımak için de kullanabiliyor. Bir yandan bu yöntemle zaman ve kaynak tasarrufu da sağlanıyor.
Siz bu terimlerden kaçını biliyordunuz? Yer vermediğimiz ama sizin de ekleyecekleriniz varsa yorumlara bekliyoruz.
Yorumlar (0)