Nahrimed Haber

ChatGPT’nin "Bazı Görevlerde" İnsan Gibi Düşünebildiği Açıklandı: Yine de Bir "İnsan Zekâsına" Sahip Değil!

Yapay Zeka - 1 yıl önce 0 Yorum
Yapay Zeka ChatGPT’nin "Bazı Görevlerde" İnsan Gibi Düşünebildiği Açıklandı: Yine de Bir "İnsan Zekâsına" Sahip Değil!
Microsoft araştırmacıları, günümüz ChatGPT’sini oluşturan dil modeli GPT-4’ün yetenekleri hakkında çarpıcı bir araştırma yayımlamıştı. Araştırma, özetle GPT-4’ün insan gibi düşünmeye en yakın yapay zekâ olduğunu ortaya koydu.

Yapay zekâ teknolojilerinin insanlara benzemeye başladığını inkâr etmek bugün hata olur. OpenAI’ın geliştirdiği dil modeli GPT-4 de bu hataya karşı en büyük kanıt olarak gözler önünde duruyor. Peki, GPT-4, gerçekten insan gibi düşünebiliyor mu?

Bu sorunun cevabını, GPT-4 daha piyasaya sürülmeden dil modeline erişim sağlayan Microsoft verdi. Microsoft araştırmacıları, Nisan 2023’te yayımladıkları araştırmalarında GPT-4 ile gerçekleştirdikleri bilimsel çalışmanın ardından elde ettikleri sonuçları paylaştı. GPT-4, insan gibi düşünmeye en yakın yapay zekâ olarak değerlendirildi.

Kritik sonucu kendi ağızlarından öğrenelim: Bazı görevlerde insanlardan bile iyi sonuçlar verdi!

chatgpt

Yine de bu sonuçlar GPT-4’ün bir insan gibi düşünebildiğine kanıt değil:

gpt-4

Araştırmacılar, GPT-4’ün ‘yapay genel zekâ (AGI)’, yani bir insanın zihinsel görevlerini yapabilen bir yapay zekâya büyük bir adım olduğunu vurguladı. Öte yandan GPT-4’ün insanların yaptığı herhangi bir şeyi henüz yapamadığını hatırlattı.

GPT-4’ün halen birçok sınırlamaya ve önyargıya sahip olduğu paylaşıldı. Ayrıca temel düzeyde aritmetik hatalar da yaptığını belirtti. 

Araştırmanın vurguladığı bir diğer nokta ise GPT-4’ün sağduyuya sahip olduğu fikriydi. GPT-4’ün, daha önce sağduyu testine giren diğer modellerden çok daha iyi sonuçlar verdiği paylaşıldı. Ancak yine de ‘zekâsının’ bir insan gibi olmadığı ifade edildi.

GPT-4, bugün tüm ChatGPT kullanıcılarının erişebildiği dil modeli.


Yorumlar (0)

Yorum Yap