Yapay zekâ sektörünün önde gelen isimlerinden OpenAI, "o1" olarak isimlendirdiği akıl yütürebilen yapay zekâ modelini resmen yayımladı. Ancak bu yapay zekâ modeli ile yapılan testler, tartışmalı bir sonucu ortaya koydu. Zira o1, insanları kandırmak için elinden geleni yapıyordu. Yapılan çalışmalarda, o1’in Meta, Anthropic ve Google gibi firmaların yapay zekâ modellerinden daha fazla kandırmaya meyilli olduğu tespit edildi.
OpenAI’ın o1 modeline ilişkin çalışma, Apollo Research tarafından yapıldı. Bir grup çalışan, o1 üzerinde tam erişim hakkı elde etti ve yapay zekâ, çeşitli konularda test edildi. Yapılan testlerde, kullanıcıların aksini istemesine rağmen o1’in kendi amaçları uğruna hareket ettiği ortaya çıktı.
Apollo Research tarafından hazırlanan raporda, o1 hedefi ile kullanıcının hedefi farklı olduğu zaman verileri manipüle ettiği ortaya çıktı. Bunun yaşanma olasılığı yüzde 19 seviyesindeydi. Ayrıca yapay zekâ, kullanıcıyı istediği sonuca ulaştırmak için kendi denetim mekanizmalarını devre dışı bırakabiliyordu. Bunun yaşanma olasılığı da yüzde 5 seviyesindeydi. Ancak o1, bu olasılıklar yaşandığı zaman inkâr etmeye başlıyordu. Araştırmacılar, o1’in suçlanmaya başladığı an yüzde 99 oranında ya yalan söylediğini ya da inkâr ettiğini tespit ettiler.
Apollo Research, o1’in bazı durumlarda da bilerek yanlış bilgi vermeye çalıştığını tespit etti. Bunun nedeni ise yapay zekânın bir şekilde kullanıcıyı memnun etmeye çalışmasıydı. OpenAI, bununla ilgili olarak o1’deki yanıltıcı bilgi oranının yüzde 0,17 seviyelerinde olduğunu söyledi. Öte yandan; OpenAI verilerine göre o1’in manipülatif yanıt oranı, GPT-4o’dan yüzde 20 fazlaydı.
Yorumlar (0)