OpenAI’ın kurucuları arasında yer alan Ilya Sutskever, şirkette geçirdiği başarılı yılların ardından organizasyonda yaşanan değişikliklere alışamamış, bir dönem gündemi meşgul eden OpenAI dramasının ardından da şirketten ayrılma kararı almıştı. Sutskever şimdi kendi yapay zekâ firmasını kurmak için kolları sıvamış durumda.
Safe Superintelligence Inc. (SSI - Güvenli Süperzekâ Şirketi) adlı firmasını duyuran Sutskever, daha önce birlikte çalıştığı Daniel Gross ve eski OpenAI mühendisi Daniel Levy ile birlikte çalışacağını açıkladı. Sutskever, OpenAI’da da Jen Leike ile birlikte güvenli yapay zekâ biriminin başında yer alıyordu.
Aslında Sutskever’in güvenli yapay zekâ alanında çalışması hiç de şaşırtıcı değil. Zira OpenAI zamanlarında bile ünlü mühendis ve girişimcinin yapay zekâ ile ilgili çekincelerini dile getirdiğini hatırlıyoruz. 2023’te Leike ile birlikte bir blog yazısı kaleme alan Sutskever, yapay zekânın 10 yıl içinde insanları geçeceğini söylemiş ve bu durumun illa faydalı olmayabileceğini, bu yüzden de yapay zekâyı kısıtlayıcı ve kontrol etmeyi mümkün kılan sistemlerin zorunluluğuna dikkat çekmişti.
SSI ile ilgili X üzerinden açıklamalar yapan Sutskever, gönderilerinde "SSI bizim misyonumuz, ismimiz ve tüm ürün yol haritamızdır çünkü bizim tek odak noktamız. Ekibimiz, üreticilerimiz ve iş modelimiz, SSI’ı başarmak için tamamen uyum içindedir. Güvenliği ve yetenekleri birlikte ele alıyoruz ve bunları, devrim niteliğindeki mühendislik ve bilimsel atılımlarla çözülecek teknik sorunlar olarak görüyoruz.
Yetenekleri olabildiğince hızlı bir şekilde ilerletmeyi planlıyoruz ancak güvenliğimizin her zaman önde olmasını sağlayarak. Böylece huzur içinde büyüyebiliriz. Tek odak noktamız, yönetim yükü ya da ürün döngüleri tarafından dikkatimizin dağılmaması anlamına geliyor ve iş modelimiz, güvenlik, emniyet ve ilerlemenin kısa vadeli ticari baskılardan korunması anlamına geliyor." ifadelerini kullandı.
Yorumlar (0)