OpenAI‘ın eski çalışanlarından 26 yaşındaki yapay zekâ araştırmacısı Suchir Balaji, San Francisco’daki dairesinde 26 Kasım’da ölü bulundu. Balaji’nin ölümü, yapay zekâ dünyasında etik ve yasal tartışmaların odak noktası haline geldi. San Francisco Polis Departmanı’ndan yapılan açıklamada, ilk incelemede herhangi bir cinayet şüphesi bulunmadığı bildirildi. Şehrin adli tıp yetkilileri ise ölüm nedeninin intihar olduğunu doğruladı. Bu trajik olay, hem Balaji’nin eleştirileri hem de yapay zekâ modelleriyle ilgili süregelen etik sorunları yeniden gündeme taşıdı.
Balaji, OpenAI’da çalıştığı süre boyunca GPT-4 gibi güçlü yapay zekâ modellerinin geliştirilmesine katkıda bulunmuştu. Ne var ki, şirketten ayrıldıktan sonra, OpenAI’ın internetten veri toplama yöntemlerini ve telif haklarıyla ilgili uygulamalarını sık sık eleştirdi. Özellikle kişisel web sitesinde yayımladığı bir makalede, “Üretken yapay zekâ modellerinin eğitimi sırasında, telif hakkıyla korunan içeriklerin izinsiz kopyalanması potansiyel bir hak ihlali oluşturabilir,” ifadelerini kullanarak dikkat çekmişti. Balaji, bu tür yöntemlerin internet ekosistemi üzerindeki olumsuz etkilerine de vurgu yapmıştı.
Balaji’nin ChatGPT eleştirilerinin kapsamı nedir?
Balaji’nin eleştirileri yalnızca teknik konularla sınırlı kalmıyor, aynı zamanda internetin sürdürülebilirliği üzerine de yoğunlaşıyordu. Ona göre, yapay zekâ modellerinin ücretsiz çevrim içi içerikleri kullanarak eğitilmesi, çevrim içi bilgi topluluklarının değerini düşürmekteydi. Özellikle, yazılım geliştiricilerin yoğunlukla kullandığı Stack Overflow gibi platformların kullanıcı sayılarında ciddi bir düşüş yaşandığını belirtmişti. ChatGPT ve GPT-4 gibi modellerin kullanıcı sorularını doğrudan yanıtlaması, insan katkısı gerektiren bu tür platformların yeni içerik oluşturmasını engelliyor.
Bu durum, sadece bilgi paylaşımını değil, aynı zamanda içerik üreten toplulukların varlığını da tehdit ediyor. Örneğin, Balaji, ChatGPT’nin kodlama sorularına yanıt vererek, Stack Overflow’a olan trafiği nasıl azalttığını açıklamıştı. Bununla birlikte, büyük dil modellerinin kullanımındaki bu hızlı artış, etik standartlar ve telif hakkı ihlalleri konusundaki tartışmaları da alevlendirdi.
Balaji’nin eleştirileri, OpenAI ve Microsoft’a yönelik çeşitli telif hakkı davalarıyla da örtüşüyor. Örneğin, The New York Times, geçen yıl OpenAI’a karşı açtığı davada, içeriklerinin izinsiz kopyalanarak yapay zekâ modellerinin eğitiminde kullanıldığını ileri sürmüştü. Öte yandan, OpenAI’dan yapılan açıklamalarda, şirketin verileri “adil kullanım” ilkelerine uygun bir şekilde topladığı belirtiliyor. Buna rağmen, Balaji gibi isimler, bu ilkelerin belirsizlik içerdiğini ve sektörde daha net düzenlemelere ihtiyaç duyulduğunu savunuyor.
Balaji, The New York Times’a verdiği bir röportajda, “Chatbotlar, insanların çalışmalarının ticari değerini ortadan kaldırıyor,” ifadelerini kullanarak, bu modelin uzun vadede internet ekosistemini sürdürülemez hale getireceğini dile getirmişti. Elon Musk da benzer bir şekilde bu durumu “LLM’lerin yol açtığı ölüm” olarak adlandırmış ve bu fenomenin dijital ekosistem üzerindeki zararlarına dikkat çekmişti.
Balaji’nin trajik ölümü, yapay zekâ teknolojileri ve etik standartlar arasındaki dengenin ne kadar hassas olduğunu bir kez daha ortaya koyuyor. Özellikle, büyük dil modellerinin geliştirilmesi sırasında kullanılan verilerin telif haklarına uygunluğu ve bu süreçlerin toplum üzerindeki etkileri konusundaki tartışmaların artarak devam edeceği öngörülüyor. Sektörün tüm paydaşlarının daha şeffaf bir yaklaşım benimsemesi gerektiği ise açık.
Balaji’nin eleştirileri, yapay zekâ teknolojilerinin mevcut iş modellerini ve çevrim içi bilgi paylaşımını nasıl etkilediğini anlamak için önemli bir ışık tutuyor. Bu olay, aynı zamanda, etik sorumlulukların yalnızca teknolojiyi geliştiren şirketlere değil, aynı zamanda kullanıcı topluluklarına ve düzenleyicilere de düştüğünü hatırlatıyor. Yapay zekânın geleceği, bu tür hassas dengeleri koruyabilme yeteneğimizle şekillenecek gibi görünüyor.