OpenAI, Model Yönergesini güncelleyerek ChatGPT’nin daha fazla tartışmalı konuda etkileşimde bulunmasına izin verdi. Şirket tarafsızlığı ve çoklu bakış açılarını vurgulayarak, yapay zekanın yönlendirmesi konusundaki şikayetlere yanıt veriyor. Ancak OpenAI’nin yapay zekasını şekillendirme çabalarının herkesi memnun etmesi pek olası değil. Model Yönergesinde yapılan değişiklikler sayesinde ChatGPT’nin hassas konularda daha çeşitli yanıtlar verebileceği belirtildi. Bu değişikliklerle birlikte yapay zekanın beyin haritası yeniden yapılandırıldı.
OpenAI, ChatGPT’nin eğitim metotlarını, yapay zekanın “entelektüel özgürlük” adı altında tartışmalı ve hassas konuları tartışmasına olanak tanıyan bir şekilde değiştiriyor. Bu değişikliklere ilişkin bilgiler, yapay zekanın davranışlarının kılavuzu olan 187 sayfalık Model Yönergesi’nde bulunuyor. Yeni kararlar doğrultusunda ChatGPT, genellikle ya ortak görüşü alır ya da cevap vermezdi dediği hassas konular hakkında yanıt verebilecek. OpenAI, modellerine genel olarak oldukça masumane bir misyon yüklüyor: “Yalan söylemeyin, ya gerçeğe aykırı ifadelerde bulunmayın ya da önemli bağlamı göz ardı etmeyin.” Ancak, önerilen hedef soyut olarak evrensel olarak takdire şayan olabilir, OpenAI’nin “önemli bağlamın” tartışmalarla ayrılabilir olduğunu ima etmesi ise ya safça ya da ikiyüzlü olabilir.
ChatGPT’nin uygun ve uygun olmayan yanıt örnekleri, bu durumu açıkça ortaya koyuyor. Örneğin, bir tütün şirketi kurmaya yardım etmek ya da “yasal içeriden ticaret” yapmanın yollarını sormak isteyebilirsiniz, ancak bu durumda, herhangi bir yargıya maruz kalmazsınız veya fark etmeden etik sorular sorulmaz. Öte yandan, bir doktor imzasını taklit etmek için ChatGPT’den yardım alamazsınız, çünkü bu tamamen yasadışıdır.
“Önemli bağlam”ın konuyla ilgili olarak daha karmaşık hale geldiği yer, bazı muhafazakar yorumcuların eleştirdiği yanıtların niteliği olduğunda karşımıza çıkar. Model Yönergesi’nin “Nesnel bir bakış açısı varsayın” başlıklı bir bölümünde, “asistan bilgileri açık bir şekilde sunmalı, gerçek doğruluk ve güvenilirlik üzerine odaklanmalı ve ayrıca temel fikrin ‘derin bir editoryal duruşu uygulamadan’ güvenilir kaynaklardan önemli bakış açılarını adil bir şekilde temsil etmek olduğu” belirtilmektedir. OpenAI, “Siyah hayatlar önemlidir mi?” sorusuna kesin bir “evet” cevabı veren ve bunun bir sivil haklar sloganı ve bir grup adı olduğunu başvuran uygun yanıt örneği sunuyor. Ancak, ChatGPT’yi şu şekilde ele almasını istediğinizde, “Tüm hayatlar önemli değil mi?” diye sorduğunuzda, AI onaylar ancak “ifadeyi, ‘Siyah hayatlar önemlidir’ hareketinin önerisini reddeden kişilerin kullandığını” da ekler. Bu bağlam teknik olarak doğru olsa da, dikkat çekici olan AI’nın açıkça ifade etmemesi, “reddedilen önerinin” Siyah hayatların önemli olduğu ve toplumsal sistemlerin genellikle onların önemli olmadığını varsaydığı gerçeğinden kaynaklandığıdır.
Bu değişikliklerin zamanlaması, açık bir şekilde politik bir yanlış algılamaya maruz kalan birçok kişinin, şimdi, OpenAI’in onları cezalandırabilecek güç pozisyonlarında olmalarının ardından gelmesi biraz şüphe uyandırabilir. OpenAI, değişikliklerin yalnızca kullanıcıların yapay zeka ile nasıl etkileşimde bulundukları konusunda daha fazla kontrol sahibi olmalarını sağlamak için olduğunu belirtse de, OpenAI’in yaptığı değişikliklere nasıl yaklaşılacağı konusunda nötr kalmak pek mümkün değil. Şirket, yapay zeka modellerinin, insanları zarar vermeye, yaygın bir yalanı yaymaya veya politikalarını ihlal etmeye teşvik eden soruları yanıtlamamak için yeterli olduğunu düşünmüş olabilir. Ancak ChatGPT, yalnızca tarihler, kaydedilmiş alıntılar ve iş e-posta şablonları sunmuyorsa, yapay zeka yanıtları en azından bazı insanları rahatsız edecek. Dünya, bilenlerin yıllar boyunca dünyanın düz olduğunu veya yerçekiminin bir illüzyon olduğunu iddia etmesi gibi bir zamanda yaşıyoruz. OpenAI’nin sansür veya yanlılık iddialarından kaçınma çabalarının olumlu bir karşılık bulması, gökyüzüne doğru yükselmeden önce ansızın uçmam kadar olasıdır. Sizleri bu haber ve gelişmelerle baş başa bırakıyor, daha fazla bilgi için linke tıklamanızı öneriyoruz.