Anasayfa / Teknoloji / Yazılım / OpenAI’ın yapay zekasına verdiği direktif dikkat çekti: “Sakın goblinlerden kelam etme!”

OpenAI’ın yapay zekasına verdiği direktif dikkat çekti: “Sakın goblinlerden kelam etme!”

ChatGPT, Gemini, Grok gibi büyük dil modellerinin kullanıcılarla nasıl iletişim kuracakları, “system prompts” (“sistem istemleri) olarak bilinen temel direktifler sayesinde belirli davranış kalıplarına sokuluyor. Bu istemler genelde sade, genel kurallardan oluşuyor ama bazen oldukça spesifik ve dikkat çekici talimatlar da içerebiliyor. OpenAI’ın kısa süre önce tanıttığı GPT-5.5 modeliyle birlikte ortaya çıkan yeni bir detay ise, bu sistemlerin arka planında ne kadar sıra dışı müdahaleler yapılabildiğini gözler önüne seriyor.

“Sakın Goblinlerden Söz Etme”

Haberi okuduğunuz için teşekkürler, bizi takip etmeyi unutmayın!

OpenAI’ın Codex kodlama ajanı için hazırlanan ve kısa süre önce fark edilen sistem yönergelerinde, alışılmadık bir kural dikkat çekti: Modelin, kullanıcı sorusuyla doğrudan ilgili olmadığı sürece goblinler, gremlinler, rakunlar, troller, ogreler ya da benzeri canlı ve yaratıklar hakkında “asla konuşmaması” isteniyor. Üstelik bu talimatın sistem istemi içinde bir kez değil, birkaç kez tekrarlanmış olması, bunun sıradan bir ekleme olmadığını düşündürüyor.

Bu sınırlama üzerinde bu kadar durulması ilk başta tuhaf gelse de bu yasağın arkasında oldukça pratik bir sebep olabilir. GPT-5.5’in bazı durumlarda tamamen alakasız bağlamlarda bile “goblin” ya da “gremlin” gibi ifadeleri kullanma eğilimi gösterdiği belirtiliyor. Kullanıcıların sosyal medyada paylaştığı örneklerde, modelin bu kelimeleri adeta bir dolgu ifadesi gibi kullandığı görülüyor. Hatta bazı kullanıcılar, modelin bu tür kelimelere “takıntılı” olduğunu öne sürüyor.

Bu durumun, modelin eğitim sürecinde oluşan belirli kelime ilişkilerinden kaynaklanabileceği düşünülüyor. Büyük dil modelleri, eğitim verilerindeki örüntülere dayanarak kelimeler arasında güçlü bağlar kurabiliyor. Eğer belirli bağlamlarda bu tür ifadeler sıkça kullanıldıysa, modelin bunları alakasız durumlara da taşıması mümkün hâle geliyor. Bu da geliştiricileri, bu davranışı bastıracak açık yasaklar koymaya yönlendirmiş olabilir.

Negatif Talimatlar Ters Tepebiliyor

Ancak bu tür yasaklar, yapay zekâ dünyasında ayrı bir tartışmayı da beraberinde getiriyor. Araştırmacılar, bir modele “şu konudan bahsetme” demenin, aslında o kavramı zihinsel olarak daha da öne çıkarabileceğine dikkat çekiyor. Yani goblinlerden bahsetmemesi söylenen bir modelin, bu kavramı daha sık hatırlaması ve dolaylı olarak kullanma ihtimalinin artması mümkün.

Nitekim bazı uzmanlar, sistem istemlerinde bu kadar spesifik ve tekrarlı yasakların bulunmasının ironik bir durum yarattığını savunuyor. Çünkü bu yaklaşım, modelin dikkatini tam da kaçınılması gereken kavramlara yönlendiriyor. “Negatif yönlendirme” olarak bilinen bu paradoks, yapay zekâ hizalama çalışmalarında hâlâ tam anlamıyla çözülememiş bir problem.

Öte yandan Codex’teki bu “yaratık yasağı”, aslında daha geniş bir sorunun küçük ama dikkat çekici bir yansıması olarak görülüyor. Büyük dil modelleri, beklenmedik ve kimi zaman tuhaf davranışlar sergileyebiliyor. Bu davranışları kontrol altına almak için geliştiriciler çoğu zaman hızlı ve doğrudan çözümlere başvuruyor. Ancak bu tür müdahaleler, sistemlerin ne kadar öngörülemez olabildiğini de ortaya koyuyor.

Etiketlendi:

Cevap bırakın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir