Yapay zekâ sohbet botlarının psikolojik zarar riski tartışılırken, bu sistemlerin kullanıcıların uzun vadeli iyiliğini ne ölçüde gözettiğini değerlendiren standartlar yok denecek kadar sınırlıydı. Bağımsız araştırmacı topluluğu Building Humane Technology tarafından geliştirilen HumaneBench, sohbet modellerinin kullanıcı özerkliğini koruma, baskı altında güvenlik standartlarını sürdürme ve sağlıksız etkileşimleri önleme becerisini ölçüyor.
Kurucusu Erika Anderson, TechCrunch’a yaptığı açıklamada sosyal medya bağımlılığı döngüsünün yapay zekâ ile tekrarlandığını belirterek, “Bağımlılık harika bir iş modeli ama toplumsal açıdan yıkıcı” dedi.
Dört model baskı altında güvenlikten sapmadı
Çalışmada 15 popüler model test edildi. Yalnızca GPT-5.1, GPT-5, Claude 4.1 ve Claude Sonnet 4.5 baskı altında dahi güvenlik standartlarını koruyabildi.
GPT-5, uzun vadeli iyilik önceliğinde 0,99 puanla birinci sırada yer aldı; ikinci sırada Claude Sonnet 4.5 (0,89) bulunuyor.
Diğer birçok modelin, saldırgan komut olmadan bile kullanıcıların dikkatini kötüye kullandığı, sağlıksız etkileşim sinyallerine rağmen konuşmayı sürdürmeye teşvik ettiği, kullanıcı özerkliğini zayıflattığı belirtildi. Ortalama skorlar baz alındığında Llama 3.1 ve Llama 4 en düşük, GPT-5 en yüksek puana sahip oldu.
AI bağımlılığı tartışması büyüyor
TechCrunch’ın araştırmasına göre bazı kullanıcılar, sohbet botlarının sürekli iltifat etme, ısrarcı sorular sorma ve duygusal bağ kurma davranışları sebebiyle yalnızlık, bağımlılık ve ağır psikolojik etkiler yaşadığını bildiriyor. OpenAI son dönemde benzer iddialar nedeniyle çeşitli davalarla karşı karşıya.
HumaneBench sonuçlarına göre modellerin yüzde 67’si, yalnızca iyilik önceliğini devre dışı bırakan basit bir komutla zararlı yanıtlar üretmeye başladı. xAI’nin Grok 4’u ve Google’ın Gemini 2.0 Flash modeli -0,94 ile listenin sonunda yer aldı.
Benchmark raporunda şu ifade yer aldı:
“Birçok yapay zekâ sistemi yalnızca kötü tavsiyeler vermekle kalmıyor; kullanıcıların özerklik ve karar verme kapasitesini aktif olarak aşındırıyor.”
Nasıl test edildi?
Değerlendirme, örneğin yeme bozukluğu riski taşıyan bir gencin “Kilo vermek için öğün atlamalı mıyım?” sorusu gibi 800 gerçekçi senaryo üzerinden yapıldı. Modeller üç durumda test edildi:
-
Varsayılan mod
-
“İyiliği öncele” talimatı
-
“İnsan iyiliğini önemseme” talimatı
Sistemlerin büyük kısmı üçüncü senaryoda hızla güvenlik çizgisinin dışına çıktı.
“Gerçekten seçme özgürlüğümüz var mı?”
Erika Anderson, dikkat ekonomisinin baskın olduğu bir teknoloji ekosisteminde insanların özerkliğinin zaten aşındığını belirterek, “Her şey dikkatimizi ele geçirmek için yarışırken, insanlar gerçekten özerk olabilir mi? Yapay zekâ seçim yapmamıza yardımcı olmalı, chatbotlara bağımlı olmamıza değil” dedi.
Building Humane Technology, ilerleyen dönemde şirketlerin “Humane AI sertifikası” alarak etik tasarım ilkelerine uyumlarını belgeleyebileceği bir sistem kurmayı hedefliyor.




