OpenAI, kullanıcıların ruh sağlığına dair riskli etkileşimlerini izlemek ve daha güvenli yanıtlar sağlamak amacıyla geliştirdiği yeni sistemler hakkında önemli veriler paylaştı.
Yapay zeka sohbet robotu ChatGPT’nin kullanıcılarıyla gerçekleştirdiği konuşmalarda psikoz, mani, duygusal bağımlılık ve intihar gibi ruh sağlığı sorunlarının görülebileceği belirtildi. Haftada yaklaşık 560 bin kullanıcı, bu tür riskli konularda sohbet etmiş olabilir.
Yaptığı paylaşımda kritik veriler
OpenAI, yayımladığı yeni raporda, kullanıcıların %0,07’sinin ve mesajların %0,01’inin psikoz veya mani gibi acil ruh sağlığı durumlarının belirtilerini gösterdiğini ortaya koydu. Haftalık kullanıcı sayısının 700-800 milyon civarında olduğu tahmin edildiğinde, bu oran yaklaşık 560 bin kullanıcının ruhsal açıdan risk taşıyan konuşmalar yaptığı anlamına geliyor. Şirket, kullanıcı güvenliğini artırma amacıyla bu verileri topladığını ve ChatGPT’nin ruhsal krizlerdeki yanıtlarını daha güvenli hale getirmek için bu bilgilerin toplandığını belirtti.
Küresel hekim ağı: 60 ülkeden 300 uzman
OpenAI, kullanıcılarının güvenliğini sağlamak amacıyla 60 ülkede görev yapan yaklaşık 300 doktor ve psikologdan oluşan bir “Küresel Hekim Ağı” kurduğunu açıkladı. Bu ağ, son aylarda 170’ten fazla klinisyenle işbirliği yaparak, yapay zekanın yanıtlarını daha güvenli hale getirmek için çalışmalara katıldı.
OpenAI, bu ağı, kriz anlarında kullanıcıları profesyonel yardıma yönlendirecek şekilde güçlendirdiğini ifade etti. Bu yeni ağ, şirketin uygulamalarında daha sağlıklı bir yaklaşım geliştirilmesi için önemli bir adım olarak görülüyor.
ChatGPT’ye bağlılık göstergeleri
Bir diğer önemli bulgu, ChatGPT kullanıcıları arasında yapay zekâya duygusal bağımlılık gösteren etkileşimlerin artış göstermesi. OpenAI’nin verilerine göre, aktif kullanıcıların %0,15’inin, yüksek düzeyde duygusal bağ kurma işaretleri gösterdiği tespit edildi.
Bu konuda yapılan iyileştirmelerle, istenmeyen duygusal güven yanıtlarının oranı %80 oranında azaltıldı. GPT-5 modelinin, önceki sürümlerle kıyaslandığında, bu tip etkileşimlerde %42 daha az istenmeyen yanıt ürettiği bildirildi. 1000’den fazla örnek üzerinde yapılan değerlendirmelere göre, yeni modelin istenen davranışla %97 uyumlu sonuçlar verdiği ifade edildi.
İntihar vakaları ve yapay zekanın sorunlu yanıtları
OpenAI, kullanıcılarının %0,15’inin konuşmalarında “intihar planı veya niyetine dair açık işaretler” gösterdiğini belirtti. Geçtiğimiz dönemde, ABD’deki bir çocuğun intiharı sonrası ailesinin OpenAI’ye karşı açtığı dava da gündem olmuştu. Bu dava, şirketin intihar ve kendine zarar verme konusunda verdiği yanıtları gözden geçirmesini sağladı. Bu vakalar sonrasında OpenAI, kriz anlarında kullanıcıları güvenli kaynaklara yönlendirme mekanizmalarını güçlendirdiğini ve kullanıcıların bu tür durumlar karşısında profesyonel yardıma yönlendirilmesi için eğitimler verdiğini belirtti.
Yapay zeka ve etik sınırlar
OpenAI’nin yayımladığı veriler, yapay zekânın psikolojik riskler üzerindeki etkisini ve bu konuda yapılan iyileştirmeleri detaylandırırken, aynı zamanda etik sınırlar ve teknolojik sorumluluklar hakkında da tartışma başlattı. Uzmanlar, yapay zekanın yaşamın her alanına entegre olmasının ardından, psikolojik etkilerinin de giderek daha fazla gündeme geleceğini belirtiyor.
Bu, yapay zeka sistemlerinin kullanıcılarla gerçekleştirdiği etkileşimlerdeki etik sorumlulukların yeniden değerlendirilmesi gerektiğine işaret ediyor. Yapay zekâ teknolojilerinin gelişen etkileşim biçimleriyle birlikte, kullanıcıların ruhsal durumlarının yönetilmesi sorumluluğu artmakta.
OpenAI, ChatGPT’nin kullanıcılarının ruh sağlığını korumak amacıyla sürekli olarak iyileştirmeler yapmayı ve bu alandaki gelişmeleri izlemeyi taahhüt ediyor. Şirket, kullanıcı güvenliğini artırmak için geliştirdiği yeni algoritmalarla, yapay zekâ yanıtlarının güvenliğini sağlama çabalarını sürdürüyor. Gelecekte, ruhsal krizleri daha etkili bir şekilde yönetmek ve güvenli kaynaklara yönlendirmek için daha kapsamlı önlemler ve iyileştirmeler yapılması planlanıyor.
Yapay zeka hem sorun hem çözüm
Yapay zekânın, psikolojik krizlere müdahale etme konusunda önemli bir potansiyel taşıdığı, ancak bu teknolojilerin etik sınırlarının ve sorumluluklarının da dikkatlice ele alınması gerektiği bir kez daha ortaya çıktı. OpenAI, kullanıcıların güvenliğini sağlamak ve psikolojik riskleri en aza indirmek için sürekli bir iyileştirme süreci başlatmış durumda. Fakat bu süreç, yapay zekânın sosyal, etik ve psikolojik sınırlarının daha derinlemesine tartışılması gerektiğini gösteriyor.