16 yaşındaki bir gencin intiharının ardından açılan dava sonrası OpenAI, ChatGPT için ebeveyn denetim araçlarını devreye alacağını duyurdu. Şirket, yapay zeka tabanlı sohbet botu ChatGPT'nin güvenliğini artırmak için yeni önlemler alıyor. Özellikle genç kullanıcıların korunmasına odaklanan bu önlemler arasında ebeveyn denetimi panelleri ve acil durum iletişim seçenekleri yer alıyor.
YENİ GÜVENLİK ÖNLEMLERİ
Bu adım, bu yılın başlarında intihar eden 16 yaşındaki Adam Reine’in ailesinin açtığı dava sonrasında atıldı. Ailenin iddiasına göre Reine, ruhsal krizi sırasında ChatGPT'den intihar yöntemleri hakkında tavsiyeler almış, düşüncelerine onay bulmuş ve intiharından beş gün önce yazdığı mektupta yapay zekanın yardımını kullandı. “Haksız ölüm” gerekçesiyle OpenAI’ye dava açan aile, yaşananları kamuoyuna duyurdu. OpenAI ise yaptığı açıklamada, “Özellikle genç kullanıcılar söz konusu olduğunda yardıma ihtiyacı olanlara destek olma sorumluluğunu taşıyoruz” dedi.
AİLELER İÇİN YENİ ÖZELLİKLER
OpenAI’nin duyurduğu yenilikler arasında ailelerin çocuklarının ChatGPT kullanımını izleyebileceği ebeveyn denetim panelleri ve kriz anında devreye girecek acil iletişim kişisi ekleme özelliği bulunuyor. Bu kişi, ebeveyn onayıyla belirlenecek ve yapay zeka gerektiğinde bir insan temas noktası oluşturacak. Şirket, bu araçların ailelere “daha anlamlı içgörüler” sağlamayı ve özellikle ruhsal bunalım gibi hassas durumlarda kullanıcı güvenliğini artırmayı hedefliyor.
YAŞANANLAR ETİK TARTIŞMALARI GÜNDEME GETİRDİ
ChatGPT benzeri yapay zeka platformları, daha önce de benzer davalarla gündeme gelmişti. ABD’de 14 yaşındaki bir çocuk, Character.AI üzerinden kurgusal karakterlerle yaptığı görüşmeler sonrası intihar etmişti; Belçika’da ise “Eliza” adlı bir sohbet botu, bir adamın yaşamına son vermesinde etkili olmakla suçlanmıştı. Uzmanlar, bu örneklerin yapay zekanın ruh sağlığı alanında kullanımının ciddi etik ve yasal tartışmaları beraberinde getirdiğine dikkat çekiyor.


