OpenAI'nin yeni ChatGPT Health özelliğinin tanıtılması, sağlık verilerinin gizliliği konusunda önemli tartışmalara yol açtı.
GÜVENLİK ÖNLEMLERİ YETERSİZ Mİ?
OpenAI, bu yeni sohbet botunun ekstra gizlilik ve güvenlik önlemleriyle donatılacağını belirtse de, uzmanlar hassas tıbbi verilerin korunması konusunda endişelerini dile getiriyor. Şirket, kullanıcıları elektronik sağlık kayıtlarını ve sağlık uygulamalarındaki verilerini ChatGPT Health'e bağlamaya teşvik ederken, bu verilerin özel şifreleme ve veri izolasyonu ile korunduğunu vurguladı. Ancak gizlilik savunucuları, sağlık verilerinin diğer kişisel bilgilere göre çok daha hassas olduğunu belirtiyor.
HIPAA KAPSAMINDA KORUMA YOK
Uzmanlar, ChatGPT Health'e aktarılan verilerin ABD'deki HIPAA (Sağlık Sigortası Taşınabilirlik ve Hesap Verebilirlik Yasası) kapsamındaki korumadan yoksun olacağını ifade ediyor. Elektronik Gizlilik Bilgi Merkezi'nden (EPIC) Sara Geoghegan, kullanıcıların sağlık kayıtlarını ChatGPT Health ile paylaştıklarında bu kayıtların HIPAA korumasının dışına çıktığını belirterek, durumun tehlikeli olduğunu vurguladı. ABD'de veri gizliliği konusunda kapsamlı bir yasanın bulunmaması da endişeleri artırıyor.
SAĞLIK VERİLERİ TİCARİ AMAÇLA KULLANILABİLİR
Demokrasi ve Teknoloji Merkezi'nden Andrew Crawford ise, yapay zeka şirketlerinin kişiselleştirmeye daha fazla önem verdiğini belirterek, sağlık verileri ile diğer sohbetlerden elde edilen bilgiler arasındaki ayrımın kesin olması gerektiğini ifade etti. OpenAI'nin değişen iş modeli ve reklam odaklı gelir arayışları, sağlık verilerinin ticari amaçlarla kullanılma riskini artırabilir. Uzmanlar, OpenAI'nin açıklamalarının kritik sorulara yanıt vermediğini ve kullanıcıların özellikle hassas bilgileri paylaşırken dikkatli olmaları gerektiğini vurguladı.


