Normal şartlarda bir terapist ile geçirdiğiniz seansta ne konuşursanız konuşun, ciddi bir suç itirafında bulunulmadığı veya terapistler birbirleri arasında fikir alışverişi yapmadığı sürece, üçüncü taraflar hiçbir şekilde özel hayatınıza dahil olmaz. Genelde terapi öncesi imzalanan bir belge bulunur ve burada olağanüstü durumlar dışında bilgilerinizin seans dışına çıkmayacağı garantisi verilir. Ancak son dönemlerde artan "yapay zekâyı terapist gibi kullanma" trendi, bu tarz etik ve ahlâki sınırların dışına çıkıyor.
Bizzat OpenAI CEO'su Sam Altman'ın söylediğine göre ChatGPT, bir terapist olarak kullanılırken iki kez düşünülmesi gereken bir araç. Zira konuşmalarınızın mahkemeye taşınmayacağı, üçüncü taraflarla paylaşılmayacağının, yani gizli kalacağının garantisi yok.
ChatGPT'de Etik Algısı Yok, Konuşmalar Gizli Değil
Hukuki olarak bakıldığı zaman ChatGPT'nin gizlilik şartları, gerçek hayatla birebir çalışmaz. En basitinden her promptun bu dil modelini eğitmek için kullanıldığı zaten biliniyor. Buna rağmen ChatGPT'ye en özel sırlarını anlatan, terapi almaya parası yetmediği veya buna "gerek görmediği" için yapay zekâ ile dertleşen kişi sayısı haddinden fazla. Sam Altman, konuyu şöyle yorumluyor:
İnsanlar hayatlarındaki en özel şeyleri ChatGPT'ye anlatıyor. Terapist, avukat ya da doktorla yaptığınız konuşmalar yasal olarak koruma altındadır ama ChatGPT'yle yaptığınız konuşmalar için böyle bir çerçeve henüz mevcut değildir.
Altman, konunun endişe verici boyutlarda olduğunu açıkça ortaya koydu. Yasal koruma altında olmayan konuşma: Kullanıcılar yapay zekâ destekli bir uygulamaya içini döktüğünde, bu veriler yasal bir süreçte delil olarak sunulabilir anlamına geliyor.
Altman: Yasal Netlik Sağlanmadan ChatGPT Kullanmayın
Durumun önemini bir podcast sırasında dile getiren Altman, sunucu Theo Von'a ChatGPT'yi ne sıklıkla kullandığını sordu. Von, "gizlilik endişeleri" nedeniyle ChatGPT kullanımından uzak durduğunu ifade edince Altman bunu onaylayarak şöyle dedi.
Yasal netlik sağlanmadan ChatGPT gibi bir sistemin yoğun şekilde kullanılması bence de çok mantıklı değil.
Aslında işin özü şu: ChatGPT'yi günlük işleri hızlandırma, otomatikleştirme gibi işlevleri dışında bir göreve atamak doğru değil. Yasal anlamda bir sorumluluk bulunmadığından, sohbet esnasında söylenen herhangi bir cümle, kişinin aleyhinde delil olarak kullanılabilceği gibi; mahremiyetine de direkt bir tehdit oluşturuyor.
Günümüzde terapi, sanki "lüks" sınıfında yer alıyor gibi ulaşılması zor bir konumda olduğundan, insanların para ödemek yerine yapay zekâya içini dökmesi beklenebilir bir durum. Yine de hassas konularda ne ChatGPT, ne de farklı yapay zekâ araçlarına güvenilmemesi gerektiğini açıkça görüyoruz.