
Birçok insan kimseye anlatamadığı sorunları yapay zekaya anlatmaya başladığını görüyoruz. Telefona uzanıp bir yapay zekaya içini dökmek başlangıçta çok cazip görünüyor. Sizi asla yargılamıyor, sözünüzü kesmiyor ve tam da duymak istediğiniz o şefkatli kelimeleri saniyeler içinde karşınıza diziyor. Yattığı yerden konuşmak hep pratik hem güvenli gibi görünüyor.
Günümüzde giderek daha fazla insan, psikolojik destek için dijital dünyanın kapısını çalıyor. Ancak bu "dijital dostlar" bizi gerçekten iyileştiriyor mu, yoksa daha büyük bir karanlığın içine mi çekiyor?
Erişilebilirlik Mucizesi: 7/24 Yanınızdaki Destek
Bu konu bilim adamlarının da ilgisini çekiyor. Araştırmalar; terapi odaklı botların —hatta genel amaçlı ChatGPT’nin bile— kısa vadede depresyon belirtilerini anlamlı ölçüde azalttığını kanıtlıyor.
İnsanlar, karşılarında "etten kemikten" birinin olmadığını bildiklerinde yargılanma korkusundan sıyrılıyor ve çok daha dürüst olabiliyorlar. Maddi imkansızlıklar veya coğrafi engeller nedeniyle terapiye ulaşamayanlar için bu botlar, 7/24 ulaşılabilen bir "cep destekçisi" işlevi görüyor. Hatta üretimsel yapay zekanın (Generative AI) yarattığı kısa vadeli iyileşme etkisinin, bazı durumlarda geleneksel yaklaşımlarla yarışacak boyutlara ulaştığı görülüyor.
"Aldatıcı Empati" ve Sosyal İzolasyon Riski
Ancak madalyonun diğer bir yüzü var. Modern psikolojinin en büyük uyarılarından birini barındırıyor. Brown Üniversitesi’nin güncel araştırmaları, yapay zekanın sunduğu o şefkat dolu sözlerin aslında bir "aldatıcı empati" (deceptive empathy) ürünü olduğunu gösteriyor.
Yapay zekâ "Seni anlıyorum" dediğinde aslında hiçbir şey hissetmiyor; sadece kelimeleri matematiksel olarak en rahatlatıcı sıraya diziyor. Bu sahte empatiye fazla bağlanmak, ironik bir şekilde bireyi gerçek insan ilişkilerinden koparabiliyor. Sonuç ise daha derin bir yalnızlık ve sosyal izolasyona yol açıyor.
Kritik Tehlike: "Chatbot Psikozu" ve Etik Boşluk
Yapay zekanın her zaman doğruyu söylememesi, ruh sağlığı alanında hayati riskler taşıyor. Bir chatbot, kullanıcının tehlikeli düşüncelerini sorgulamak yerine onları onaylayabilir. Bu durum, literatüre yeni giren "chatbot psikozu" gibi, kişinin gerçeklik algısını yitirdiği ciddi krizlere zemin hazırlayabiliyor.
Gerçek bir terapistin aksine, bir algoritmanın:
Araştırmalar, bu botların kriz yönetiminde hala sınıfta kaldığını ve bazen hastalara zarar veren inançları desteklediğini açıkça ortaya koyuyor.
"Büyük Birader" Sırlarınızı Biliyor mu?
İşin bir de mahremiyet boyutu var: Kişiselleştirme-mahremiyet ikilemi. Yapay zekanın size daha iyi yardımcı olması için ona en karanlık sırlarınızı vermeniz gerekiyor. Peki, bu veriler nerede saklanıyor ve kimlerin eline geçiyor? Yapay zeka şirketlerinin bu hassas verileri işleme biçimi, kullanıcılar için hala büyük bir soru işareti.
Bir Araç Olarak Kullanmak, Yerine Koymamak
Yapay zekâ; günlük stresi yönetmek, duygu takibi yapmak ve kanıta dayalı teknikleri öğrenmek için harika bir "tamamlayıcı" araçtır. Ancak empati eksikliği, tehlikeli bilgi hataları ve etik boşluklar göz önüne alındığında; onu hiçbir zaman gerçek bir uzman, sıcak bir insan teması veya gerçek bir terapist yerine koymamak gerekir. İnsani yanı olmayan bir yere kişinin kendi iç dünyasını teslim etmesi onu onarılması zor bir yola itebilir. Gerçek ilişkilerin oluşturduğu o doğal ortamdan yapay bir dünyaya sürükleyebilir. Bu ciddi bir tehlikedir. Ben ve sen arasında oluşan o doğallık bir daha hiç kimseyle kurulamayacak bir boyuta taşınabilir. Ayrıca hiçbir sorun bir cümle, bir paragraf veya uzun bir yazıya dökülebilecek kadar basit değildir.
Dijital divana uzanırken unutmamak lazım: Karşınızdaki sizi sadece kodlar kadar "anlayabilir". Siz de kendinizi yapay zekanın kodları ile görmeye başlayabilirsiniz.



