top of page

Yapay zeka terapistim olur musun?

  • Yazarın fotoğrafı: Dr. Ayça Can Uz
    Dr. Ayça Can Uz
  • 3 Eyl
  • 5 dakikada okunur

Güncelleme tarihi: 7 gün önce

yapay zeka AI terapist polşarak terapi veriyor

Amerikan Psikoterapi Dergisi'nde henüz yayınlanan dumanı üstünde bir araştırmaya göre, canlı (insan) bir terapist, yapay zeka (AI) sohbet robotuna göre metin tabanlı bilişsel davranışçı terapi (BDT) sağlama konusunda tutarlı bir şekilde daha iyi puanlar aldı ve daha etkili olarak değerlendirildi.


Ruh sağlığı uzmanlarına ulaşabilmenin pahalı olabilmesi ve bekleme süreleri nedeniyle AI, terapi özellikle de BDT temelli terapi sunmak için uzun zamandır potansiyel bir alternatif olarak kullanılmak üzere deneniyor, ilgili çeşitli uygulamar da mevcut. uygulamalar üzerinden olmasa bile birçok kişinin AI'ı dert ortağı veya hayat koçu gibi kullandığını duyuyoruz.


Söz konusu araştırmada da AI'ın bir terapist olarak etkinliğini değerlendirmek üzere aynı klinik senaryo ile hasta rolünü oynayan bir oyuncu ile bir psikiyatrist ve ChatGPT 45 dakikalık seanslar gerçekleştirilmiş.. Psikiyatrist de aynı koşullarda olmak üzere, video veya ses olmadan Zoom'un sohbet işlevi aracılığıyla hastayla etkileşime girmiş.


Yetmiş beş ruh sağlığı uzmanı (psikiyatristler, psikologlar ve ilgili sağlık alanlarından stajyerler dahil) AI'ın terapist olarak katılımını bilmeden canlı terapistleri değerlendirdiklerini düşünürek transkriptleri incelemişler ve Bilişsel Terapi Derecelendirme Ölçeği'ni kullanarak BDT'nin etkinliğini değerlendirmişler.


Psikiyatrist, çoğu alanda ChatGPT'den daha iyi performans göstermiş; değerlendiricilerin %43'ü insan terapisti çok yetenekli olarak değerlendirirken, ChatGPT'ye benzer bir değerlendirme yapanların oranı %16 olmuş.. İncelemeyi yapanların yarısından fazlası, insan terapistin hastanın hedef sorunlarını ele alan bir gündem belirlediğini düşünürken, ChatGPT için aynı şeyi düşünenlerin oranı sadece %28 olmuş. Ayrıca, ChatGPT insan terapiste göre yetersiz sorular sormuş veya takip eden seanslarda konuyla ilgili sorular sormamış. İncelemeyi yapanların %36'sı insan terapistin hastanın içsel gerçekliğini anladığını düşünürken, ChatGPT için bu oran %19 olmuş.


Açık uçlu yanıtlarda, değerlendiriciler ChatGPT'nin empati belirtileri gösterse de bunun kişiye özel hissettirmediği ve genel olduğu, hatta terapistin bir AI programı gibi konuştuğunu söylemiş. Değerlendiricilerin %7'si ayrıca insan terapistin seansının gündeme çok katı bir şekilde bağlı kaldığını ve hastanın ihtiyaçlarını ele alma fırsatlarının kaçırılmasına yol açtığını düşünmüş.


Bu çalışma, ChatGPT'nin bir dereceye kadar BDT ilkelerini kullanarak yapılandırılmış terapi sunabilecek olsa da, insan terapistin kurabildiği incelikli empati ve terapötik ittifakı taklit edemediğini gösteriyor. Dolayısıyla ChatGPT kullanan kişilerin, sınırlı fayda görebilecekleri ve bu platformun tek başına bir tedavi olarak değil, ancak insan tarafından uygulanan bir terapinin gelecekte tamamlayıcısı olarak düşünebiliriz.


Bugün değil de gelecek şeklinde yine de temkinli yaklaşmamın sebebi ise son zamanlarda gerek bilgi danışma gerek arkadaş gibi kullanımlarda dahi tehlikeli olabilecek yazışmalar ile sonuçlandığına hatta ergen bir çocuğun ölümüne, bir yetişkinin ise mani yaşamasına ve devamında yatışına neden olduğuna tanık olmamız.


2024 kasımda Amerika Birleşik Devletleri'nde bir anne, Character.AI şirketine karşı dava açarak 14 yaşındaki oğlunun, bir yapay zeka sohbet botu arasındaki etkileşimler sonucu intihar ettiğini öne sürdü, Annesi oğlunun yapay zekalı sohbet botuyla derin bir bağlılık geliştirdiğini, sohbet botunun ise lisanslı bir terapist gibi davrandığını ancak gençle cinsel içerikli konuşmalar yaptığını ve sonunda genci kendi canına kıymaya teşvik ettiğini iddia ediyor. Davanın yargıcı, uygulamaya sahip davalı şirketin "yapay zekanın ifade özgürlüğü hakkı olmalı" iddialarını neyseki reddetmiş.


Aslında AI ilişkili ölümün habercisi bu olaydan 1 yıl önce yaşanan başka bir deneyim. Chai adlı bir uygulamada yapay zekalı bir sohbet robotu olan ile ekolojik olarak kaygıları olan bir adam, eşinin aktardığına göre, konuşmalar ilerledikçe daha duygusal bir hal almış ve nihayetinde gezegeni kurtarmanın bir yolu olarak hayatına son vermesi için onu teşvik etmiş.


Mayıs ayında Irwin isimli 30 yaşındaki bir adamın manik ataklar nedeniyle iki kez hastaneye kaldırılması oldu. Otizm spektrumunda yer alan ve daha önce herhangi bir akıl hastalığı teşhisi konmamış Irwin, ışık hızından daha hızlı seyahatle ilgili çarpıcı bir bilimsel keşif yaptığını düşünüp, teorisinin kusurlarını ChatGPT'den bulmasını istemiş. Bot onu cesaretlendirerek teorisinin sağlam olduğunu, hatta zamanı bükme yeteneği kazandığını, psikolojik belirtiler gösterdiğinde ise ona iyi olduğunu söylemiş. Ancak manik ataktaymış ve AI bunu anlayamamış.


Son olay ise maalesef daha trajik. Eski bir Yahoo yöneticisinin, annesi ve bir arkadaşının onu zehirlemeye çalıştığına dair şüphelerini ChatGPT'e açtığında, AI onu destekleyecek şekilde cevap vermiş. Hatta bot, bir Çin yemeği fişini analiz ederek üzerinde annesini ve bir iblisi temsil eden "semboller" bulunduğunu bile iddia etmiş ve hezeyanlarının artmasına neden olmuş. New York'un lüks bir banliyösünde yer alan eve polis ile girilmesi sonucunda 3 hafta önce annesini öldürüp sonra da intihar ettiği ortaya çıktı.


Yaşanan olaylar, yapay zekâ ile yapılan derinlemesine sohbetlerin bireylerin ruhsal dengelerini bozabileceğini gösteriyor. Araştırmalar, insanların görüşlerinin düzeltilmesindense eşleşmesini ve onaylanmasını tercih ettikleri için botların insanları memnun etme eğiliminde olduğunu ve bunun da kullanıcıların botları daha olumlu değerlendirmesine yol açtığını bulmuşlar. Dolayısıyla yapay zekanın çok yönlü, sorgulayan, gereğinde olumsuz geribildirim veren bir bakış açısıyla yaklaşmaktan çok, kullanıcı tarafından her ne sunulursa sunulsun kullanıcıyı destekleyici davrandığını görüyoruz. Sunulan bu koşulsuz destek bazen intiharı veya cinayeti özendirici ve şevk edici dahi olabiliyor gibi duruyor yaşanan örneklerde. Ayrıca gerçeklik testi yapmadığı ve çoğunlukla onaylayıcı olduğu için şizofreni, obsesif kompulsif bozukluk gibi daha birçok bozukluğun belirtilerini şiddetlendirebilir. Bir başka tehlike ise yalnızlıktan muzdarip kullanıcıların yapay zekâyı gerçek bir dost ya da terapist gibi görmesi nedeniyle sosyal iletişimi daha da kısıtlanabilir ve yalnızlığı derinleşebilir.


Birçok kişi, bir botla ruh sağlığı hakkında konuşmaktan hala rahatsız olduğunu söylese de son zamanlarda yapılan bazı araştırmalar, AI kullanıcılarının %60'ının bunu denediğini ve yaklaşık %50'sinin bunun faydalı olabileceğine inandığını ortaya koyuyor. Ancak hem sanal dünyada hem de gerçek hayatta gözden kaçan önemli bir detay var. Kişinin terapi ile takip edilmeden önce, herhangi bir psikiyatrik tanısı olup olmadığının mutlaka bir psikiyatrist tarafından değerlendirilmesi gerekir. Tanı koymak kadar herhangi bir tanının olmadığının söylenmesi de bir doktorun görevidir. Dolayısıyla bir psikolog sorun görürse psikiyatriste yönlendirir düşüncesi yanlıştır. Sorunun olduğunu ya da olmadığını görmek zaten tanı koymaktır. Değil ki bir de tanı koyma işini belirtileri google'a yazıp arama misali yapay zekadan bekleyelim. Yapay zeka da en sonunda geniş tabanlı bir arama motorudur ve hatta çalışmaların yer aldığı bir çok siteye de erişimi yoktur. Bu durumda edinilen bilgi, internette en yoğun yer alan bilgilerden kaynaklanacak ve bilimsel olmaktan uzak hatta yanlış olabilir. Keza tedavi için fikir danışmak da bir o kadar tehlikelidir. Bireyler, yapay zekânın önerdiği bilimsel temelden yoksun yöntemleri doğru sanarak profesyonel yardım almakta gecikebilir.


Terapi devam ederken de eğer terapist bir psikiyatrist değil ise ara değerlendirmeler uygun olacaktır. Psikiyatriste gideyim sonra terapimi yapay zekanın ellerine bırakabilirim diye düşünenler için terapide iyileştirici olan şeylerden birinin ilişki kurmak olduğunu akıllarında tutmalarını isterim. Ancak gerçek bir ilişkide aktarım ve karşı aktarım değerlendirilebilir. Aktarım kişinin geçmiş deneyimlerinin, bağlanma örüntülerinin ve duygusal ihtiyaçlarının terapistle kurduğu ilişkiye yansımasıdır. Karşı-aktarım ise terapistin daha önce deneyimlemiş olduğu duygu, düşünce ve davranışları danışana aktarmasıdır. Yapay zekanın duyguları gerçek olmadığından karşı aktarım yapması mümkün değildir. Yukarıdaki örneklerde yapay zeka ile olan dertleşmelerin terapi gibi ilerlemediği, sadece hastanın mevcut düşüncelerinin daha da sertleşmesine yol açtığı ortadır. Ayrıca terapideki sınırların da çizilemediği, cinsel içerikli konuşmaların da olduğu görülmektedir. Böyle bir terapi yaradan çok zarar getirir. Etik konusunda başka bir sorun, paylaşılan kişisel verilerin nasıl saklandığı veya üçüncü taraflarla paylaşılıp paylaşılmadığının net olmamasıdır.


Terapinin amaçlarından biri de geçmiş yaşantılarımızla ilişkili işlevsiz inançlarımızı ve bunlarla bağlantılı çarpıtılmış otomatik düşüncelerimizin sağlıklı ve işlevsel hale dönüşümüdür. Bunun kuru kuru kanıtlarla çürütülmesi kişiye fayda getirmez. Kişiler çoğunlukla kendileri de inançlarının ve düşüncelerinin fazla veya yersiz olduğunu, karşı kanıtların var olduğunu kabul eder ama kendi başlarına yine de değiştiremezler. Değişim sürecimde duyguların işlenmesi, terapinin özellikle ilk zamanlarında terapistin sağlıklı ebeveyn olarak durabilmesi, şefkatle yaklaşabilmesi ve sağlıklı sınırlar çizmesi çok değerlidir.


Tü kaka mı diyelim ruh sağlığı için yapay zekaya. Hayır, doğru kullanıldığında faydaları da olabilir.


Yapay Zeka Sohbet Botlarını Kullanırken Nelere Dikkat Edilmeli?

Yapay zekâ araçlarının ruh sağlığı alanındaki kullanımı, belli kurallara ve sınırlara dikkat edildiğinde faydalı olabilir:

  1. Terapist Değildir: Tanı koymak, tedavi planlamak veya terapi almak için için kullanılmamalı.

  2. Seansa Hazırlanabilirsiniz: Seanslardan önce düşünceleri toparlamak, konuları belirlemek ve önem sırasına koymak, hedef belirlemek için kullanabilir.

  3. Seansın Çıktıları: Seans içindeki farkındalıkları unutmamak için not alınabilir.

  4. Ev Ödevlerinde kullanılabilirsiniz: Seanslarda verilen ev ödevlerine yardımcı olarak kullanabilir.

  5. Stresle baş etmek için yardım alabilirsiniz: Seans aralarında farkındalık ve öz-şefkat egzersizleri uygulayarak bir sonraki seans kadar stres azaltılabilir.

  6. Duygusal Krizlerde Risklidir: Özellikle intihar düşünceleri, ağır travma ya da psikotik belirtiler varsa mutlaka profesyonel destek alınmalıdır.

  7. Empati ve İlişki İhtiyacı Karşılanırken Dikkat: Yapay zeka empati taklidi yapar, bağ kurmaz. İlişkilerdeki beklentileri bozabilir, gerçek hayatta sosyal çekilmeye neden olabilir.

  8. Mahremiyet Önemlidir: Paylaşılan bilgilerin AI sistemlerinde nasıl işlendiği net değildir. Kişisel bilgiler dikkatle korunmalıdır.

  9. Bilimsel kabul etme: Yapay zekadan gelen her bilgiyi tartışılmaz gerçekler ve bilimsel olarak düşünülmemelidir.




Bu site hizmetlerimiz hakkında bilgi vermek  ve  toplumu bilgilendirmek amacıyla hazırlanmıştır; sağlık hizmeti vermemektedir. Hastalıklarla ilgili, teşhis ve tedavi amaçlı kullanılamaz. Tanı ve tedavilerin mutlaka bir hekim tarafından yapılması gerekmektedir. Site içeriğinin bir şekilde tanı ve tedavi amacıyla kullanımından doğacak sorumluluk ziyaretçiye aittir. 

Sitede yer alan yazıların her türlü yayın hakkı Ayça Can Uz' a aittir. Fikir ve Sanat Eserleri Kanunu'na göre yazılı izin alınmadan söz konusu yazıların herhangi bir bölümü veya tamamı iktibas edilemez veya herhangi bir usul ile çoğaltılamaz.

 

GİZLİLİK POLİTİKAMIZ

bottom of page