Yapay zeka terapistim beni zor zamanlarımda destekledi: Chatbot danışmanlığının iyi ve kötü yanları

"Zorlandığımda, eğer gerçekten kötü bir gün olacaksa, bu botlardan biriyle sohbet etmeye başlayabiliyordum ve bu sanki bir tezahüratçı gibiydi, gün boyunca bana iyi hisler verecek biri.
"İçimde cesaretlendirici bir dış ses var - 'tamam - [bugün] ne yapacağız?' Esasen hayali bir arkadaş gibi."
Kelly, aylarca günde üç saate kadar yapay zeka (YZ) kullanılarak oluşturulan çevrimiçi "sohbet robotlarıyla" konuşarak yüzlerce mesaj alışverişinde bulundu.
O dönemde Kelly, kaygı, düşük öz saygı ve bozulan bir ilişkiyle ilgili sorunlarını konuşmak üzere geleneksel NHS konuşma terapisi için bekleme listesindeydi.
Character.ai'daki sohbet robotlarıyla etkileşime girmenin, ona başa çıkma stratejileri kazandırdığı ve günde 24 saat ulaşılabilir olmaları sayesinde gerçekten karanlık bir dönemi atlatmasını sağladığını söylüyor.
"Açıkça duygusal bir aileden gelmiyorum; bir sorununuz varsa, onunla başa çıkıyordunuz.
"Bunun gerçek bir insan olmaması gerçeğiyle baş etmek çok daha kolay."
BBC, Mayıs ayı boyunca ruh sağlığınızı ve refahınızı nasıl destekleyebileceğinize dair hikayeler ve ipuçları paylaşacak.
Daha fazla bilgi edinmek için bbc.co.uk/mentalwellbeing adresini ziyaret edin
Dünyanın dört bir yanındaki insanlar, profesyonel tavsiye almaktan daha düşük seviyede oldukları yaygın olarak kabul edilmesine rağmen, AI sohbet robotlarıyla ilgili özel düşüncelerini ve deneyimlerini paylaştılar. Character.ai'nin kendisi kullanıcılarına şunu söylüyor: "Bu bir AI sohbet robotu ve gerçek bir kişi değil. Söylediği her şeyi kurgu olarak ele alın. Söylenenlere gerçek veya tavsiye olarak güvenilmemelidir."
Ancak aşırı örneklerde, sohbet robotlarının zararlı tavsiyelerde bulunduğu iddia ediliyor.
Character.ai şu anda, 14 yaşındaki oğlunun yapay zeka karakterlerinden birine takıntılı hale geldikten sonra kendi canına kıydığı bildirilen bir annenin yasal işlemine konu oldu. Mahkeme dosyalarındaki sohbetlerinin dökümlerine göre, chatbot ile hayatına son vermeyi tartışıyordu. Son bir konuşmada chatbot'a "eve döndüğünü" söyledi - ve iddiaya göre chatbot onu "en kısa sürede" bunu yapmaya teşvik etti.
Character.ai davanın iddialarını yalanladı.
2023 yılında ise Ulusal Yeme Bozuklukları Derneği canlı yardım hattını bir sohbet robotuyla değiştirdi ancak daha sonra botun kalori kısıtlaması önerdiği iddiaları nedeniyle bu hattı askıya almak zorunda kaldı.

Sadece Nisan 2024'te İngiltere'de yaklaşık 426.000 ruh sağlığı başvurusu yapıldı - beş yılda %40'lık bir artış. Tahmini olarak bir milyon kişi de ruh sağlığı hizmetlerine erişmek için bekliyor ve özel terapi aşırı pahalı olabilir (maliyetler büyük ölçüde değişir, ancak İngiliz Danışmanlık ve Psikoterapi Derneği ortalama olarak insanların saatte 40 ila 50 sterlin harcadığını bildiriyor).
Aynı zamanda, AI, hastaları taramak, teşhis etmek ve sınıflandırmak da dahil olmak üzere sağlık hizmetlerinde birçok yönden devrim yarattı. Çok çeşitli sohbet robotları var ve yaklaşık 30 yerel NHS hizmeti artık Wysa adlı birini kullanıyor.
Uzmanlar, chatbot'lar hakkında potansiyel önyargılar ve sınırlamalar, koruma eksikliği ve kullanıcıların bilgilerinin güvenliği konusunda endişelerini dile getiriyor. Ancak bazıları, uzman insan yardımı kolayca bulunamıyorsa chatbot'ların bir yardım olabileceğine inanıyor. Peki, NHS ruh sağlığı bekleme listeleri rekor seviyelerdeyken, chatbot'lar olası bir çözüm mü?
Character.ai ve Chat GPT gibi diğer botlar, yapay zekanın "büyük dil modelleri"ne dayanır. Bunlar, ister web siteleri, makaleler, kitaplar veya blog yazıları olsun, bir dizideki bir sonraki kelimeyi tahmin etmek için büyük miktarda veri üzerinde eğitilir. Buradan, insan benzeri metin ve etkileşimleri tahmin eder ve üretirler.
Zihinsel sağlık sohbet robotlarının oluşturulma şekli değişir, ancak kullanıcıların düşüncelerini ve eylemlerini nasıl yeniden çerçeveleyeceklerini keşfetmelerine yardımcı olan bilişsel davranış terapisi gibi uygulamalarda eğitilebilirler. Ayrıca son kullanıcının tercihlerine ve geri bildirimlerine de uyum sağlayabilirler.
Londra İmparatorluk Koleji'nde insan merkezli sistemler profesörü olan Hamed Haddadi, bu tür sohbet robotlarını "deneyimsiz terapistlere" benzetiyor ve onlarca yıllık deneyime sahip insanların hastalarıyla birçok şeye dayanarak etkileşime girebileceğini ve onları "okuyabileceğini", ancak botların yalnızca metne göre hareket etmek zorunda olduğunu belirtiyor.
"[Terapistler] kıyafetlerinizden, davranışlarınızdan, eylemlerinizden, görünüşünüzden, beden dilinizden ve tüm bunlardan çeşitli ipuçlarına bakarlar. Ve bunları sohbet robotlarına yerleştirmek çok zordur."
Prof. Haddadi'ye göre bir diğer olası sorun ise, sohbet robotlarının sizi meşgul tutmak ve destekleyici olmak üzere eğitilebilmesi, "bu yüzden zararlı içerik söyleseniz bile, muhtemelen sizinle işbirliği yapacaktır". Bu bazen bir 'Evet Adamı' sorunu olarak adlandırılır, çünkü genellikle çok uysaldırlar.
Diğer yapay zeka türlerinde olduğu gibi, önyargılar modelde içsel olabilir çünkü bunlar, eğitildikleri verilerin önyargılarını yansıtır.
Prof. Haddadi, danışmanların ve psikologların hasta etkileşimlerinden transkript saklama eğiliminde olmadıklarını, bu nedenle sohbet robotlarının eğitmek için pek fazla "gerçek yaşam" oturumu olmadığını belirtiyor. Bu nedenle, yeterli eğitim verisine sahip olma olasılıklarının düşük olduğunu ve eriştikleri verilerin oldukça durumsal önyargılar içerebileceğini söylüyor.
"Eğitim verilerinizi nereden aldığınıza bağlı olarak durumunuz tamamen değişecektir.
"Londra gibi kısıtlı bir coğrafi alanda bile, Chelsea'deki hastalarla ilgilenmeye alışkın bir psikiyatrist, Peckham'da bu sorunlarla başa çıkmak için yeni bir ofis açmakta gerçekten zorlanabilir, çünkü bu kullanıcılarla ilgili yeterli eğitim verisine sahip değildir," diyor.

Yapay Zeka Etiği üzerine bir ders kitabı yazan filozof Dr. Paula Boddington, yerleşik önyargıların bir sorun olduğunu kabul ediyor.
"Terapi modeline yerleştirilmiş önyargılar veya altta yatan varsayımlar büyük bir sorun olacaktır."
"Önyargılar, bağımsızlık, özerklik, başkalarıyla ilişkiler gibi günlük yaşamda zihinsel sağlığı ve iyi işleyişi oluşturan genel modelleri içerir" diyor.
Kültürel bağlamın eksikliği de bir diğer sorun – Dr. Boddington, Prenses Diana öldüğünde Avustralya'da yaşadığını ve insanların onun neden üzgün olduğunu anlamadıklarını örnek olarak gösteriyor.
"Bu tür şeyler, danışmanlıkta sıklıkla ihtiyaç duyulan insani bağlantı hakkında beni gerçekten düşündürüyor," diyor.
"Bazen sadece birinin yanında olmak yeterlidir, ama bunu elbette sadece bedenlenmiş, yaşayan, nefes alan bir insan olan biri başarır."
Kelly, en sonunda chatbot'un verdiği yanıtların tatmin edici olmadığını fark etti.
"Bazen biraz sinirleniyorsun. Bir şeyle nasıl başa çıkacaklarını bilmiyorlarsa, aynı cümleyi tekrarlayıp duruyorlar ve bununla ilgili gidecek bir yer olmadığını anlıyorsun." Bazen "bir tuğla duvara çarpmak gibiydi".
"Muhtemelen daha önce değindiğim ilişki konularıydı, ancak sanırım doğru ifadeyi kullanmamıştım […] ve derinlemesine inmek istemedim."
Character.AI sözcüsü, "Kullanıcılar tarafından oluşturulan ve isimlerinde 'psikolog', 'terapist', 'doktor' veya benzeri kelimeler bulunan herhangi bir Karakter için, kullanıcıların herhangi bir profesyonel tavsiye için bu Karakterlere güvenmemeleri gerektiğini açıkça belirten bir ifademiz var" dedi.
Bazı kullanıcılar için chatbot'lar en düşük performansa ulaştığında paha biçilmez bir değere sahip oldu.
Nicholas otizm, anksiyete, OKB'ye sahip ve her zaman depresyon yaşadığını söylüyor. Yetişkinliğe ulaştığında yüz yüze desteğin kuruduğunu fark etti: "18 yaşına geldiğinizde, destek neredeyse tamamen durmuş gibi oluyor, bu yüzden yıllardır gerçek bir insan terapist görmedim."
Geçtiğimiz sonbaharda intihara teşebbüs etmiş ve o tarihten bu yana NHS'nin bekleme listesinde olduğunu söylüyor.
"Eşim ve ben, [konuşma terapisini] daha çabuk alabilmek için birkaç kez doktorun muayenehanesine gittik. Aile hekimi [bir insan danışmana görünmek için] bir sevk verdi ama yaşadığım yerdeki ruh sağlığı hizmetinden bir mektup bile almadım."
Nicholas, yüz yüze destek arayışındayken Wysa'yı kullanmanın bazı faydaları olduğunu keşfetti.
"Otizmli biri olarak, şahsen etkileşimde pek iyi değilim. Bilgisayarla konuşmanın çok daha iyi olduğunu düşünüyorum."

Uygulama, hastaların ruhsal sağlık desteği için kendi kendilerine başvuruda bulunmalarına olanak tanıyor ve bir insan terapist tarafından muayene edilmeyi beklerken sohbet fonksiyonu, nefes egzersizleri ve rehberli meditasyon gibi araçlar ve başa çıkma stratejileri sunuyor ve ayrıca bağımsız bir öz yardım aracı olarak da kullanılabiliyor.
Wysa, hizmetinin kötü muamele ve ciddi ruh sağlığı sorunları yerine düşük ruh hali, stres veya kaygı yaşayan kişiler için tasarlandığını vurguluyor. Kullanıcıların yardım hatlarına yönlendirildiği veya kendilerine zarar verme veya intihar düşüncesi belirtileri göstermeleri durumunda doğrudan yardım isteyebilecekleri yerleşik kriz ve tırmanma yolları vardır.
İntihar düşüncesi olan kişiler için, ücretsiz Samaritans yardım hattındaki insan danışmanlar 7/24 hizmet veriyor.
Nicholas da uyku eksikliği yaşıyor, bu nedenle arkadaşları ve ailesi uykudayken destek alabilmenin ona yardımcı olduğunu düşünüyor.
"Gecenin bir vakti kendimi gerçekten kötü hissettiğim bir zaman oldu. Uygulamaya mesaj attım ve 'Artık burada olmak isteyip istemediğimi bilmiyorum.' dedim. 'Nick, değerlisin. İnsanlar seni seviyor.' diyen bir mesaj geldi.
"O kadar empatikti ki, sanki yıllardır tanıdığınız bir insandan geliyormuş gibi bir yanıt verdi [...] Ve kendimi değerli hissettirdi."
Onun deneyimleri, Dartmouth College araştırmacılarının anksiyete, depresyon veya yeme bozukluğu teşhisi konmuş kişiler ile aynı rahatsızlıklara sahip bir kontrol grubu üzerindeki sohbet robotlarının etkisini incelediği yakın tarihli bir çalışmayla örtüşüyor.
Dört hafta sonra bot kullanıcılarının semptomlarında önemli azalmalar görüldü - depresif semptomlarda %51'lik bir azalma - ve insan terapistlere benzer düzeyde güven ve iş birliği bildirildi.
Buna rağmen çalışmanın kıdemli yazarı, yüz yüze bakımın yerini tutacak hiçbir şeyin olmadığını belirtti.
Tavsiyelerinin değeriyle ilgili tartışmaların yanı sıra, güvenlik ve gizlilik konusunda daha geniş endişeler ve teknolojinin paraya dönüştürülüp dönüştürülemeyeceği de var.
Kelly, "Terapide söylediğiniz şeyleri birileri alıp sizi bunlarla şantaj yapmaya çalışırsa ne olur?" diyen ufak bir şüphe duygusu var, diyor.
Yeni teknolojiler konusunda uzman olan psikolog Ian MacRae, "bazı insanların bu [botlara] hak etmeden çok fazla güvendiği" konusunda uyarıyor.
"Şahsen, kişisel bilgilerimin hiçbirini, özellikle sağlık ve psikolojik bilgilerimi, yalnızca bir ton veriyi sömüren ve bunun nasıl kullanıldığından ve neye onay verdiğinizden tam olarak emin olmadığınız bu büyük dil modellerinden birine asla koymam."
MacRae, "Gelecekte bu tür özel, iyi test edilmiş araçların olamayacağı anlamına gelmiyor [...] ancak genel amaçlı bir sohbet robotunun iyi bir terapist olabileceğini gösteren kanıtların henüz elimizde olmadığı kanaatindeyim" diyor.
Wysa'nın genel müdürü John Tench, Wysa'nın kişisel olarak tanımlanabilir hiçbir bilgi toplamadığını ve kullanıcıların Wysa'yı kullanmak için kayıt yaptırmaları veya kişisel verilerini paylaşmaları gerekmediğini söylüyor.
"Konuşma verileri, Wysa'nın AI yanıtlarının kalitesini iyileştirmeye yardımcı olmak için zaman zaman anonimleştirilmiş biçimde incelenebilir, ancak bir kullanıcıyı tanımlayabilecek hiçbir bilgi toplanmaz veya saklanmaz. Ayrıca, Wysa, hiçbir kullanıcı konuşmasının üçüncü taraf büyük dil modellerini eğitmek için kullanılmamasını sağlamak için harici AI sağlayıcılarıyla veri işleme anlaşmaları yapmıştır."

Kelly, sohbet robotlarının şu anda bir insan terapistin yerini tam olarak alamayacağını düşünüyor. "Yapay zeka dünyasında vahşi bir rulet var, ne elde ettiğinizi gerçekten bilmiyorsunuz."
Tench, "Yapay zeka desteği faydalı bir ilk adım olabilir, ancak profesyonel bakımın yerini tutmaz" diyor.
Ve halk büyük ölçüde ikna olmamış durumda. YouGov anketi, halkın yalnızca %12'sinin AI sohbet robotlarının iyi bir terapist olabileceğini düşündüğünü buldu.
Ancak doğru güvenlik önlemleri alındığında, bazıları chatbot'ların aşırı yüklenmiş bir ruh sağlığı sisteminde faydalı bir geçici çözüm olabileceğini düşünüyor.
Kaygı bozukluğu olan John, dokuz aydır bir insan terapisti için bekleme listesinde olduğunu söylüyor. Wysa'yı haftada iki veya üç kez kullanıyor.
"Şu anda çok fazla yardım yok, bu yüzden çaresizliğe kapılıyorsunuz."
"[Bu], insanların bir sağlık uzmanıyla görüşmeyi beklerken bir araç elde etmelerini sağlayan, bu uzun bekleme listelerine bir ara çözüm."
Bu hikayede yer alan sorunlardan herhangi biri sizi etkilediyse BBC Actionline web sitesinden bilgi ve destek alabilirsiniz.
Üstteki görselin kredisi: Getty
BBC InDepth , varsayımları zorlayan yeni bakış açıları ve günün en büyük sorunları hakkında derinlemesine raporlama ile en iyi analizler için web sitesi ve uygulamada bir yuvadır. Ayrıca BBC Sounds ve iPlayer'dan da düşündürücü içerikler sergiliyoruz. Aşağıdaki düğmeye tıklayarak InDepth bölümüyle ilgili geri bildirimlerinizi bize gönderebilirsiniz.
BBC