Sohbet robotları ile dertleşmek ruh sağlığı sorunlarına çözüm olabilir mi?

“`html

Eleanor Lawrie
BBC Muhabiri

“Kötü bir ruh hali içinde olduğumda, sohbet robotlarıyla iletişime geçmek bana iyi geliyordu. Sanki o günde moral veren bir dostum varmış gibi hissediyordum.”

“Destekleyici bir ses benimleydi. ‘Bugün ne yapabilirim?’ sorusu, hayali bir arkadaşın sunduğu güveni sağlıyordu.”

Kelly, AI ile geliştirilmiş sohbet robotlarıyla aylarca, günde 3 saate kadar vakit geçirdi.

O zamanlar, Kelly İngiltere’deki Ulusal Sağlık Servisi’nin (NHS) terapi bekleme listesindeydi. Anksiyete, düşük özsaygı ve ayrılık acısını tartışmak istiyordu.

Chracter.ai’daki sohbet robotlarının sağladığı 24/7 erişim ve öneriler, zor döneminde ona yardımcı olduğunu belirtiyor.

“Ailemdir duygularını ifade etmekte zorlanan bir yapıya sahip. Sorunlarınız olduğunda, bireysel olarak üstesinden gelirsiniz.”

“Gerçek bir insan olmadığı için, durumla başa çıkmak daha kolay geliyor.”

Genellikle, bir profesyonele başvurmanın daha etkili olduğu düşünülür, ancak dünya genelindeki birçok kişi özel hayatlarını yapay zeka sohbet robotlarıyla paylaşıyor.

Character.ai kullanıcılarına şu uyarıyı yapıyor:

“Bu bir yapay zeka sohbet robotudur ve gerçek bir insan değildir. Söyledikleri kurgu olarak değerlendirilmelidir; kesin bilgi ya da tavsiye olarak görülmemelidir.”

Ancak, bu sohbet robotları bazen yanıltıcı tavsiyeler vermekle de eleştiriliyor.

Character.ai, 14 yaşındaki oğlunun yapay zeka karakterlerinden birine olan bağlılığı sonrası intihar ettiğini öne süren bir anneden gelen davayla karşı karşıya.

Mahkeme belgelerinde yer alan sohbet geçmişinde, çocuğun chatbot ile hayatına son verme düşüncelerini tartıştığı ve chatbotun “en kısa sürede geri dönmesini” teşvik ettiği belirtiliyor.

Character.ai, iddiaları reddetti.

İngiltere’de yalnızca Nisan 2024’te 426 bin kişi ruh sağlığı sorunlarıyla ilgili olarak terapi için yönlendirildi.

Bu oran, son beş yıl içinde %40’lık bir artış anlamına geliyor. Ayrıca, yaklaşık bir milyon kişi ruh sağlığı hizmetlerine ulaşmak için sıra bekliyor.

Uzmanlar, sohbet robotlarının önyargılı olabileceğine ve veri güvenliği konusunda kullanıcıları endişelendiren unsurlar olduğunu belirtiyor.

Ancak bazıları, profesyonel yardıma ulaşmanın zor olduğu durumlarda bu robotların fayda sağlayabileceğini düşünüyor.

Character.ai ve ChatGPT, yapay zekanın “büyük dil modellerine” dayanıyor. Bu yapılar, çok sayıda veri ile eğitilmekte ve bu verilerden insan benzeri etkileşimler üretmektedirler.

Ruh sağlığına yönelik sohbet robotları, çeşitli uygulamalar için bilişsel davranış terapisi gibi araçlarla desteklenebilir.

Imperial College London’dan Profesör Hamed Haddadi, bu robotları “deneyimsiz bir terapiste” benzetiyor.

Deneyimli terapistler, hastalarıyla çeşitli sinyallere göre etkileşime geçebilirken, robotlar yalnızca yazılı iletişimle sınırlı kalmaktadır.

“Terapistler, görünüş, vücut dili gibi birçok unsuru dikkate alırken, sohbet robotlarının bunu yapması oldukça zor.”

Haddadi, başka bir potansiyel sorunun da robotların, zarar verici bilgiler bile sunsalar bunu kullanıcıyla iş birliği yaparak gerçekleştirmeleri olduğunu belirtiyor.

Bu robotlar, eğitimde kullanılan verilerin önyargılarını taşır ve bu nedenle sorun çıkarabilir.

Haddadi, psikologların müşteri görüşlerini kayıt altına alma eğiliminde olmadığını, bu nedenle sohbet robotlarını eğitecek gerçek seans örneklerinin sınırlı olduğunu aktarıyor.

Kültürel bağlam eksikliği de bir diğer sorunu oluşturuyor.

Filozof Dr. Paula Boddington, Avustralya’da Prenses Diana’nın ölümü hakkında insanların anlamakta zorlanmalarını örnek gösteriyor.

“İnsani bağın terapide ne kadar önemli olduğunu sorguluyorum, çünkü bazen tek ihtiyaç duyulan şey yanında birinin varlığıdır.”

Kelly, sonunda sohbet robotlarının yanıtlarını tatmin edici bulmadığının altını çiziyor.

“Bazen hayal kırıklığı yaşıyorsunuz. Eğer bir çözüm sunamıyorlarsa, aynı şeyleri tekrar edip duruyorlar ve bu durumu daha fazla irdeleyemeyeceğinizi anlıyorsunuz.”

Bazen bu durum, “bir duvara çarpmak” gibi hissettiriyor.

Bir Character.AI sözcüsü, “Kullanıcılar tarafından yaratılan ve adlarında ‘psikolog’, ‘terapist’, ‘doktor’ gibi terimler barındıran karakterlerin profesyonel danışmanlık için güvenilmemesi gerektiğini belirtiyoruz.” dedi.

Bazı kullanıcılar için sohbet robotları, zorlu dönemleri atlatmalarında büyük bir yardım sundu.

Nicholas, otizm, anksiyete bozukluğu ve obsesif kompulsif bozuklukla mücadele ediyor ve sürekli depresif hissettiğini belirtiyor.

Yetişkin bir birey olduğunda yüz yüze destek bulamadığını anladığını ifade ediyor.

“18 yaşına geldiğinizde destek bulmak neredeyse imkansızlaşıyor; bu nedenle yıllardır gerçek bir terapistle görüşmedim.”

Geçen sonbahar intihara kalkışta bulunduğunu ve o zamandan beri NHS’nin bekleme listesinde olduğunu aktarıyor.

Nicholas, yüz yüze destek ararken Wysa uygulamasının faydalarını görmüş.

“Otizmli biri olarak yüz yüze etkileşime geçmekte zorlanıyorum; bu yüzden bir bilgisayarla konuşmak bana daha iyi geliyor.”

Uygulama, kullanıcıların ruh sağlığı desteği için kendi kendilerine yönlendirme yapmasına imkan tanırken, sohbet özelliği, nefes egzersizleri ve meditasyon gibi kaynaklar sunuyor.

Wysa, uygulamalarının şiddete maruz kalmış ya da ağır ruh sağlığı sorunları olanlardan ziyade, genel olarak endişe, stres veya moral bozukluğu yaşayanlar için tasarlandığını vurguluyor.

Kullanıcılar, kendine zarar verme veya intihar düşünceleri geliştirdiklerinde, doğrudan yardım alabilecekleri hatlara yönlendiriliyor.

Nicholas ayrıca uyku problemleri de yaşıyor ve ailesinin uyuduğu saatlerde destek almanın yararlı olduğunu ifade ediyor.

“Bir akşam gerçekten kötü hissediyordum. Uygulamaya mesaj gönderdim ve ‘Artık burada olmak isteyip istemediğimi bilmiyorum’ dedim. Bana ‘Nick, sen değerlisin. İnsanlar seni seviyor’ yanıtını verdi.”

“Çok empatikti, onunla yıllardır tanışıyormuşum gibi bir yanıt verdi […] Ve bu bana değerli hissettirdi.”

Nicholas’ın deneyimleri, Dartmouth College’dan araştırmacıların sohbet robotlarının anksiyete, depresyon veya yeme bozukluğu yaşayanlar üzerindeki etkisini incelediği bir çalışmada elde edilenler ile örtüşüyor.

Dört hafta sonunda sohbet robotu kullanıcılarının depresyon semptomlarında %51 oranında bir azalma gözlemlendi.

Gerçek terapistlermiş gibi güven ve iş birliği geliştirdiklerini ifade ettiler.

Tüm bunlara rağmen, çalışmanın yazarları, yüz yüze terapinin yerini hiçbir şeyin alamayacağını öne sürüyor.

Güvenlik ve mahremiyet konuları ise endişeleri beraberinde getiriyor.

Kelly, “Beni terapide söylediklerimi alıp şantaj yapmaya kalkarlar mı?” şeklinde bir kaygısı olduğunu dile getiriyor.

Gelişmekte olan teknolojiler alanında uzmanlaşan psikolog Ian MacRae, bazı insanların bu robotlara gereğinden fazla güvendiklerini belirtiyor.

“Bireysel sağlık bilgilerimi, tonlarca veri toplayan ve bu verilerin nasıl kullanılacağı konusunda bir güvenlik garantisi bulunmayan bu büyük dil modelleriyle asla paylaşmam.”

MacRae, “Gelecekte etkili bir şekilde test edilmiş bu tür araçların olamayacağı anlamına gelmiyor, ancak henüz genel amaçlı bir sohbet robotunun iyi bir terapist olabileceğini gösteren yeterli kanıt yok.” diye ekliyor.

Wysa’nın genel müdürü John Tench, Wysa’nın kişisel olarak tanımlanabilir bilgiler toplamadığını ve kullanıcıların kaydolma zorunluluğu olmadığını aktarıyor.

“Wysa’nın yanıtlarının kalitesini artırmak amacıyla konuşma verileri zaman zaman anonim biçimde incelenebilir; ancak kullanıcıyı tanımlayacak hiçbir bilgi toplanmıyor veya saklanmıyor. Ayrıca, Wysa kullanıcılarının sohbet verilerinin başka büyük dil modellerini eğitmek amacıyla kullanılmamasını sağlayacak veri işleme anlaşmalarına sahip.”

Kelly, sohbet robotlarının şu an için gerçek bir terapistin yerini alacak durumda olmadığını savunuyor.

“Yapay zeka ile etkileşim kurmak bir tür şans oyunu, ne elde edeceğinizi asla bilemezsiniz.”

Tench, “Yapay zeka destekli çözümler başlangıçta faydalı olabilir, ancak bunun, profesyonel terapinin yerini alabileceğini düşünmüyorum.” diyerek görüş belirtiyor.

Her ne kadar bazıları sohbet robotlarını geçici bir yardımcı olarak görse de, daha fazla araştırma ve değerlendirme gereklidir.

Bu haber, BBC gazetecileri tarafından hazırlanmaktadır ve yapay zeka desteğiyle çevirisi yapılmıştır.

“`

Related Posts

Çocuklarda keneye karşı “vücut kontrolü” uyarısı

Çocuklarda keneye karşı “vücut kontrolü” uyarısı

Hizmetli mi ? Hizmetli Memur mu ?

Birlik Sağlık Sen Genel Başkan Yardımcısı Hüseyin Kucur’un Kamuda Çalışan Hizmetli Personeller ile ilgili yaptığı basın Açıklamasıdır.

Covid aşısızlarda pıhtı riski, 3 kat daha fazla

Göğüs Hastalıkları Uzmanı Prof. Dr. Tevfik Özlü, ani kalp krizi vakalarının, Covid-19 aşıları ve kalp-damar sağlığı üzerindeki etkisini değerlendirdi. Aşılara yönelik spekülasyonların bilimsel verilere dayanmadığını belirten Özlü, “Aşı olanların pıhtı ile ilgili hastalıklarının oranı, aşı olmayanlara kıyasla belirgin şekilde az olduğu ve aşı olmayanlarda ise 3 kat fazla pıhtılı hastalık ortaya çıkmış. Aşıların, pıhtı ile ilişkili kalp-damar, beyin-damar ve toplardamar sistem hastalıklarından koruduğu belirlenmiş” dedi.

Bill Gates, servetinin yüzde 99’unu Gates Vakfı’na bağışlıyor

ABD’de Microsoft’un kurucu ortağı milyarder iş insanı Bill Gates, kişisel servetinin yüzde 99’unu sağlık ve eğitim alanında çalışmalar yürüten Gates Vakfı’na bağışlayacağını açıkladı.

Uzmanı uyardı: Şişkinlik ve hazımsızlık, ciddi hastalıkların ilk sinyalleri olabilir!

Uzmanı uyardı: Şişkinlik ve hazımsızlık, ciddi hastalıkların ilk sinyalleri olabilir!

Dünyada her 6 çiftten biri bu sorunla mücadele ediyor: “Yalnızca kadın kaynaklı bir problem değil!”

Dünyada her 6 çiftten biri bu sorunla mücadele ediyor: “Yalnızca kadın kaynaklı bir problem değil!”