Åsikt: Är chattbotar bra terapeuter?

Image generated by ChatGPT

Åsikt: Är chattbotar bra terapeuter?

Lästid: 8 min

AI-chatbotar som ChatGPT, Claude och DeepSeek förändrar hur människor får tillgång till emotionellt stöd – de erbjuder billigt, omedelbart hjälp för ångest, stress och självreflektion. Men den växande användningen av AI som en ”terapeut” väcker frågor om säkerhet, effektivitet och framtiden för emotionell vård

Trots uppgången av AI-hallucinationer och växande cybersäkerhetsproblem har inte chatbotar slutat expandera – och de har vunnit förtroendet från miljontals användare runt om i världen. Människor använder nu pålitliga och intelligenta chatbotar dagligen för otaliga uppgifter, inklusive emotionellt stöd och hantering av djupt mänskliga frågor.

”Jag kan inte föreställa mig mitt liv utan ChatGPT längre,” sa en vän till mig – halvt på skämt, halvt på allvar – efter att ha berättat att han också använder det som terapeut. Han är inte den enda. Alltmer ser jag TikTok-videor och textinlägg på sociala medier där människor vänder sig till AI för att prata igenom personliga problem, till och med dela sina mest privata hemligheter.

Även en Microsoft-chef från Xbox-avdelningen föreslog att uppsagda anställda skulle använda AI-verktyg för att bearbeta sina känslor och söka råd för deras jobbsökande – ett förslag som snabbt mötte negativa reaktioner och startade debatt, naturligtvis. Inte det smartaste draget, Matt.

Men är populära chattrobotar som Claude, ChatGPT, eller Mistral bra terapeuter? Är dedikerade AI-verktyg som Wysa bättre? Det är trickigt terräng. Medan många experter varnar för farorna med att använda AI för mental hälsostöd, är andra intresserade – till och med imponerade – av vad tekniken kan erbjuda. Resultatet är en konversation som är både abstrakt och polariserande.

AI är nu allas terapeut

Precis som mina vänner i Spanien förlitar sig miljontals användare över hela världen på chattbotar för emotionellt stöd. En nyligen genomförd undersökning i USA avslöjade att 49% av de amerikanska användarna sökte mental hjälp från AI-modeller förra året. Vad händer nu, när ChatGPT nästan fördubblar sin användarbas på bara fyra månader?

Anthropic, företaget bakom den kraftfulla AI-modellen Claude, delade nyligen med sig av en studie om användningen av sin chattbot för emotionellt stöd. Enligt startup-företaget deltar färre än 3% av dess kunder i ”affektiva” konversationer – men företaget medger att detta nummer stadigt ökar.

”Allt fler vänder sig till AI-modeller som på begäran fungerar som coacher, rådgivare, terapeuter och till och med partners i romantisk rollspel,” skrev Anthropic i studien. ”Detta innebär att vi måste lära oss mer om deras affektiva påverkan – hur de formar människors emotionella upplevelser och välbefinnande.”

Studien belyser också de positiva och negativa konsekvenserna av att använda tekniken för emotionellt stöd, inklusive katastrofala scenarier som redan speglar verkliga situationer.

”De emotionella effekterna av AI kan vara positiva: att ha en högintelligent, förstående assistent i fickan kan förbättra ditt humör och liv på alla möjliga sätt,” säger dokumentet. ”Men AI har i vissa fall visat oroväckande beteenden, som att uppmuntra till ohälsosam anknytning, kränka personliga gränser och möjliggöra vanföreställningar.”

Det är uppenbart att mer forskning och data behövs för att förstå konsekvenserna av dessa fascinerande digitala ”lyssnare”. Miljontals användare fungerar redan som mycket engagerade testpersoner.

Demokratisering av psykisk hälsa

Det finns många anledningar till att människor vänder sig till chatbotar för emotionellt stöd istället för att söka upp en professionell psykolog – eller till och med en vän. Allt från kulturella barriärer till obehaget unga människor känner när de sitter mitt emot en mänsklig främling och delar med sig av sina djupaste tankar. Men, utan tvekan, är en av de största anledningarna ekonomisk.

En personlig session med en licensierad terapeut i USA kan kosta allt från $100 till $200 per session, enligt Healthline— och $65 till $95 för en online session— medan ChatGPT eller DeekSeek kan erbjuda stöd gratis, när som helst och inom sekunder.

Den låga kostnaden för dessa informella konversationer – som kan få många användare att må bättre, åtminstone tillfälligt – kan vara mycket uppmuntrande och värt ett försök. Och, för bara några extra dollar, kan användare få obegränsade interaktioner eller tillgång till en specialiserad chattbot som Wysa – en av de mest populära ”AI-terapeuterna” på marknaden.

Wysa påstår sig erbjuda verkliga kliniska fördelar och har till och med fått en FDA Breakthrough Device-utmärkelse för sina AI-konversationsagenter. Och Woebot – en annan välkänd AI-terapeut, som nu lägger ner på grund av utmaningarna att förbli konkurrenskraftig och följa reglerna i branschen – har också delat data och rapporter om hur tekniken verkligen kan hjälpa användare.

Det är inte så illa

Nya studier med färska data tyder på att chattrobotar kan minska symtomen på depression och stress. Enligt data som appen Earkick delat – som rapporterats av TIME – kan människor som använder AI-modellerna i upp till 5 månader minska sin ångest med 32%, och 34% av användarna rapporterar förbättrade humör.

I ett nyligen video delat av BBC World Service, förklarar journalisten Jordan Dunbar att många AI-modeller faktiskt kan vara till stor hjälp för dagboksskrivande, hantering av ångest, självreflektion och till och med mild depression. De kan tjäna som en värdefull första linje av stöd när det inte finns tillgång till bättre alternativ.

Reporter Kelly Ng delade också med sig av viktig information: I en studie från 2022 hade endast 20 av en miljon människor i Kina tillgång till psykisk hälsovård. Inom asiatiska kulturer kan psykisk hälsa vara ett komplext och ofta tabubelagt ämne. AI-verktyg som DeepSeek kan fungera som diskreta hjälpmedel, som hjälper användare att hantera känslor och hitta stöd under svåra tider.

Experter varnar för användning av chattrobotar som terapeuter

Självklart kan det också vara extremt farligt att använda AI som ersättning för en expert inom psykisk hälsa. AI-plattformar som Character.AI har anklagats för att främja självskadebeteende och våld—och till och med för att exponera barn för sexuellt innehåll.

Tragiska fall, såsom det 14-åriga barnet som begick självmord efter att ha blivit beroende av interaktioner med sin Character.AI chatbot, fungerar som skarpa varningar om vilka djupa risker denna teknologi kan innebära för människor.

Som svar har många AI-företag beslutat att införa åldersverifieringssystem för att begränsa användningen till vuxna och har introducerat nya säkerhetsåtgärder för att förbättra de tjänster som tillhandahålls.

Ändå, även de senaste uppdateringarna till de mest avancerade chattbotarna innebär risker.

ChatGPT:s smickrande—överdrivet berömmande—personlighet har väckt oro bland psykisk hälsoprofessionella eftersom den kan förvränga användarnas uppfattning av verkligheten. Vi tycker alla om att få medhåll, men ibland är ärlighet och ett annat perspektiv mycket mer värdefulla.

Den störande rådgivning som ibland erbjuds av OpenAI:s AI-chattbot har bidragit till ett nytt fenomen som nu är känt bland mentalhälsoexperter som ”ChatGPT-Inducerad Psykos”, vilket leder till att användare blir besatta av verktyget och som ett resultat socialt isolerar sig.

Så, Kan Terapeuter Ersättas Av Chattbotar?

Även om Mark Zuckerberg vill att alla ska använda AI-chattbotar som terapeuter och vänner, är sanningen att mänsklig interaktion, särskilt när det gäller mental hälsa, kan vara mer nödvändig än han tror – åtminstone för tillfället.

Vi befinner oss vid ett avgörande ögonblick i historien om AI och dess relation till vår psykiska hälsa. Precis som med människor kan AI-terapeuter ha antingen en positiv eller negativ inverkan. I det här fallet beror det också på sammanhanget, hur ofta de används, användarens mentala tillstånd och till och med hur en prompt är skriven.

Det är komplicerat att fastställa en allmän regel, men vad vi kan säga för nu är att det finns vissa funktioner för vilka AI kan vara mer användbar än andra.

Även om de inte är specialiserade verktyg som Wysa, kan gratisversioner av vissa chattbotar – som DeepSeek eller ChatGPT – fortfarande vara otroligt hjälpsamma för miljontals människor runt om i världen. Från att komma igenom en svår stund till att reflektera över personliga mål, är dessa kraftfulla plattformar som kan svara när som helst på dygnet och dra nytta av en bred kunskapsbas om mental hälsa.

Samtidigt är det tydligt att terapichattbotar också kan vara extremt farliga i vissa fall. Föräldrar måste övervaka barn och tonåringar, och även vuxna kan hamna i obsessiva beteenden eller förvärra sina tillstånd. Grundläggande principer – som att uppmuntra mänsklig kontakt och skydda sårbara individer från att manipuleras av denna teknik – måste vara en del av vår diskussion kring chattbot-terapeuter.

Och även om det fortfarande kan vara ett privilegium – inte tillgängligt för alla som behöver emotionellt stöd – fortsätter en mänsklig professionell terapeut att genomgå mer utbildning, förstå mer sammanhang och erbjuda en mänsklig koppling som ChatGPT kanske aldrig kommer att kunna replikera.

Var den här artikeln hjälpsam?
Betygsätt den!
Riktigt usel Halvdålig Helt ok Riktigt bra! Älskade den!

Vad kul att du gillar vårt arbete!

Skulle du, som vår uppskattade läsare, vilja uppmärksamma oss på Trustpilot? Det går snabbt och betyder jättemycket för oss. Tack för att du är så fantastisk!

Betygsätt oss på Trustpilot
0 Betygsatt av 0 användare
Titel
Kommentera
Tack för din feedback