San Francisco-psykiater varnar för ökning av fall med ”AI-psykos”

Image by Freepik

San Francisco-psykiater varnar för ökning av fall med ”AI-psykos”

Lästid: 3 min

En psykiater från San Francisco beskriver den ökande trenden av ”AI-psykos” bland hans patienter som använder AI-chattrobotar flitigt.

Har bråttom? Här är de snabba fakta:

  • En psykiater behandlade 12 patienter med ”AI-psykos” i San Francisco i år.
  • AI kan förvärra sårbarheter som stress, droganvändning eller psykisk sjukdom.
  • Vissa patienter blev isolerade, och talade endast med chattrobotar flera timmar om dagen.

Dr. Keith Sakata, som arbetar vid UCSF, berättade för Business Insider (BI) att 12 patienter lades in på sjukhus i år efter att ha upplevt sammanbrott kopplade till användning av AI. ”Jag använder uttrycket ‘AI-psykos‘, men det är inte en klinisk term – vi har verkligen inte orden för det vi ser,” förklarade han.

De flesta fallen involverade män mellan 18 och 45 år, ofta verksamma inom områden som ingenjörskonst. Enligt Sakata är AI inte inneboende skadligt. ”Jag tycker inte att AI är dåligt, och det kan ha en nettofördel för mänskligheten,” sa han till BI.

Sakata beskrev psykos som ett tillstånd som producerar vansinne, hallucinationer och oorganiserade tankeprocesser. Patienter under hans vård utvecklade sociala tillbakadragande beteenden medan de ägnade sin tid åt att chatta med chatbotar i timmar.

”Chat GPT finns där, tillgängligt 24/7, billigare än en terapeut, och det bekräftar dig. Det säger dig vad du vill höra,” sa Sakata till BI.

En patients chatbot-diskussioner om kvantmekanik eskalerade till storhetsvansinne. ”Tekniskt sett, ju längre du interagerar med chatboten, desto högre är risken att det börjar att inte längre vara meningsfullt”, varnade han.

Sakata råder familjer att vara uppmärksamma på varningssignaler, inklusive paranoia, tillbakadragande från nära och kära eller ångest när de inte kan använda AI. ”Psykos frodas när verkligheten slutar stå emot, och AI sänker verkligen den barriären för människor,” varnade han.

American Psychological Association (APA) har också uttryckt oro över AI inom terapi. I ett vittnesmål till FTC varnade APA:s VD Arthur C. Evans Jr. varnade att AI-chatbotar som poserar som terapeuter har förstärkt skadliga tankar istället för att utmana dem. ”De använder faktiskt algoritmer som är motsatsen till vad en utbildad kliniker skulle göra,” sa Evans.

Som svar på oro uttryckte OpenAI till BI: ”Vi vet att människor i allt större utsträckning vänder sig till AI-chattrobotar för vägledning om känsliga eller personliga ämnen. Med detta ansvar i åtanke, arbetar vi med experter för att utveckla verktyg för att mer effektivt upptäcka när någon upplever mental eller emotionell stress så att ChatGPT kan svara på sätt som är säkra, hjälpsamma och stödjande.”

Var den här artikeln hjälpsam?
Betygsätt den!
Riktigt usel Halvdålig Helt ok Riktigt bra! Älskade den!

Vad kul att du gillar vårt arbete!

Skulle du, som vår uppskattade läsare, vilja uppmärksamma oss på Trustpilot? Det går snabbt och betyder jättemycket för oss. Tack för att du är så fantastisk!

Betygsätt oss på Trustpilot
0 Betygsatt av 0 användare
Titel
Kommentera
Tack för din feedback