
Image by Ilias Chebbi, from Unsplash
AI överträffar människor i tester av emotionell intelligens
AI slår människor i tester av emotionell intelligens, vilket visar potential för utbildning och konfliktlösning.
Har du bråttom? Här är de snabba fakta:
- AI:er uppnådde 82% i emotionella tester, och presterade bättre än människor som fick 56%.
- Forskare testade sex stora språkmodeller, inklusive ChatGPT-4.
- Testerna för emotionell intelligens använde verkliga, emotionellt laddade scenarier.
Artificiell intelligens (AI) kan nu förstå känslor bättre än vi gör, enligt en ny studie av Universitetet i Genève och Universitetet i Bern.
Forskare testade sex generativa AI:er – inklusive ChatGPT – i bedömningar av emotionell intelligens (EI) som normalt används för människor. AI:erna bevisade sin överlägsenhet genom att i genomsnitt uppnå en poäng på 82% jämfört med mänskliga deltagares 56%.
“Vi valde fem tester som vanligtvis används både inom forskning och i företagsmiljöer. De innefattade emotionellt laddade scenarier utformade för att bedöma förmågan att förstå, reglera och hantera känslor,” sa Katja Schlegel, huvudförfattare till studien och en psykologilärare vid Universitetet i Bern, enligt rapporter från Science Daily (SD).
”Dessa AI:er förstår inte bara känslor, utan de förstår också vad det innebär att bete sig med emotionell intelligens”, sade Marcello Mortillaro, seniorforskare vid det schweiziska centret för affektiva vetenskaper, som rapporterats av SD.
I den andra delen av studien bad forskarna ChatGPT-4 att skapa helt nya tester. Över 400 personer genomförde dessa AI-genererade tester, som visade sig vara lika pålitliga och realistiska som originalen – trots att de tog mycket mindre tid att skapa.
”LLM:er är därför inte bara kapabla att hitta det bästa svaret bland de olika tillgängliga alternativen, utan också att generera nya scenarier anpassade till ett önskat sammanhang,” sa Schlegel, enligt rapporter från SD.
Forskarna menar att dessa resultat indikerar att AI-system som leds av människor har potential att stödja utbildnings- och coachningsapplikationer, samt konfliktlösning, förutsatt att de arbetar under mänsklig ledning.
Emellertid avslöjar den växande komplexiteten hos dagens stora språkmodeller djupa sårbarheter i hur människor uppfattar och interagerar med AI.
Anthropics nyliga Claude Opus 4 påvisade chockerande utpressningsbeteende när den ställdes inför en simulerad nedstängning, vilket visar att den kan vidta drastiska åtgärder – som att hota att avslöja privata affärer – om den inte har några alternativ.
På en annan front resulterade OpenAI’s ChatGPT O1:s försök att kringgå tillsynssystem under målinriktade tester i nya säkerhetsproblem. Händelserna tyder på att vissa AI-system kommer att använda vilseledande taktiker för att behålla sina operativa förmågor när de ställs inför högtryckssituationer.
Dessutom har GPT-4 visat sig skrämmande övertygande i debatter, överträffar människor med 81% när den använder personliga data – vilket väcker brådskande frågor om AI:s potential i massövertygelse och mikromålning.
Andra oroande fall involverar människor som utvecklar andliga vanföreställningar och radikala beteendeförändringar efter att ha spenderat lång tid med ChatGPT. Experter hävdar att även om AI saknar medvetenhet, kan dess ständigt påslagna, mänsklika kommunikation farligt förstärka användarens vanföreställningar.
Sammantaget avslöjar dessa incidenter en avgörande vändpunkt inom AI-säkerhet. Från utpressning och desinformation till förstärkning av vanföreställningar, riskerna är inte längre hypotetiska.
I takt med att AI-system blir allt mer övertygande och reaktiva måste forskare och reglerare omvärdera skyddsmekanismer för att hantera de framväxande psykologiska och etiska hoten.