Svenska statsministern kritiseras för att använda ChatGPT i regeringsbeslut

Image by Dr. Frank Gaeth, from Wikimedia Commons

Svenska statsministern kritiseras för att använda ChatGPT i regeringsbeslut

Lästid: 2 min

Sveriges statsminister Ulf Kristersson mötte kritik efter att han medgav att han använt ChatGPT för att generera idéer till regeringsbeslut.

Har bråttom? Här är snabbfakta:

  • Sveriges statsminister erkänner att han använder ChatGPT för politiskt beslutsfattande.
  • Hans talesperson hävdar att ingen känslig information delas med AI-verktyg.
  • Kritiker menar att användning av AI inom regeringen är farligt och odemokratiskt.

Sveriges statsminister Ulf Kristersson möter ökande allmänhetens motstånd efter att han avslöjat sin vana att använda ChatGPT och LeChat för att hjälpa till med hans officiella beslutsprocess.

”Jag använder det själv ganska ofta. Om inte för något annat så för en andra åsikt,” sa Kristersson som rapporterats av The Guardian. ”Vad har andra gjort? Och borde vi tänka helt motsatt? Sådana typer av frågor.”

Hans uttalande väckte kritik, med Aftonbladet som anklagade honom för att falla för ”oligarkernas AI-psykos,” som rapporterats av The Guardian. Kritiker hävdar att det är både oansvarigt och odemokratiskt att lita på AI för politiska bedömningar.

”Vi måste kräva att pålitlighet kan garanteras. Vi röstade inte för ChatGPT,” sa Virginia Dignum, professor i ansvarsfull AI vid Umeå universitet.

Kristerssons talesperson, Tom Samuelsson, tonade ner kontroversen och sa: ”Naturligtvis är det inte säkerhetskänslig information som hamnar där. Det används mer som en ungefärlig uppskattning,” enligt rapporter från The Guardian.

Men teknikexperter säger att riskerna sträcker sig bortom känslighet för data. Karlstads universitets professor Simone Fischer-Hübner råder mot att använda ChatGPT och liknande verktyg för officiella arbetsuppgifter, som noterats av The Guardian.

AI-forskaren David Bau har varnat för att AI-modeller kan manipuleras. “De visade ett sätt för människor att smyga in sina egna dolda agendor i träningsdata som skulle vara mycket svårt att upptäcka.” Forskning visar en framgångsgrad på 95% för att vilseleda AI-system med hjälp av minnesinjektion eller ”Regelfilsbakdörr” attack, vilket ökar farhågorna om osynligt ingripande i politiska beslutsprocesser.

Ytterligare risker kommer från AI:s potential att urholka demokratin. En nyligen genomförd studie varnar för att AI-system inom rättsväsendet koncentrerar makt, minskar tillsyn och kan främja auktoritarianism.

Var den här artikeln hjälpsam?
Betygsätt den!
Riktigt usel Halvdålig Helt ok Riktigt bra! Älskade den!

Vad kul att du gillar vårt arbete!

Skulle du, som vår uppskattade läsare, vilja uppmärksamma oss på Trustpilot? Det går snabbt och betyder jättemycket för oss. Tack för att du är så fantastisk!

Betygsätt oss på Trustpilot
0 Betygsatt av 0 användare
Titel
Kommentera
Tack för din feedback