Bild: Getty Images

Stora skillnader i synen på Chat GPT

DIGITALISERING2024-02-23

Trots ett enormt genomslag för AI-verktyg, som Chat GPT, har flera myndigheter inte några riktlinjer för AI-tjänster och uppmuntrar inte heller medarbetarna att använda dem, visar en rundringning som Publikt gjort. Men experter som Publikt talat med menar att det finns risker med en alltför defensiv hållning – både för arbetsgivare och anställda.

Det har gått drygt ett år sedan det amerikanska företaget Open AI lanserade Chat GPT, en AI-baserad chatbot, som på kort tid har fått ett stort genomslag.

I dag är Chat GPT fortsatt det mest kända, men långt ifrån det enda, generativa AI-verktyget som finns lättillgängligt på nätet. Tjänsten har fått sällskap av en uppsjö liknande verktyg och under året har rubrikerna haglat om teknikens potential att revolutionera arbetslivet.

En statlig myndighet som tidigt såg att de nya AI-tjänsterna skulle kunna effektivisera och öka kvaliteten i verksamheten var Ekonomistyrningsverket. Redan förra våren tog myndigheten fram en riktlinje för hur de anställda ska förhålla sig till verktyg som Chat GPT och Bing.

Skälet var enkelt: arbetsgivaren ville uppmuntra medarbetarna att använda dem, berättar Martin Sparr, chef för enheten Statlig styrning.

– Vi ville snabbt och tydligt ta ställning för de här verktygen och omfamna utvecklingen. Riktlinjen var ett sätt att puffa för verktygen, men också att betona att användningen ska ske med gott omdöme och eftertanke, säger han.

Ekonomistyrningsverkets riktlinje ger alla grönt ljus att använda AI-verktygen på jobbet, men uppmärksammar också medarbetarna på de risker som finns med tjänsterna. Bland annat betonas de anställdas ansvar att inte dela känslig information och att kritiskt granska och verifiera svar från verktygen.

I dag används tekniken till exempel som ett hjälpmedel för anställda som ska analysera stora mängder offentlig data. I fall där myndigheten tidigare tvingades göra urval, eftersom arbetet annars blev för tidskrävande, har AI-verktygen möjliggjort totalundersökningar, exempelvis vid analys av samtliga regleringsbrev eller tusentals remissvar, berättar Martin Sparr.

Myndighetens utredningsavdelning, som nyttjar AI-tjänsterna mest, har haft en gemensam utbildningsdag för all personal om hur verktygen fungerar, och varje fredag hålls möten där användningen diskuteras och problematiseras.

De anställda som har fått tillgång till betalversionen av Chat GPT är dessutom tänkta att fungera som ett slags superanvändare, som sprider kunskap vidare till kollegor och som kan agera bollplank.

– Det här är verktyg som vi kommer se mer och mer av, så ju tidigare vi börjar använda och ifrågasätta dem desto duktigare kommer vi att bli, säger Martin Sparr.

Att en statlig myndighet på detta sätt ger konkret vägledning till medarbetarna och uppmanar dem att testa verktyg, som Chat GPT, är en hållning som sticker ut, visar en rundringning som Publikt gjort.

Varken Skatteverket, Försäkringskassan, Riksdagsförvaltningen, Statskontoret eller Regeringskansliet har tagit fram likartade policydokument. Myndigheterna anser att de riktlinjer och rutiner som finns sedan tidigare, till exempel kring informationshantering och molntjänster, är tillräckliga.

På Statskontoret används inte den här typen av AI-verktyg systematiskt i verksamheten, utan har endast testats sporadiskt av enstaka medarbetare, berättar utredningschefen Gabriel Brandström.

– Vi har ingen reglering som förhindrar att fler anställda använder verktygen, men alla måste själva fundera över informationssäkerheten, som vi givetvis har riktlinjer kring. I nuläget bedömer vi att det är tillräckligt, men det kan ändras, om vi ser att vi har nytta av verktygen och de sprids i organisationen, säger han.

Till skillnad från Ekonomistyrningsverket har ingen av de övriga tillfrågade myndigheterna köpt in licenser till betalversionen av Chat GPT.

Skatteverket och Riksdagsförvaltningen svarar att deras medarbetare än så länge inte alls använder den här typen av AI-tjänster i jobbet, förutom i avgränsade tester. Men på Skatteverket övervägs just nu om en mindre grupp anställda med ”lågriskarbetsuppgifter” ska få börja använda Chat GPT, enligt Dan Nordell, AI-strateg på myndigheten.

Han betonar dock att inget beslut är fattat och att myndigheten för närvarande analyserar vilka arbetsuppgifter som skulle kunna bli aktuella.

– I dag får vi inte använda de här tjänsterna på våra datorer okontrollerat, utan allt användande måste godkännas och sker i vårt generativa AI-labb. Där har vi utforskat olika värdeskapande användningsfall och fått en del goda resultat. Därför överväger vi att eventuellt köpa licenser som personal som arbetar med öppen information, till exempel omvärldsbevakning, kan få använda, säger Dan Nordell.

Ann-Therése Enarsson, som är vd på tankesmedjan Futurion som ägs av fackliga organisationer inom tjänstemannarörelsen, tycker att det borde vara obligatoriskt för arbetsgivare att köpa in licenser och att låta medarbetarna ”leka och labba ” med verktygen.

– Myndigheterna behöver ha ett betydligt mer framåtlutat förhållningssätt till de här verktygen, som kan öka effektiviteten och produktiviteten. Det finns ett enormt kunskapsbehov och ett momentum för kompetensutveckling, som man bör ta tillvara, säger Ann-Therése Enarsson.

Hon uppmanar arbetsgivarna att se över och damma av sina gamla riktlinjer, för att säkerställa att de är uppdaterade och kända bland medarbetarna. Dessutom borde alla anställda erbjudas utbildning i hur verktygen fungerar, anser hon.

Även Susanne Stenberg, senior forskare och rättslig expert på forskningsinstitutet RISE, understryker vikten av att arbetsgivarna säkerställer att medarbetarna förstår vad detta är för verktyg och i vilket sammanhang som de är lämpliga att använda.

– Medarbetarna måste ha kunskap om riskerna, till exempel risken att läcka information, och de måste kunna värdera de svar som verktygen ger. Vi måste alla kunna lita på myndigheternas bedömningar, och de görs av medarbetarna, säger Susanne Stenberg.

Samtidigt tycker hon inte att anställda inom statsförvaltningen ska vara rädda för att prova på att prompta, alltså ställa frågor och ge uppdrag till AI-verktygen.

– Det är bra att testa de här verktygen och prata om dem tillsammans. Det är viktigt att offentlig sektor börjar bygga förmågan att förstå hur den här tekniken fungerar, även om man bedömer att de system som finns i dag inte är lämpliga att använda i skarpt läge. De erfarenheterna kan man sedan utvärdera för att verksamhetsutveckla utifrån den egna myndighetens behov, säger Susanne Stenberg.

Ann-Therése Enarsson ser en klar risk med att arbetsgivare är alltför restriktiva och senfärdiga i sitt förhållningssätt till de nya AI-tjänsterna. Att tro att anställda sitter på händerna och avhåller sig från att använda verktygen är naivt, menar hon.

– Som myndighet bör man ligga två steg före och inse att det finns kreativa tjänstemän, som är snabbare på bollen än vad ledningen är och som gör mer än vad ledningen har koll på. Men om enskilda tjänstemän labbar på egen hand kan det bli väldigt fel. Därför är det viktigt att man får lära sig att använda verktyg på rätt sätt, säger Ann-Therése Enarsson.

Hon anser att arbetstagarorganisationerna ska ställa krav på kompetensutveckling om AI-verktyg på arbetsplatserna, men hon ser också ett behov av en kunskapshöjning inom fackföreningsrörelsen.

Att de fackliga organisationerna ST, Unionen och TCO, som Publikt har sökt för intervjuer i ämnet, alla har valt att inte medverka i den här artikeln kan vara ett tecken på att den snabba AI-utvecklingen med dess möjligheter och risker upplevs som utmanande och tidskrävande, menar hon.

– Jag förstår att de här frågorna kan kännas komplexa och att det är svårt att springa i kapp ett rusande tåg. Men ska vi kunna ge förtroendevalda på arbetsplatserna rätt stöd, så måste vi bara riva av plåstret och börja göra, säger Ann-Therése Enarsson.

Kort om Chat GPT

Chat GPT är en så kallad chatbot, som använder en artificiell intelligens, AI, som tränats på stora mängder data från internet för att kunna generera textsvar på olika frågor.

Att det är en generativ AI-tjänst innebär att den kan producera text som tidigare inte har funnits. Med hjälp av algoritmer kopplar den ihop den data som har störst sannolikhet att höra ihop och skapar nya meningar.

Det finns flera liknande verktyg som tillhandahålls fritt på internet, till exempel Bing. Verktygen levereras ofta av utländska företag som molntjänster.

Det finns inget som garanterar att chatbotarnas svar är korrekta. Förutom att svar kan vara felaktiga, så kallade hallucinationer, finns också andra risker. Exempelvis används den information som delas med Chat GPT som träningsdata för chatboten och informationen kan därmed spridas vidare.

Detta är en nyhetsartikel. Publikts nyhetsrapportering ska vara saklig och korrekt. Tidningen har en fri och självständig ställning gentemot sin ägare, Fackförbundet ST, och utformas enligt journalistiska principer samt enligt spelreglerna för press, radio och TV.

ÄMNEN:

AI
Typ
Vet du mer om det ämne som artikeln handlar om, eller om du har tips till redaktionen i något annat ämne, kan du lämna ditt tips här. Du kan också skicka ett mejl till redaktionen.
Om du anser att artikeln innehåller fel, beskriv här vad dessa fel består i. Du kan också skicka ett mejl till redaktionen.

Om du vill debattera det ämne artikeln handlar om, kan du skicka in en debattartikel till Publikt för publicering under vinjetten Debatt. Publikt publicerar inte anonyma debattinlägg, du måste därför alltid ange ditt namn och dina kontaktuppgifter. Redaktionen förbehåller sig rätten att korta och redigera insända debattartiklar. Skicka ditt inlägg som ett Worddokument på mejl till redaktionen.

Innehållet i detta fält är privat och kommer inte att visas offentligt.
CAPTCHA