Om riktlinjerna
Riktlinjerna vägleder offentliga aktörer så att de kan använda generativ AI på ett medvetet och ansvarsfullt sätt. De fungerar även som ett metodstöd för ledning och medarbetare i frågor som rör generativ AI.
Myndigheten för digital förvaltning (Digg) och Integritetsskyddsmyndigheten (IMY) har tillsammans tagit fram riktlinjer för hur offentlig förvaltning bör använda generativ AI. Syftet med riktlinjerna är att ge regioner, myndigheter och kommuner vägledning och skapa trygghet i användningen av generativ AI samt underlätta användningen av den för att möta verksamhetens behov.
Riktlinjen har följande mål:
- Öka användningen av generativ AI inom offentlig förvaltning.
- Främja möjligheterna att använda generativ AI som ett stöd för verksamheten.
- Säkerställa att användningen följer lagar och regler, som GDPR och andra EU-direktiv.
Vänder sig till offentlig förvaltning som är i början av AI-resan
Målgruppen för riktlinjerna är anställda och personer i ledningsfunktioner inom regioner, myndigheter och kommuner. Det hindrar dock inte att riktlinjerna kan vara användbara för andra som använder generativ AI i sin verksamhet. Innehållet är särskilt relevant för de som befinner sig i en tidig fas av AI-mognaden. För de som redan använder generativ AI och till och med har egna policys eller riktlinjer på AI-området kan riktlinjerna framstå som för generella, även om vissa avsnitt kan tillföra värde även för dem.
Uppdateras kontinuerligt
Generativ AI utvecklas snabbt. Riktlinjerna täcker inte alla behov eller frågor. De kommer fortsätta att kontinuerligt utvecklas och uppdateras utifrån marknadens utveckling och de ökande erfarenheterna från användningen av generativ AI.
Bygger på vanliga frågor till Digg och IMY
Riktlinjerna bygger på vanliga frågor och relevanta områden för Digg och IMY att svara på; främja digitalisering och vägleda kring dataskyddsregler. För övriga frågor om generativ AI hänvisas till andra informationskällor. Se exempelvis andra myndigheters- och organisationers vägledningar samt aktörer som AI Sweden och RISE.
Utveckling och finjustering omfattas inte
Att utveckla generativa AI-system, det vill säga att ta fram en grundmodell/stor språkmodell som kan användas för att lösa olika typer av uppgifter, är en resurskrävande process som kräver betydande investeringar, stora mängder data och en omfattande teknisk infrastruktur. Verksamheter inom offentlig förvaltning har generellt sett begränsade möjligheter att själva utveckla sådana system från grunden.
Ett alternativ till att utveckla en ny grundmodell är exempelvis att finjustera en befintlig modell för att anpassa den till verksamhetens specifika behov. Även finjustering av befintliga modeller är en avancerad process som kräver specialistkompetens, tillgång till större datamängder och betydande tekniska resurser samt verksamhetsresurser. Detta är något som de flesta verksamheter inom offentlig förvaltning saknar idag.
Mot denna bakgrund behandlar riktlinjerna varken utvecklingen av nya grundmodeller eller finjustering av befintliga grundmodeller. Istället fokuserar riktlinjerna på hur offentliga verksamheter kan använda existerande generativa AI-system på ett ansvarsfullt och rättssäkert sätt.
Ditt svar hjälper oss att förbättra sidan
Senast uppdaterad: