Skip to content
All posts

Så arbetar du praktiskt med säker AI-användning

Många företag har redan börjat använda generativa AI-verktyg i sin verksamhet för kommunikation, dokumentation, kundtjänst och beslutsstöd. AI ger oss fantastiska möjligheter att effektivisera och innovera men osäkerheten på hur man använder AI ansvarsfullt och säkert har blivit ett hinder för många företag. Vi vill skapa lite klarhet i hur man tar sig an ansvars- och säkerhetsfrågorna utan att stoppa innovationskraften.

Börja med en AI-policy

Det första ni bör sätta er ner med är er AI-policy. Den behöver svara på frågor som: Vilka verktyg är godkända att använda? Vilken typ av data får matas in? Hur ska AI användas i interna beslutsprocesser? Vem är ansvarig för att följa upp? En bra AI-policy är tydlig, förankrad och kommunicerad till hela organisationen. Och den ska gå att uppdatera, för AI-landskapet förändras snabbt.

Bygg in säkerhet från början

GDPR:s princip om ”Privacy by Design” är relevant när det gäller AI. Integrera dataskydd i varje steg av er utveckling, från planering till implementation. Om ni utvecklar egna AI-lösningar internt bör ni redan från början ställa frågor som: Vilka datakällor används? Hur anonymiseras informationen? Vem har tillgång till vad? Det kan vara relevant att träna modellen på syntestisk data, vilket du kan läsa mer om här.

För de externa verktyg ni använder gäller det att förstå vad som händer med datan. Används den för att träna modellen vidare? Sparas den? Går den att radera? Undvik gratisverktyg där villkoren är otydliga, eller där det saknas garantier för att datan stannar inom EU.

stewart-maclean-mT8E8qJGfmE-unsplash-1

Utbilda och involvera hela organisationen

Teknik är bara en del, resten handlar om människor. För att skapa en trygg och medveten AI-användning krävs utbildning. Många av de incidenter som uppstår hade kunnat undvikas om medarbetarna haft kunskap om riskerna. Bromsa inte användningen av AI, styr den istället i rätt riktning. Bjud in till workshops, skapa interna guider, och uppmuntra till frågor och reflektion. Vad får jag mata in i AI:n? Vad gör jag om jag är osäker? Vem kontaktar jag?

Välj verktyg som tar säkerhet på allvar

Det finns AI-lösningar som är byggda med dataskydd i fokus. Många företag väljer idag att använda så kallade enterprise-versioner av populära AI-verktyg, där man får mer kontroll över datalagring, åtkomst och användning. Det finns även lösningar där man kan köra AI-modeller lokalt, utan att informationen lämnar den egna miljön.

Alla AI-verktyg är inte är likadana. Det spelar roll om ni använder en öppen, molnbaserad modell eller en privat, skräddarsydd lösning. Säkerhet måste väga in i valet av plattform, inte bara funktionalitet. Läs det finstilta innan ni tecknar avtal.

Hur hanteras data i några olika lösningar?

  • ChatGPT gratis- eller Plus-konto: Data kan användas för att träna OpenAI:s modeller, om man inte aktivt stängt av detta. Informationen lagras i USA och omfattas inte automatiskt av GDPR-skydd.
  • ChatGPT Team (via OpenAI): Konversationsdata används inte för att träna modeller. Dock lagras datan på OpenAI:s servrar (i USA), och EU-baserad lagring är inte garanterad.
  • ChatGPT Enterprise (via OpenAI): Data används inte för träning. Högre säkerhetsnivå med kryptering, SSO och rollbaserad åtkomst. Möjlighet till avtal om datalagring inom EU och personuppgiftsbiträdesavtal (DPA). 
  • Microsoft Copilot / Azure OpenAI: Data används inte för träning. Lagring sker inom EU (om inställt) och Microsoft agerar personuppgiftsbiträde. Hög kontroll över säkerhet, efterlevnad och modellval. Azure ger störst möjlighet till anpassning och intern hosting.
  • Mbpai (vår egen tjänst): All datalagring och trafik sker inom Sverige (AWS Stockholm). Varje kund har en isolerad instans med egen databas och AI:n tränas aldrig på era data. Ingen information delas, analyseras centralt eller används utanför er miljö. Vi agerar personuppgiftsbiträde enligt GDPR. Läs mer på mbpai.se

 

Följ upp, dokumentera och utvärdera

Dokumentera hur AI används i organisationen, uppdatera riskbedömningar vid förändringar, och utvärdera regelbundet om verktygen verkligen stödjer era mål och krav på dataskydd, för det kommer också nya regler. Den kommande EU-förordningen AI Act innebär bland annat att vissa typer av AI kommer klassas som högrisk och omfattas av skärpta krav. Att redan nu börja bygga upp ett strukturerat AI-arbete är inte dumt.

Säker AI-användning handlar om både teknik, ledarskap, processer och kultur. Det är inte ett alternativ att som organisation förbjuda AI, AI kommer att användas ändå, men utom er kontroll. Det är mycket bättre att aktivt styra hur den används. Det går att ta tillvara på teknikens potential utan att tumma på säkerheten.

Här vill vi gärna passa på att puffa för vår egen lösning. Vi har tagit fram mbpai för att göra det möjligt för fler att låta hela organisationen använda en smart, trygg AI-lösning, anpassad för vår svenska verklighet. Läs mer på mbpai.se 

Din att-göra-lista

  1. Ta fram en AI-policy - Bestäm vilka verktyg som får användas, vilken typ av data som är okej att mata in och vem som ansvarar för uppföljning.
  2. Bygg in säkerhet från början - Integrera dataskydd redan i planeringen – anonymisera data, kontrollera åtkomst och undvik verktyg med oklara villkor.
  3. Utbilda organisationen - Ge alla grundläggande kunskap om AI-risker och skapa enkla vägar att ställa frågor, till exempel via interna guider eller workshops.
  4. Välj rätt verktyg - Använd lösningar med stöd för GDPR och säker lagring – som enterprise-versioner, Azure OpenAI eller mbpai.
  5. Följ upp och utvärdera - Dokumentera hur AI används, testa de svar era implementationer ger regelbundet och uppdatera riskbedömningar.

Behöver du hjälp att sätta upp en struktur för AI-säkerhet? Hör av dig?