Många företag har redan börjat använda generativa AI-verktyg i sin verksamhet för kommunikation, dokumentation, kundtjänst och beslutsstöd. AI ger oss fantastiska möjligheter att effektivisera och innovera men osäkerheten på hur man använder AI ansvarsfullt och säkert har blivit ett hinder för många företag. Vi vill skapa lite klarhet i hur man tar sig an ansvars- och säkerhetsfrågorna utan att stoppa innovationskraften.
Det första ni bör sätta er ner med är er AI-policy. Den behöver svara på frågor som: Vilka verktyg är godkända att använda? Vilken typ av data får matas in? Hur ska AI användas i interna beslutsprocesser? Vem är ansvarig för att följa upp? En bra AI-policy är tydlig, förankrad och kommunicerad till hela organisationen. Och den ska gå att uppdatera, för AI-landskapet förändras snabbt.
GDPR:s princip om ”Privacy by Design” är relevant när det gäller AI. Integrera dataskydd i varje steg av er utveckling, från planering till implementation. Om ni utvecklar egna AI-lösningar internt bör ni redan från början ställa frågor som: Vilka datakällor används? Hur anonymiseras informationen? Vem har tillgång till vad? Det kan vara relevant att träna modellen på syntestisk data, vilket du kan läsa mer om här.
För de externa verktyg ni använder gäller det att förstå vad som händer med datan. Används den för att träna modellen vidare? Sparas den? Går den att radera? Undvik gratisverktyg där villkoren är otydliga, eller där det saknas garantier för att datan stannar inom EU.
Teknik är bara en del, resten handlar om människor. För att skapa en trygg och medveten AI-användning krävs utbildning. Många av de incidenter som uppstår hade kunnat undvikas om medarbetarna haft kunskap om riskerna. Bromsa inte användningen av AI, styr den istället i rätt riktning. Bjud in till workshops, skapa interna guider, och uppmuntra till frågor och reflektion. Vad får jag mata in i AI:n? Vad gör jag om jag är osäker? Vem kontaktar jag?
Det finns AI-lösningar som är byggda med dataskydd i fokus. Många företag väljer idag att använda så kallade enterprise-versioner av populära AI-verktyg, där man får mer kontroll över datalagring, åtkomst och användning. Det finns även lösningar där man kan köra AI-modeller lokalt, utan att informationen lämnar den egna miljön.
Alla AI-verktyg är inte är likadana. Det spelar roll om ni använder en öppen, molnbaserad modell eller en privat, skräddarsydd lösning. Säkerhet måste väga in i valet av plattform, inte bara funktionalitet. Läs det finstilta innan ni tecknar avtal.
Dokumentera hur AI används i organisationen, uppdatera riskbedömningar vid förändringar, och utvärdera regelbundet om verktygen verkligen stödjer era mål och krav på dataskydd, för det kommer också nya regler. Den kommande EU-förordningen AI Act innebär bland annat att vissa typer av AI kommer klassas som högrisk och omfattas av skärpta krav. Att redan nu börja bygga upp ett strukturerat AI-arbete är inte dumt.
Säker AI-användning handlar om både teknik, ledarskap, processer och kultur. Det är inte ett alternativ att som organisation förbjuda AI, AI kommer att användas ändå, men utom er kontroll. Det är mycket bättre att aktivt styra hur den används. Det går att ta tillvara på teknikens potential utan att tumma på säkerheten.
Här vill vi gärna passa på att puffa för vår egen lösning. Vi har tagit fram mbpai för att göra det möjligt för fler att låta hela organisationen använda en smart, trygg AI-lösning, anpassad för vår svenska verklighet. Läs mer på mbpai.se