När jag pratar med företagsledningar om AI brukar nästan alltid tre orosmoment komma upp. Tre risker som de flesta är exponerade för, alltför få insatta i och ännu färre har agerat på.
Vilka är de, varför är de så viktiga - och hur kan du minska dem?
Häng med så får du veta.
Känslig företagsinformation på avvägar
Den första - och största - risken handlar om dataläckage. Anställda som använder icke sanktionerade AI-verktyg läcker oavsiktligt känsliga data. I sin strävan att spara tid och hitta genvägar i sitt jobb inser de inte var datan de matar LLM:erna med kan hamna - eller att de faktiskt bryter mot både företagets säkerhetspolicys och dataskyddslagen på samma gång.
Harmonic analyserade dataläckaget i tiotusentals prompter till ChatGPT, Copilot, Gemini, Claude och Perplexity under Q4 2024. Resultatet visade att 8,5 procent av de anställdas prompter innehöll känsliga uppgifter fördelade på följande sätt:
- Kunddata stod för 46 procent (fakturor, autentiseringsuppgifter och försäkringsanspråk med mera)
- Medarbetardata 27 procent (exempelvis lönedata)
- Juridiska och finansiella uppgifter 15 procent (budgetar, prognoser med mera)
- Säkerhetsinformation 7 procent (resultat från penetrationstester, nätverkskonfigurationer och incidentrapporter och liknande)
Information som bara inte får hamna i fel händer.
Större delen av läckaget kom från gratis generativa AI-appar, som ju ofta tränas på varje fråga. Framför allt ChatGPT som stod för 54 procent av den känsliga inputen.
Företagshemligheter och personuppgifter på villovägar kan snabbt få konsekvenser för företagets säkerhet, integritet och efterlevnad, för att inte tala om rättsliga påföljder.
Ett försäkringsbolag fick för ett tag sen böta för att en anställd skickade en Excelfil med kundinformation till någon utanför företaget. Samma sak skulle kunna hända om någon visar sig ha laddat upp en liknande Excelfil till ChatGPT.
Så vad göra?
En CISO har sällan full koll på hur många som använder icke sanktionerade verktyg på företaget och vilka de är. Det första som behöver göras är då att identifiera och blocka dem för att täta läckorna. Det kan göras med säkerhetsprodukter som Defender for Cloud eller Cloud Apps.
Men att bara täta läckorna löser inte problemet. Vissa drivna anställda skulle troligen hitta nya riskabla verktyg medan andra helt enkelt slutar använda AI - och kanske söker sig till en konkurrent där de får utveckla sin AI-kompetens. Därför är det oerhört viktigt att erbjuda användarna bra möjligheter att använda sanktionerade AI-modeller.
Och minst lika viktigt: utbilda personalen i hur de ska och inte ska använda dem.
Alternativa fakta
Risk nummer två beror på AI:s berömda otillförlitlighet, det faktum att LLM:er med jämna mellanrum fortfarande hallucinerar och ger felaktiga svar. ChatGPT:s hallucination rate låg till exempel per den 11 december 2024 enligt Vectara på mellan 1,5 och 1,9 procent beroende på version. Det kan tyckas lite men det räcker, med tanke på att AI-modellerna också då och då drar fel slutsatser, använder irrelevant information och ger skeva (biased) resultat. Att de till på köpet ljuger så övertygande gör det ännu svårare att i den allmänna stressen i arbetet upptäcka ”alternativa fakta.” Det ser ju så bra ut.
Större AI-användning ökar risken för felbeslut, felinvesteringar och förlorade affärer.
Samtidigt ökar kostnaden för att inte använda generativ AI. AI kan ju ersätta alltmer arbetsmoment, blixtsnabbt dra fram insikter ur stora datamängder och servera ledningsgruppen beslutsunderlag de annars aldrig hade sett röken av. Det lämnar företag i en balansakt mellan risken att använda AI och risken att inte använda AI.
Vad kan vi då göra? Det något otillfredsställande svaret är: vänta in bättre modeller. Inom kort kommer Chat-GPT5 och en rad andra modellers nästa versioner, som kommer att kunna resonera med sig själv och skapa betydligt mer korrekta och relevanta svar.
Gillar du inte att vänta finns det en del knep att ta till. Som grounding – jordning - där AI-modellen enbart får tillgång till specifik, verifierad information som sen kopplas till dess output. En jordad modell kan generera mer exakt, korrekt och kontextuellt relevanta svar.
Istället för att lita blint på din LLM kan du också granska dess svar och verifiera källorna den anger. Ett annat tips är att föra egna anteckningar av viktiga uppgifter för att kunna göra ”reality checks.”
Se bara till att de data din AI har tillgång är korrekta så det inte blir ”shit in, shit out”.
Lättantändlig information hamnar hos obehöriga anställda
Slutligen har jag märkt en viss oro i många ledningsgrupper över internt informationsläckage. De frågar: kan en AI-modell hitta känsliga data om våra anställda eller andra konfidentiella uppgifter och inkludera dem i sina svar till obehöriga?
Om vi tar Copilot använder verktyget visserligen dina rättigheter när den letar efter data, så att den inte ska kunna se data du inte ska se. Men det kan finnas data vars behörighet konfigurerats fel. Eller data som har sparats på ”öppna ytor” som alla kommer åt.
Tänk bara på löneavdelningens personuppgifter och känsliga ekonomiska information. Eller på hemliga projekt och planer, omorganisationer med uppgifter om uppsägningar. Föreställ dig anställda som i mitt under omstruktureringen frågar AI:n: ”Hur ser planerna ut för vår nya organisation?” och ”Vilka kommer att vara kvar?” När svaren får spridning kan det vara för sent.
Börja med att gå igenom dataytor med känsligt material, säkra upp dem och verifiera att det inte finns säkerhetsluckor. Det finns bra verktyg för detta, som Microsoft Purview och Sharepoint Advanced Management.
Vilken av dessa tre risker känns mest brådskande på ditt företag?
Ta tag i den redan idag!
Mikael Roos,
Principal Architect AI
Vill du veta mer om hur generativ AI kan förbättra din verksamhet?
Vi hjälper organisationer att optimera sina affärer och sin verksamhet med det senaste inom AI.
Läs mer
5 orsaker till att 80% av alla generativa AI-projekt går i stöpet – och hur du lyckas