Den mänskliga faktorn i AI-eran
En ny global rapport belyser en alarmerande trend inom cybersäkerhet: insiderhot är inte längre bara en fråga om illvilliga anställda. Allt oftare är det vardagliga misstag, slarv och en okontrollerad användning av nya AI-verktyg som orsakar allvarliga dataläckor. Detta “mänskliga element” har snabbt blivit en av de största och mest oförutsägbara riskerna för företag världen över.
Generativ AI – en ny attackvektor
Rapporter från säkerhetsföretag som Proofpoint och Exabeam visar att anställda som använder generativa AI-plattformar utan tillstånd skapar nya, svårkontrollerade risker. Känslig företagsinformation matas in i dessa system i syfte att öka produktiviteten, men kan oavsiktligt exponeras eller användas för att träna modeller utanför företagets kontroll.
Enligt Proofpoints “2024 Data Loss Landscape report” är det just “oaktsamma användare” som är den främsta orsaken till dataförluster, långt före både hackade system och avsiktligt sabotage. Detta kan vara så enkelt som att råka skicka ett mejl med känsliga filer till fel mottagare, något som drabbar en tredjedel av alla anställda årligen.
Några nyckelinsikter från rapporterna:
* Oavsiktliga misstag dominerar: Majoriteten av insiderrelaterade incidenter beror inte på illvilja, utan på slarv och okunskap.
* AI som verktyg och hot: Generativ AI används av anställda för att effektivisera arbetet, men blir samtidigt en risk när det sker utanför företagets riktlinjer.
* Stora konsekvenser: Dataläckor leder inte bara till böter, utan även till förlorade intäkter och skadat anseende för de drabbade organisationerna.
* Ökande oro: Säkerhetsproffs ser insiderhot, förstärkta av AI, som ett av de snabbast växande problemen inom cybersäkerhet.
Hur kan företag skydda sig?
För att möta denna nya hotbild krävs mer än traditionella, regelbaserade skydd. Experter menar att företag måste förstå och anpassa sig efter mänskligt beteende. Det handlar om att implementera AI-driven övervakning som kan upptäcka avvikelser i realtid, men också om att utbilda personalen. Tydliga riktlinjer för användning av AI-verktyg och en stark säkerhetskultur är avgörande för att förvandla den svagaste länken till ett starkare försvar.

