Förstasidan: Traficom
Förstasidan: Traficom
Meny

Potentialen hos AI-agenter ligger i de behörigheter de ges till olika system och verktyg. Ju mer känsliga data en agent har tillgång till och ju mer kritiska beslut den får fatta, desto större blir också systemets riskpotential. Införandet av AI-agenter förändrar i grunden hur organisationer hanterar cybersäkerhet.

AI-agenter är inte längre enbart stödjande verktyg, utan självständigt fungerande system till vilka organisationer överför beslutsmakt, behörigheter och ansvar. Därför är det avgörande att definiera agenternas användningsändamål, gränserna för deras autonomi och ansvarsfördelningen innan de tas i bruk.

Till skillnad från de mer välbekanta AI-assistenterna arbetar AI-agenter självständigt mot de mål som har ställts upp för dem. De kan kedja samman åtgärder, fatta beslut och använda olika systemgränssnitt utan kontinuerlig mänsklig styrning.

”Ur försörjningsberedskapens perspektiv förutsätter användningen av AI-agenter kontrollerad automatisering, där människans roll inte är ett hinder utan en central säkerhetsmekanism för att bryta felaktiga handlingskedjor”, påminner programdirektör Juha Ilkka för Försörjningsberedskapscentralens program Digitaalinen turvallisuus 2030 (Digital säkerhet 2030).

Särskilt i fleragentsystem kan ett enskilt fel eller missbruk snabbt spridas och mångdubbla skadeverkningarna. Till de centrala hoten med AI-agentsystem hör bland annat läckage av känslig information, risker som följer av alltför omfattande behörigheter samt okontrollerade kedjereaktioner.

Nuvarande arbetsflöden lämpar sig inte nödvändigtvis som sådana för att utföras av sannolikhetsbaserade språkmodeller. Automatisering som bygger på språkmodeller förutsätter ofta också en kritisk omprövning av etablerade processer och arbetssätt.

”Utan noggrann planering, hotmodellering, begränsning av behörigheter, omfattande testning och kontinuerlig övervakning kan AI-agenter exponera organisationer för allvarliga ekonomiska, operativa och anseenderisker – risker som inte i efterhand kan åtgärdas enbart med tekniska medel”, säger Kirsi Karlamaa, teknologi- och strategidirektör vid Traficom.

Den största risken med AI-agenter är inte vad de kan göra – utan vad de ges tillstånd att göra.

Traficoms och Försörjningsberedskapscentralens nya utredning hjälper organisationer att planera, bygga och förvalta agentbaserade AI-system på ett säkert sätt. Utredningen har genomförts som ett samarbete mellan Traficom och Försörjningsberedskapscentralens program Digitaalinen turvallisuus 2030 (Digital säkerhet 2030) och utgör en del av arbetet med att förbereda sig för framtiden.

Ytterligare information

Kirsi Karlamaa, teknologi- och strategidirektör
e-post: kirsi.karlamaa@traficom.fi
tfn. +358295390403