Regjeringen satser alt på kunstig intelligens. Annonsert i januar, dens Handlingsplan for AI Opportunities søker å drive økonomisk vekst, forbedre kvaliteten på offentlige tjenester og gi flere muligheter for folk. Men for å lykkes med sin ambisiøse plan, vet regjeringen at bedrifter må stole på produktene og tjenestene de ønsker å investere i. Det er her AI-sikring kommer inn i bildet.

Det er en liten, men voksende sektor som allerede var verdt 1 milliard pund i bruttoverdiøkning (GVA) i 2024. Regjeringen mener at den med riktig støtte kan nå nesten 19 milliarder pund innen 2035. For å komme dit har den nettopp publisert en ny veikart for tredjeparts forsikringsleverandører – en oversett, men potensielt betydelig del av markedet.

Markedet modnes fortsatt

I forhold til økonomisk aktivitet er Storbritannias marked for AI-forsikring større enn USAs, Tysklands og Frankrikes, ifølge tall fra myndighetene. Den anslår også at så mange som 80 % av tredjeparts forsikringsfirmaer viser «vekstsignaler» – som betyr at forholdene ligger til rette for å gjøre Storbritannia til en verdensleder på feltet. Likevel er det utfordringer. Blant de som er nevnt i veikartet er:

  • Kvaliteten på varer og tjenester som tilbys av tredjepartsleverandører av AI-sikring. Det er fortsatt uklart hvilke tekniske standarder som bør anvendes på markedet for å redusere risikoen for skade eller tilbud av lav kvalitet.
  • Storbritannias sektor for AI-sikring sysselsetter allerede anslagsvis 12 500 personer, men leverandørene sliter tydeligvis med å finne kandidater med den rette blandingen av ferdigheter. En del av utfordringen er at disse kan variere betydelig, fra teknisk kompetanse til kunnskap om relevante lover, AI-styring og standarder. Mangel på mangfold skader også sektoren, hevder regjeringen.
  • Tilgang til informasjon om AI-systemer er avgjørende for bedrifter som ønsker å tilby relevante sikringstjenester. Men enten det er av sikkerhetsmessige, kommersielle eller andre årsaker, er mange leverandører motvillige til å dele denne typen informasjon – som kan inkludere opplæringsdata, AI-modeller og informasjon om ledelse og styring.
  • Innovasjon i sektoren for KI-sikring er avgjørende for å stimulere vekst, men krever innspill fra et mangfoldig utvalg av eksperter, inkludert KI-utviklere. Utfordringen er at det finnes relativt få fora for samarbeidende FoU-arbeid på dette området, hevder regjeringen.

Byggekvalitet

Heldigvis har myndighetene en plan for å håndtere hver av disse utfordringene etter tur. Det første fokuset er å forbedre kvalitetssikringen. For å hjelpe britiske forsikringsfirmaer med å differensiere seg, og generelt øke kundenes tillit til markedet, har myndighetene tre ideer for å forbedre kvaliteten. De ønsker å profesjonalisere bransjen gjennom sertifisering og/eller registrering for enkeltpersoner – selv om de innrømmer at slike ordninger må utformes nøye, utvikles i samarbeid med profesjonelle organer og støttes av et opplæringsøkosystem av høy kvalitet. Rapporten innrømmer at det sannsynligvis fortsatt er for tidlig for et regulert bransjeorgan og en profesjonell standard knyttet til AI-sikring.

En annen måte å forbedre kvaliteten på kan være å verifisere kvaliteten på spesifikke sikringsprosesser – som risikovurdering eller bias-revisjon. Standarder som ISO 24027 kan brukes til å utvikle relevante sertifiseringer på dette området, hevder rapporten. Selv om standardisering av sikringsprosesser kan forbedre konsistens og tilgang til globale markeder, kan det stenge mindre firmaer med færre ressurser ute fra markedet.

Til slutt foreslår regjeringen at Storbritannias nasjonale akkrediteringstjeneste (UKAS) kan bidra til å vurdere om organisasjoner kan utføre samsvarsvurderingsaktiviteter som sertifisering, testing og inspeksjon på en «kompetent, upartisk og konsekvent måte». Rapporten bemerker imidlertid at det ikke finnes mange standarder som kan underbygge sertifisering fra akkrediterte forsikringsleverandører, noe som begrenser virkningen av slike tiltak.

For å få planene sine i gang, samler Department for Science, Innovation and Technology (DSIT) et konsortium av interessenter for å utvikle «byggeklossene» som trengs for å profesjonalisere sektoren for KI-sikring. Dette inkluderer utvikling av en frivillig etisk kodeks, et rammeverk for ferdigheter og kompetanser, og derfra en profesjonell sertifiserings- eller registreringsordning, potensielt startende med KI-revisjon.

Andre tiltaksområder

Ferdigheter: Regjeringen skal samarbeide med det samme konsortiet for å gjøre forbedringer på dette området, og hevder at Storbritannia trenger å utdanne titusenvis av AI-fagfolk i løpet av de neste fem årene – på tvers av både tekniske og ikke-teknologiske områder som samfunnspåvirkning og etisk samsvar. Eksisterende opplærings- og sertifiseringsordninger som IAPPs AI Governance-sertifikat og programmer innen cybersikkerhet, datavitenskap, internrevisjon og programvareutvikling kan hjelpe her. Men det finnes fortsatt ingen klar vei for håpefulle AI-revisjonsfagfolk.

DSIT vil først samarbeide med konsortiet om et «omfattende rammeverk for ferdigheter og kompetanser for KI-sikring», inkludert en profesjonell sertifiseringsordning for KI som kan trekke på eksisterende sertifikater og standarder innen områder som nettsikkerhet. Når dette arbeidet er ferdig, vil DSIT kunne vurdere om det er behov for mer for å støtte utviklingen av opplæringskurs og kvalifikasjoner.

Tilgang til informasjon: Konsortiet skal samarbeide med Storbritannias forsikringsleverandører for å forstå deres informasjonskrav for ulike typer AI-forsikringstjenester. Dette vil hjelpe dem med å utvikle retningslinjer for beste praksis for firmaer som bruker forsikringstjenester, slik at de vet på forhånd hva slags informasjonstilgang som forventes.

Innovasjon: Regjeringen vil opprette et nytt forum for samarbeid mellom flere interessenter; AI Assurance Innovation Fund. Det vil bli tildelt 11 millioner pund for å støtte forskning på innovative AI-sikringsmekanismer, slik at interessenter bedre kan identifisere AI-risikoer. Søknader vil være åpne for første finansieringsrunde våren 2026. Fondet kan også støtte Storbritannias AI Adoption Hubs.

Et viktig skritt

Sharron Gunn, administrerende direktør i BCS, The Chartered Institute for IT, forteller ISMS.online at regjeringens plan vil bidra til å øke markedet for AI-sikring og bygge offentlig tillit til AI-systemer.

«Regjeringens forpliktelse til å opprette et yrke innen KI-sikring, der utøverne er stolte av å være ansvarlige for en etisk kodeks, er et stort skritt fremover», legger hun til. «Det er også riktig at et konsortium, inkludert profesjonelle organer, får i oppgave å utvikle denne kodeksen og å anbefale de riktige veiene for registreringer og sertifiseringer for KI-sikring.»

Jennifer Appleton, administrerende direktør i ISO Quality Services, hevder at veikartet er et viktig skritt for å hjelpe organisasjoner med å «omsette ambisjoner til praktisk handling».

Hun forteller ISMS.online: «Mange bedrifter er begeistret for mulighetene KI kan gi, men er fortsatt forsiktige med hensyn til styring, risiko og ansvarlighet. Ved å tilby et strukturert rammeverk har veikartet potensial til å veilede organisasjoner i å integrere KI ansvarlig i driften.»

Appleton er spesielt fornøyd med at veikartet er i samsvar med ISO 42001.

«Det å ha en anerkjent internasjonal standard hjelper bedrifter med å demonstrere ikke bare samsvar, men også tillit, åpenhet og etisk ansvar i måten de tar i bruk AI. For mange organisasjoner vil dette utgjøre forskjellen mellom å utforske AI i teorien og å implementere den med selvtillit», sier hun.

«Som med alle nye rammeverk vil utfordringen selvsagt være å finne den rette balansen mellom fleksibilitet og strenghet, og sørge for at det fungerer for bedrifter i alle størrelser og sektorer. Men totalt sett representerer det en positiv og sårt tiltrengt utvikling, og vi ser frem til å støtte bedrifter i å anvende det i praksis.»

Tom McNamara, administrerende direktør i Atoro, gir planene en mer forsiktig velkomst. Han beskriver dem som å legge ut «en logisk og fornuftig vei» ved å forsøke å definere yrket og bygge kunnskap før sertifiseringsprosesser. Han argumenterer imidlertid for at konsortiet må ledes av de som er i produksjon, med «praktisk erfaring med å bygge og sikre AI-systemer».

«Rammeverkets suksess hviler på en farlig antagelse: at de riktige menneskene er tilgjengelige for å bygge det», forteller McNamara til ISMS.online.

«Effektiv AI-sikring krever dyp, teknisk kunnskap om hvordan disse modellene fungerer, ikke bare resultatene de produserer. Konsortiets første og viktigste oppgave er å få ekte AI-eksperter inn i rommet. Uten dem vil rammeverket være en velment, men hul øvelse.»