Det hvite hus avduket en omfattende handlingsplan for kunstig intelligens i juli som omformer USAs tilnærming til styring av kunstig intelligens. Det er et stort skifte fra den forrige administrasjonens holdning, og fjerner de regulatoriske bremsene og fremmer en full fart fremover-tilnærming til utvikling og implementering av kunstig intelligens.

Dette skaper både muligheter og risikoer for organisasjoner. Raskere utrulling kommer på bekostning av redusert føderal tilsyn, noe som gjør at bedriftene må fylle kritiske hull i styringen selv. La oss se på hva som er i vente.

Tre søyler i planen

Trump AI handlingsplan beskriver et koordinert føderalt press for å vinne et AI-våpenkappløp mot globale konkurrenter, spesielt Kina. Anbefalingene spenner over alle større føderale etater, fra handelsdepartementets reviderte standarder til Pentagons AI-krigføringsinitiativer. Slik omformer hver søyle landskapet.

Pilar I: Akselerer AI-innovasjon

Denne søylen retter seg mot regulatoriske barrierer for utvikling av kunstig intelligens i privat sektor. Kontoret for vitenskaps- og teknologipolitikk og Kontoret for forvaltning og budsjett (OMB) vil identifisere og oppheve restriktive regler. Stater står overfor særlig gransking ettersom OMB evaluerer sine regulatoriske klimaer for kunstig intelligens når de tar finansieringsbeslutninger, noe som potensielt kan styre føderale midler bort fra stater med for mange rekkverk.

På den positive siden fremmer planen også åpen kildekode og modeller med åpen vekt, og anerkjenner deres verdi for oppstartsbedrifter og forskere som ikke har råd til lukkede kommersielle systemer.

Pilar II: Bygg amerikansk AI-infrastruktur

Denne søylen, som presidenten beskriver som «bygg baby, bygg»-delen av planen, fokuserer sterkt på de fysiske kravene som ligger til grunn for AI: datasentre, halvlederproduksjon og energi. Datasenterbyggere får fritak fra byggingstillatelser, innskrenkning eller eliminering av miljøvurderinger og fjerning av forskrifter i henhold til Clean Air Act og Clean Water Act.

Planen åpner opp føderale områder for utvikling av datasentre og deres kraftproduksjonsanlegg, samtidig som den lover et moderne strømnett for å tilfredsstille AIs sult etter elektroner (det er en sterk nikk til kjernekraft og geotermisk energi). Alle disse datasentrene vil trenge mange elektrikere, HVAC-eksperter og andre tekniske infrastrukturroller, så planen utarbeider opplæringsprogrammer for å styrke denne arbeidsstyrken.

Pilar III: Internasjonal AI-diplomati

Hvordan driver en isolasjonistisk regjering diplomati? På en «med oss ​​eller mot oss»-måte. Planen rammer inn AI-utvikling som et nullsumspill mellom medlemmer av en «AI-allianse» og alle andre. Disse allierte får tilgang til komplette AI-eksportpakker, som kombinerer maskinvare, modeller, programvare og standarder. Ikke-medlemmer, inkludert Kina, står overfor strengere eksportkontroller rettet mot delsystemer for halvlederproduksjon. Funksjoner for posisjonsverifisering på avanserte brikker vil forhindre avledning til motstandere.

Deregulering skaper et vakuum

Den hastige dereguleringen flytter mer ansvar for samsvar over på bedriftene selv. FTC må gjennomgå undersøkelser som kan «belaste AI-innovasjon unødig», mens NIST fjerner referanser til feilinformasjon, DEI og klimaendringer fra sitt rammeverk for risikostyring for AI. Men i stedet for å eliminere samsvarsforpliktelser, fragmenterer denne føderale tilbaketrekningen dem bare. Stater beholder sine egne AI-forskrifter, og skaper et lappeteppe av krav som bedrifter nå må navigere i per jurisdiksjon. I mellomtiden introduserer en lovet plan for å luke ut «ideologisk skjevhet» vage anskaffelsesstandarder uten klare definisjoner.

Bedrifter må nå finne sine egne styringsrammeverk for å håndtere AI-risikoer. Dette betyr å etablere klare retningslinjer som dekker datastyring, modelltransparens og fordommer, spesielt for kundevendte systemer der ansvarlighet er viktigst.

Hva nå?

Organisasjoner trenger nå regelmessige risikovurderinger knyttet til AI, dokumenterte revisjonsspor og robust leverandørstyring for tredjeparts AI-verktøy. Kritiske områder inkluderer algoritmisk forklaringsevne, personvernbeskyttelse utover minimale føderale krav og AI-spesifikke hendelsesresponsprosedyrer.

Alt dette vil være spesielt vanskelig for selskaper som opererer på tvers av både statsgrenser og landegrenser.

Det sikreste alternativet er å kartlegge krav på tvers av alle operative jurisdiksjoner, og identifisere de største fellesnevnerne for samsvar. Selskaper bør revidere sine AI-implementeringer og oppdatere risikoregistre for å gjenspeile dette nye landskapet.

Start med å lage en oversikt over alle nåværende og planlagte AI-implementeringer, og vurder hver enkelt opp mot din risikotoleranse og utviklende regelverk. Prioriterte områder inkluderer kundevendte systemer som krever åpenhet, AI-drevne beslutninger som påvirker ansettelse eller kreditt, og avhengigheter av tredjepartsmodeller.

Som verdens første standard for AI-styringssystem tilbyr ISO 42001 38 kontroller på tvers av ni mål, i henhold til den kjente Planlegg-Gjør-Sjekk-Handle-metoden. Selskaper som oppnår sertifisering demonstrerer at AI-systemene deres identifiserer og reduserer risikoer, samtidig som de demonstrerer robusthet, skalerbarhet og konsekvent tilsyn. Standarden integreres med eksisterende ISO 27001-systemer og tilpasser seg ulike bransjer gjennom sektorspesifikk veiledning.

Et strukturert kontrollrammeverk er verdifullt i usikre tider, når de regulatoriske vindene skifter og veiledningen for hvordan man skal håndtere en raskt utviklende teknologiutvikling varierer. ISO 42001 kan være din nordstjerne og holde deg forankret i beste praksis innen kontroll og styring av AI-systemer, uansett hvor stormfulle samsvarsbølgene blir under deg.