Sikker bruk av AI i virksomheten handler også om styring, risiko og tillit. Vi opplever at mange allerede har tatt i bruk kunstig intelligens, både i prosjekter og daglig drift. Vi ser derimot at færre har en tydelig plan for hvordan dette skal gjøres sikkert og kontrollert.
For ofte bruker ansatte ChatGPT og andre verktøy på egenhånd, registrerer seg på gratis AI-tjenester og laster opp dokumenter for å få hjelp til tekst, analyse eller kode. Ofte skjer det i beste mening, men uten felles retningslinjer, riktig lisensmodell og kompetanse kan du i praksis miste kontroll over data, sikkerhet og kvalitet.
Derfor ser vi her på hvordan du kan sikre trygg og ansvarlig bruk av AI i virksomheten, med særlig blikk på tre byggesteiner: tydelige retningslinjer, riktige verktøy og lisenser, og en kultur der AI-sikkerhet er et felles ansvar.
Nå er AI også er et sikkerhets- og styringsspørsmål
AI handler ikke lenger bare om innovasjon og produktivitet. Når ansatte bruker ChatGPT, Copilot, Claude eller andre språkmodeller i hverdagen, berører det flere sentrale styrings- og sikkerhetsområder:
- Datasikkerhet: Hvilken informasjon mates inn i tjenestene, og hvor ender den?
- Personvern : Behandles personopplysninger på riktig måte?
- Opphavsrett: Hvem eier innholdet som produseres, og hva er det bygget på?
- Kvalitet: Hvordan unngår du at AI-generert innhold inneholder feil, skjevheter eller hallusinasjonerer?
I tillegg kommer nye regulatoriske føringer. EUs AI Act stiller stadig tydeligere krav til hvordan virksomheter skal vurdere risiko, dokumentere bruken av AI og sikre menneskelig kontroll over beslutninger. Det betyr at AI ikke kan behandles som et «sideprosjekt» i virksomheten, men må inn i samme styringsmodell som andre kritiske systemer og prosesser.
Med andre ord: Det er ikke lenger tilstrekkelig å si at «folk får bruke AI så lenge de er forsiktige». Ledelsen må ta ansvar for rammer, prioriteringer og oppfølging.
Tre byggesteiner for sikker bruk av AI i virksomheten
1. Hva er lov, og hva er ikke?
Første steg er å gjøre det krystallklart for ansatte hva de kan, og ikke kan, bruke AI til. Mange har allerede begynt å eksperimentere, men er usikre: Kan jeg lime inn kundedata? Er det greit å bruke AI til å skrive tilbud? Må jeg fortelle at teksten er AI-generert?
En god AI-policy bør som minimum:
- Beskrive formålet med AI i virksomheten
- Skille mellom tillatt, begrenset og forbudt bruk
- Gi konkrete eksempler som ansatte kjenner seg igjen i
- Definere krav til kvalitetssikring og sporbarhet
Eksempler på tillatt bruk (lav risiko) kan være:
AI kan brukes til mye så lenge sensitive eller forretningskritiske opplysninger holdes utenfor. Blant annet:
-
Idémyldring og forslag til disposisjon for rapporter, e-poster og presentasjoner
- Språkvask, omskriving og oversettelse av tekster
- Utkast til møtereferater
Eksempler på bruk som normalt bør være forbudt eller sterkt begrenset:
- Inntasting av personopplysninger, kundedata eller andre sensitive opplysninger uten tydelig behandlingsgrunnlag
- Opplasting av forretningskritiske dokumenter (strategier, tilbud, kontrakter og sikkerhetsdokumentasjon) til åpne eller private gratistjenester
- Bruk av ikke-godkjente AI-verktøy eller private kontoer til jobbformål
- Bruk av AI til beslutninger som direkte påvirker enkeltmennesker (for eksempel vurdering av ansatte eller kandidater) uten tydelig menneskelig kontroll
Retningslinjene bør også slå fast at AI er et støtteverktøy, ikke en erstatning for fagkompetanse. I tillegg skal alt AI-generert innhold kvalitetskvalitetssikres av en fagperson før det brukes eksternt eller i beslutningsgrunnlag.
Dette kan høres åpenbart ut. Men uten formelle retningslinjer ender det raskt opp med at hver enkelt ansatt gjør sine egne vurderinger. Da blir risikoen uforutsigbar og det blir vanskeligere å følge opp.
2. Gratis er sjeldent gratis
Mange virksomheter starter med gratisversjonen av ChatGPT eller andre åpne AI-tjenester. Det er forståelig: terskelen er lav, og gevinsten kan oppleves som stor. Men for virksomheten skaper dette flere utfordringer:
- Lite eller ingen kontroll på hvordan data lagres og brukes
- Usikkerhet rundt om og hvordan tjenesten trenes videre på data du legger inn
- Manglende mulighet til å styre hvem som har tilgang til hva
- Vanskeligheter med å dokumentere etterlevelse av interne krav, GDPR og andre regler
Vi ser derfor at stadig flere velger bedriftsløsninger som er bygget for virksomhetsbruk. Der behandles dataene separat, med tydelige avtalevilkår, og integrasjon med eksisterende tilgangsstyring (for eksempel Microsoft 365).
I Metier har vi nå blant annet valgt å bruke ChatGPT Enterprise og Microsoft 365 Copilot som våre primære AI-verktøy. Det gir oss:
- Bedre kontroll på hvilke data som kan brukes, og av hvem
- Mulighet til å skru av trening på våre data der det er nødvendig
- Logging, styring og sporbarhet som gjør det enklere å dokumentere etterlevelse
- Et felles «offisielt» verktøy som erstatter jungelen av enkeltbrukerløsninger
Poenget er ikke at én løsning passer for alle, men at valg av lisens og plattform er en forutsetning for sikker bruk av AI i virksomheten. Gratis er sjelden gratis når du tar med risiko for lekkasjer, omdømmeskade og ekstraarbeid i etterkant.
3. AI-sikkerhet er et felles ansvar
Selv med gode verktøy og tydelige retningslinjer er det til syvende og sist mennesker som avgjør om AI brukes sikkert. Derfor må kompetanse og kultur være en integrert del av virksomhetens AI-strategi.
På vårt grunnkurs i AI for prosjektledere opplever ofte at det er usikkerhet blant de ansatte om hva som er lov, og hva som ikke er det. Derfor anbefaler vi noen konkrete grep:
- Obligatorisk grunnopplæring for alle som bruker AI i arbeidshverdagen
- Enkle, praktiske eksempler i opplæringen: Hva kan jeg trygt bruke AI til? Hva skal jeg aldri skrive inn? Hvordan oppdager jeg typiske feil?
- Rutiner for kvalitetssjekk: AI genererer utkast, fagpersoner vurderer, justerer og godkjenner
- Tydelige kontaktpunkter: Hvem spør jeg hvis jeg er usikker på om noe er greit?
- Kultur for å melde fra: Lav terskel for å si ifra hvis man tror man har delt for mye informasjon, eller ser uheldig bruk
Når ansatte forstår både mulighetene og risikoene, går det fra frykt og forvirring til trygg, nysgjerrig og ansvarlig bruk av AI. Da blir ikke AI-sikkerhet et rent IT-prosjekt, men en del av måten vi jobber på.
Slik kan du komme i gang i din avdeling
Enten du er prosjektleder, fagansvarlig eller leder for en enhet, kan du ta konkrete steg for å strukturere arbeidet med sikker bruk av AI i virksomheten. Her er en enkel plan for å komme i gang:
1. Kartlegg dagens bruk av AI
- Hvilke AI-verktøy brukes i dag?
- Til hvilke oppgaver?
- Hvem i organisasjonen bruker det og med hvilke data?
- Er det gratisversjoner, prøveabonnement eller bedriftsløsninger?
2. Identifiser risiko og behov
- Hvor er dere mest sårbare? Er det kundedata, interne strategidokumenter, personopplysninger eller leverandørinformasjon?
- Hvilke prosesser vil bli mest påvirket dersom noe går galt?
- Hvor ønsker dere størst gevinst fra AI og hva krever det av kontroll?
3. Utarbeid og forankre retningslinjer
- Start enkelt: definer først hva som klart er lov og klart ikke er lov
- Involver både IT, sikkerhet, HR/juridisk og representanter fra linjen
- Sørg for at retningslinjene kommuniseres i et språk folk forstår, og ikke bare som et PDF-vedlegg på intranettet
4. Velg og innfør riktige verktøy
- Velg en eller få primærplattformer som virksomheten skal satse på
- Sørg for at lisensene dere velger gir nødvendig databeskyttelse og styringsmuligheter
- Lag en plan for innfasing: piloter, læring og justering før breddelansering
5. Bygg kompetanse og følg opp
- Gjør opplæring til en del av onboarding og løpende kompetanseheving
- Del gode eksempler på trygg og effektiv bruk av AI i egne prosjekter
- Følg opp: Hva fungerer, hvor oppstår det usikkerhet, hva må justeres i policy eller praksis?
Hva betyr dette for deg og hvordan kan Metier hjelpe?
For deg som ansatt betyr dette at AI-kompetanse nå også inkluderer forståelse for sikkerhet, personvern og styring. Evnen til å bruke AI smart og sikkert vil være en viktig konkurransefordel, både for virksomheter og enkeltpersoner.
De som lykkes med AI er også de som setter sikkerhet på agendaen, etablerer tydelige retningslinjer og sørger for at de ansatte har riktig kompetanse til å gjøre gode vurderinger.
Ønsker du støtte til innføring av AI i virksomheten, kan du lese mer på våre AI-sider.
På vårt grunnkurs i AI for prosjektledere får deltakerne et felles språk og et trygt utgangspunkt for bruk av AI i prosjekter. Kurset gir en praktisk innføring i hva som er forsvarlig bruk av AI, hvor usikkerheten ligger, og hvilke vurderinger prosjektledere må gjøre i møte med nye AI-verktøy.
