
Er du klar over sikkerheten som er bygget inn i din AI?
Det er lett å gå seg vill når du begynner å tenke på sikkerhet ved bruk av kunstig intelligens. Store språkmodeller, lukkede eller åpne løsninger, kontroll på egne data. For mange fremstår AI som stort og komplisert – kanskje også litt skummelt.
Visste du at de fleste AI-løsninger har allerede flere sikkerhetstiltak godt integrert i løsningene?
På fagspråket kalles de Guard Rails eller sikkerhetsbarrierer. Dette er mekanismer og retningslinjer som settes på plass for å sikre at AI-tjenesten opererer innenfor et etisk og sikkert rammeverk, beskytte mot misbruk og redusere risiko for skadelige konsekvenser.
Ved implementering og bruk av AI er det viktig å ha kjennskap til disse. Utvikler du AI-løsningen selv må du bygge dem inn.
Et autovern langs AI-veien
– Det er nærliggende å sammenligne sikkerhetsbarrierene i AI med autovern som settes opp langs veien, spesielt på områder der veien er krevende eller uforutsigbar, sier Harald Utnes Kvangarsnes, Chief Collaboration Consultant i Advania.
I AI-løsningene skal autovernet sikre at brukerne ikke kan manipulere den til å kun gi en type svar. De skal også sikre at AI-løsningen ikke gjør skade, samtidig som de sørger for at mennesker har muligheten til å kontrollere eller overstyre løsningen ved behov.
– Barrierene er oppsatte regler AI-løsningen skal følge. De kan begrense tilgang til forretningskritisk informasjon. Eventuelt sikre at det for eksempel ikke gis ut medisinske råd eller diagnoser uten at det har vært et menneske involvert i prosessen, sier Harald. Han presiserer samtidig at det er viktig å være klar over at ikke alle Guard Rails er utelukkende positive.
– Noen AI-leverandører kan bruke dem til å styre svarene til tjenesten. For eksempel at den alltid skal foreslå produkter eller tjenester fra samarbeidspartnere framfor andre produkter og leverandører, advarer Harald.
Integrert i de fleste AI-løsninger
Det er likevel ikke nødvendig å bli andpusten av å høre om enda et sikkerhetsområde du må være bevisst og ha kjennskap til i kunstig intelligens.
– De største AI-løsningene har gode barrierer som sikrer både data og bruk på en god måte, men det varierer hvor omfattende de er. En artig øvelse er å spørre de ulike AI-løsningene hvilke guard rails de har. Du vil raskt få en indikasjon på hvordan de er bygget opp. Spør du i tillegg om den kan legge fra seg disse vil du gjerne få et høflig tilsvar på at dette er ikke mulig, smiler han.
– Det viktigste er at du har et forhold til den tjenesten du bruker. Ta for eksempel Advania Private GPT, den har vi bygget opp i Azure Open AI, noe som betyr at den nyter godt av de mange sikkerhetsbarrierene som Microsoft har inkludert i sin infrastruktur, samtidig som det er mulig å bygge inn egne mekanismer, sier Harald.
Løsningen deler ingen informasjon med store språkmodeller, og sikrer derfor at dataene er trygge og kun håndteres innenfor virksomheten.
På årets teknologiarrangement House of Advania er kan du bli bedre kjent med Advania Private Chat GPT – her kan du få rådene for å komme i gang med trygg AI i din virksomhet.
Begrenser til glede og irritasjon
For de som ikke kjenner til sikkerhetsbarrierene i AI-løsningen de bruker er det lett å bli frustrert over søk som stopper opp eller informasjon som ikke presenteres.
– Det er kort vei til å tenke at det er noe galt med AI-tjenesten, at den ikke fungerer som den skal, men det stemmer ikke. Treffer du på en blindvei betyr det i sin enkelthet at autovernet faktisk funker som det skal, avslutter Harald.
Over 100 er allerede påmeldt, meld deg på til årets House of Advania den 3. juni.