AI-teknologi er på hastig fremmarch inden for HR, men sikkerhed er stadig en af de største forhindringer for mange organisationer. Ifølge en undersøgelse ser 62% af virksomheder AI-systemer som en alvorlig sikkerhedstrussel, især når det kommer til sensitive HR-data.

AI-teknologiens integration i HR medfører også betydelige besparelser og øget effektivitet, men det kommer med sikkerhedsudfordringer. Medarbejderdata er ofte ekstremt følsomme, hvilket gør kryptering af data både i transit og ved opbevaring afgørende for at beskytte mod brud. Derudover er det vigtigt at anvende stærke autentificeringsmetoder som multi-faktor autentificering (MFA) for at forhindre uautoriseret adgang ​(Moveworks: The Copilot for All Employees).

 

Ved at sikre, at AI-systemer overholder lovgivning som fx GDPR, kan HR-afdelinger ikke kun beskytte sig mod potentielle databrud, men også undgå dyre bøder og opbygge tillid hos medarbejdere​

I dette indlæg ser vi nærmere på, hvordan HR- og IT-afdelinger kan sikre deres AI-chatbots gennem kryptering, autentificering og overholdelse af lovgivning som GDPR og EU’s kommende AI Act, alt imens de høster de økonomiske fordele ved at implementere AI-løsninger.

Sikkerhedsrisici ved AI-chatbots i HR

HR-chatbots håndterer en stor mængde følsomme medarbejderdata, hvilket gør dem sårbare over for cyberangreb og datalækager. Ifølge Cybersecurity Insiders ser over 62% af virksomheder AI-systemer som en væsentlig sikkerhedstrussel​ (Contact Fusion). Disse trusler omfatter datamanipulation og -tyveri og uautoriseret adgang til personlige oplysninger.

Chatbots kan også lide af “hallucinationer”, hvor de genererer unøjagtige eller vildledende svar, især når deres træningsdata er ufuldstændige eller forældede

 

GDPR og AI Act: Vigtige lovgivningsmæssige overvejelser

I Europa er GDPR den primære lovgivning for databeskyttelse, og den fastsætter strenge krav til håndtering af medarbejderdata i AI-systemer. Ifølge GDPR skal virksomheder kun indsamle de data, der er nødvendige, og medarbejdere skal give informeret samtykke til databehandling (Contact Fusion). Brud på GDPR kan resultere i bøder på op til 4% af en virksomheds globale omsætning.

Den kommende AI Act fra EU vil yderligere regulere brugen af AI-systemer. HR-relaterede AI-løsninger vil sandsynligvis blive klassificeret som højrisiko, hvilket betyder, at de skal opfylde særlige krav til gennemsigtighed, risikostyring og datasikkerhed​ (ApplaudHR).

 

Teknologigiganternes tilgang til AI-sikkerhed

Microsoft og OpenAI har etableret sig som førende inden for ansvarlig AI-udvikling. Microsofts fokus på etisk AI og databeskyttelse sikrer, at deres AI-løsninger overholder lovgivningen og samtidig tilbyder omfattende sikkerhedsforanstaltninger som end-to-end-kryptering og multi-faktor-autentificering ​(Moveworks: The Copilot for All Employees).

OpenAI arbejder ligeledes på at reducere bias og sikre, at AI-systemer er gennemsigtige og etisk ansvarlige. Deres modeller trænes på data, der reducerer risici for fejlagtig beslutningstagning, hvilket er særligt vigtigt i HR-sammenhænge​ (ApplaudHR).

 

Løsninger: Sådan imødekommer man sikkerhedsudfordringer i AI-chatbots

For at beskytte medarbejderdata og sikre compliance kan virksomheder implementere følgende tiltag:

  • End-to-End-kryptering: Dette sikrer, at følsomme data forbliver beskyttede under både transmission og lagring
  • Stærk autentificering: Anvend to-faktor autentificering (MFA) og robust adgangskontrol for at sikre, at kun autoriserede brugere kan tilgå systemerne​
  • Regelmæssige sikkerhedsaudits: Ved at gennemføre løbende audits og penetrationstests kan virksomheder opdage og udbedre sårbarheder før, de udnyttes​

Desuden kan HR-afdelinger bruge anonymiseret data til at træne AI-modeller og på den måde minimere risikoen for misbrug af persondata ​(Contact Fusion).

 

Økonomiske fordele ved implementering af sikker AI

Selvom der er betydelige sikkerhedsmæssige udfordringer, kan de økonomiske fordele ved AI-chatbots ikke ignoreres. En undersøgelse fra Accenture viser, at AI-teknologier kan forhindre op til 86% af potentielle cyberangreb ​(Contact Fusion).

Desuden kan automatiseringen af gentagne HR-opgaver føre til betydelige besparelser ved at frigøre HR-medarbejdere fra rutinearbejde og reducere antallet af manuelle forespørgsler​(Moveworks: The Copilot for All Employees).

 ChatGPT og Microsoft Copilot er generelt sikre at anvende, men deres sikkerhed afhænger af flere faktorer, herunder hvordan de bruges, og hvilke datasikkerhedsforanstaltninger virksomheden implementerer omkring dem.

Hvorfor ChatGPT anses som sikker:

  1. Datasikkerhed og privatliv: OpenAI, udviklerne af ChatGPT, har strenge retningslinjer for datasikkerhed. De implementerer avancerede krypteringsteknologier for at beskytte data under transmission og opbevaring. Desuden overholder OpenAI lovgivninger som GDPR, hvilket betyder, at brugernes data behandles med respekt for privatliv og datasikkerhed.
  2. Ingen lagring af personlige data: Når ChatGPT anvendes gennem OpenAI’s offentlige API, lagres inputdata normalt ikke til træningsformål, medmindre det eksplicit tillades i en specifik kontekst. Dette hjælper med at beskytte følsomme data mod uautoriseret adgang (Lakera AI Security). 

Hvorfor Microsoft Copilot anses som sikker:

  1. Sikker integration: Microsoft Copilot er bygget på Microsofts omfattende sikkerhedsinfrastruktur, som inkluderer kryptering af data både i transit og ved opbevaring, samt stærke autentifikationsmekanismer. Copilot integreres i Microsofts cloud-økosystem (som Azure og Microsoft 365), som overholder globale standarder for datasikkerhed og compliance, herunder ISO 27001 og SOC 2 ​(Moveworks: The Copilot for All Employees).
  2. Databeskyttelse: Microsoft Copilot sikrer, at virksomhedsdata forbliver private. Data, der behandles af Copilot, bliver inden for virksomhedens sikre rammer og deles ikke med tredjepart. Microsoft har implementeret compliance-kontroller, der sikrer, at AI-brug overholder lovgivning som GDPR og CCPA​.

Forholdsregler:

Selvom både ChatGPT og Microsoft Copilot er designet med sikkerhed for øje, bør virksomheder stadig tage forholdsregler:

  • Tildeling af adgangsrettigheder: Sørg for, at kun autoriserede personer kan tilgå og bruge disse AI-systemer.
  • Anonymisering af data: Ved brug af følsomme oplysninger kan det være en god idé at anonymisere data, især ved træning af AI-modeller.
  • Løbende overvågning: Implementér overvågning for at opdage eventuelle sikkerhedsbrud eller uregelmæssigheder.

Ved at følge disse retningslinjer kan ChatGPT og Copilot anvendes sikkert til at forbedre produktiviteten uden at gå på kompromis med sikkerheden.

 

AI og sikkerhed behøver ikke være en hindring

Selvom sikkerhed og compliance er væsentlige udfordringer ved implementeringen af AI-chatbots i HR, kan de rette sikkerhedstiltag og lovoverholdelse fjerne disse barrierer. Ved at arbejde med ansvarlige AI-leverandører som OpenAI og Microsoft kan virksomheder sikre, at de får både effektivitet og sikkerhed i deres AI-løsninger.