Sådan bliver dataetik værdiskabende og relevant

Teknologi er en stor del af løsningen på alle de globale kriser. Men der skal dataetik til for ikke blot at gøre ondt værre.

Mange vil gerne mene noget om ansvarlig brug af data, men få har så meget at have deres meninger i, som Birgitte Kofod Olsen, som siden sin Ph.d. om "biometrics and privacy" i 1998 har været dybt involveret i både den praktiske udførelse af og debatten om ansvarlig brug af data i både Danmark og Europa.. Foto: Birgitte Kofod Olesen

17.11.2023

Eva Harpøth Skjoldborg, CSR.dk

Dataetik har været på i hvert fald de store virksomheders dagsorden, siden emnet i 2020 kom ind i årsregnskabsloven. vedtog, at de største virksomheder skulle redegøre for dataetik i årsberetningen. Eller forklare hvorfor det ikke var relevant for deres virksomhed. 

Så nu har de fleste en politik på deres hjemmeside og et kort afsnit i årsrapporten. Men det løser ikke rigtig opgaven, hvis man spørger ekspert i dataetik, Birgitte Kofod Olsen, forfatter til den nyligt udkomne ”Håndbog i Dataetik”.  CSR.dk har interviewet forfatteren, som her gør os meget klogere på emnet. 

Hvad er det vi skal med dataetik?

Dataetik handler om, hvordan virksomheder og myndigheder kan være med til at forbedre forholdene for mennesker, miljø og samfund gennem deres brug af data og teknologi. Det er områder, hvor vi lige nu oplever store udfordringer i form af diskrimination, klimakrise, biodiversitetskrise, stigende ulighed og udsathed for sårbare grupper. Men også områder, hvor virksomhederne har mulighed for gennem deres brug af data og teknologi at skabe nye muligheder gennem produkter og services, og gennem bæredygtig og ansvarlig drift.

Læs også: AI's stigende CO2-aftryk er en udfordring. Her er, hvad vi kan gøre ved det

Det arbejde klares ikke med en politik om dataetik. Dataetikken skal tænkes ind det daglige arbejde og ind i hele den livscyklus, som udviklingen og driften af databaserede løsninger har, fx brug af generativ AI som ChatGPT, brug af sensorer og andre internet-of-things-teknologier.

Men politikken er et godt sted at starte, fordi den kan sætte rammen for den dataetiske indsats og skabe forankring i ledelsen og klarhed over deres ambition i forhold til dataetik.

Hvordan kan man komme i gang med en dedikeret indsats inden for dataetik? 

Man skal starte med at finde ud af, hvad fokus skal være for den dataetiske indsats. Hvor og hvem påvirker vi mest? Man kan f.eks. udarbejde en risikovurdering eller inddrage interne og eksterne interessenter til en dialog om deres erfaringer med virksomhedens brug af data og teknologi.

Jeg har f.eks. arbejdet sammen med et globalt medicinalfirma, hvor vi inddrog patientorganisationer fra hele verden i workshops om deres forventninger til virksomhedens arbejde med dataetik og deres interesse i at bidrage med deres sundhedsdata til virksomhedens forsknings- og udviklingsaktiviteter.

Og så gør det både risikoarbejdet og interessentdialogen lettere, hvis det er baseret på et sæt dataetiske målsætninger og principper, der passer til organisationens forretning, kultur og værdier.

Bogen "Håndbog i dataetik" af Birgitte Kofod Olsen opstiller et sæt dataetiske principper og forklarer deres grundlag i rettigheder og værdier i demokratiske samfund. Den viser også, hvordan arbejdet med dataetik kan forankres i organisationen, og hvordan dataetiske principper kan integreres i udviklingsprocesser og den daglige drift, så vi sikrer, at teknologi og data anvendes til gavn for mennesker og samfund – både nu og i fremtiden. Kilde: Hans Reitzels Forlag. Benyt rabatkoden DATA25.. Foto: Hans Reitzels forlag

Hvordan kan en sådan målsætning se ud?

Jeg kan give et par eksempler. Og med dem også vise, at lige efter målsætningen skal man finde ud af, hvordan den konkret implementeres i ens arbejde. 

Man kan f.eks. arbejde med en målsætning om at fremme menneskets selvbestemmelsesret og så konkretisere det i principper om individuel datakontrol, dvs. adgang for brugerne til kontrol med deres egne data, og i interne governance-principper om menneskelig indgriben i beslutninger, der træffes med hjælp fra AI, eller menneskelig kontrol og ansvar, der sikrer løbende monitorering af kvaliteten af de outputs, teknologien genererer, fx svarene i en chatbot.

En anden målsætning kan være rimelighed og retfærdighed, som kan omsættes til principper for brugen af data og teknologi på en måde, så man undgår at diskriminere og har fokus på at fremme mangfoldighed og inklusion. En konkret opgave, der kommer ud af det, er test for bias – altså kontrol med at fordomme og stereotyper om mennesker på grund af deres alder, køn, etnicitet, religion, handicap, seksuel orientering osv. ikke er indlejret i data og dermed i de produkter eller services, man tilbyder. 

Hvad er de gode råd til at gøre arbejdet med dataetik både værdiskabende og relevant i sin organisation? 

Det er egentlig meget simpelt: dataetik skal integreres i alle faser af data- og teknologianvendelsen. Fra beslutningen om at indføre ny teknologi i design- og udviklingsfasen, i indkøbsprocessen, i forbindelse med test og lancering, i driften og til planen for vedligehold af den løsning, man driver. 

I praksis er det selvfølgelig en kompleks opgave at få dataetik med i hele denne livscyklus. Men den er til at håndtere, hvis man har sin politik og principper på plads, har kortlagt de dataetiske risici og muligheder, formuleret sine i konkrete indsatser og så placeret roller og ansvar for de forskellige faser og opgaver. 

Det er også nødvendigt med god koordination og samarbejde med kolleger i GDPR, informationssikkerhed og ESG/bæredygtighed, så vurderinger og resultater herfra kan inddrages i den dataetiske indsats. 

Hvis man derudover har gode eksterne interessentnetværk, der kan trækkes ind i arbejdet, vil det samlede dataetiske arbejde bidrage til værdiskabelse i organisationen.  

I takt med at AI breder sig ind i vores daglige arbejde, hvilke dataetiske udfordringer møder man så? 

For det første er der lige nu en helt ukritisk tilgang til AI, som præger især brugen af GPT-modellerne lige nu. Mange går bare i gang uden at reflektere over databeskyttelse, sikkerhed, bias, ophavsrettigheder, forretningsfortrolighed og de mange fejl i output. Og uden at fastsætte regler for, hvordan AI må benyttes. 

Det er helt afgørende for ansvarlig og bæredygtig brug af AI, at vi altid har human-in-the-loop, dvs. procedurer og arbejdsprocesser, der gør, at vi som mennesker kan gribe ind og systematisk tester kvaliteten, ændrer og evt. afviser de resultater, AI-løsningen kommer med. Og det skal med fra starten – ikke som en efterrationalisering eller en hovsa-betragtning. Det kan en dataetisk indsats også hjælpe med få på plads.

Læs også: Første finansvirksomhed med i mærkningsordning for dataetik

Den største udfordring ved AI i sig selv er i min optik, at alle de data, vi føder ind i systemerne, er forurenet i den forstand, at de bærer på mange årtiers fordomme og forforståelser om bestemt grupper af mennesker. Når f.eks. en chatbot er trænet på mandestemmer, vil den være svær at bruge for kvinder. Hvis den kun er trænet på rigsdansk, vil brugere med accent eller dialekt ikke kunne interagere med den. Hvis kameraovervågning ikke er trænet på repræsentative data, vil kvinder og brune eller sorte mænd ikke blive genkendt eller fejlagtigt kategoriseret. 

Det kræver derfor systematisk test af bias i både datainput og dataoutput at forhindre denne form for forskelsbehandling. Man kan se det modsatte i praksis, når man i ChatGPT (tekst) og Midjourney (billeder) beder om eksempler på f.eks. læger og sygeplejersker, og de så viser stærkt kønsstereotype resultater. 

 En anden stor udfordring er transparens. Vi er nødt til at arbejde med meget større gennemsigtighed i de løsninger, vi benytter, ved at oplyse om de begrænsninger, de har. 

Et godt initiativ inden for transparens er de algoritmeregistre, som byerne Amsterdam, Barcelona og Helsinki har etableret for at oplyse borgerne om de anvendte datasæt, persondatabeskyttelse, ikke-diskrimination, menneskelig kontrol og risikohåndtering. Den type oplysning til borgere og brugere synes jeg egentlig godt, man kunne gøre obligatorisk for både virksomheder og myndigheder. https://ai.hel.fi/en/international-house-helsinki-chatbot-into/

Birgitte Kofod Olsens bog ”Håndbog i Dataetik” kan købes ved at klikke på dette link. Hvis man bruger koden DATA25 får man endda rabat.

ista Danmark A/S

Sponseret

CO2- rapportering styrker den grønne omstilling og skaber overblik

CSR.dk

Produktionsdanmark får nu eget fagmedie

Relateret indhold

26.02.2026Merkur Andelskasse

Sponseret

Merkur øremærker 20 millioner utålmodige udlånskroner til projekter, der gør gavn

16.02.2026CSR.dk

Trump ophæver klimagrundlag og svækker amerikansk miljøregulering

CSR.dk

Regioner presser EU: Byggeriet skal fylde mere i ny lov om cirkulær økonomi

CSR.dk

Salling Group betaler 10 millioner kroner i bøde for vildledende markedsføring af Nettos ØGO-mærke

3H Law

Sponseret

AYA&IDA-dommen viser: “Bæredygtig” er blevet et næsten umuligt ord

CSR.dk

Omnibussen er nu et skridt tættere på målstregen

3H Law

Sponseret

Må man kalde noget “bæredygtigt”?

CSR.dk

Farvel til 70 procent af datakrav i rapportering

3H Law

Sponseret

Black Friday: Fest for forbrugerne – minefelt for virksomheder

CSR.dk

Investorer vil investere mere i bæredygtighed

Hold dig opdateret med CSR.dk

Tilmeld dig nyhedsbrevet og følg med i alt som rører sig indenfor ESG og bæredygtig udvikling Nyhedsbrevet kommer kun to gange ugentligt. Herudover sender vi dig relevante temaer og spændede events.

Se flere temaer

Events

Se alle
Bureau Veritas
Kursus
OHSMS ISO 45001:2018 Lead auditor arbejdsmiljø (CQI and IRCA-certificeret)

Ved succesfuld gennemførelse af vores CQI and IRCA-certificeret OHSMS ISO 45001:2018 Lead Auditor Arbejdsmiljøkursus vil du være i stand til at planlægge, gennemføre og afrapportere effektive 1., 2. og 3. parts audits af arbejdsmiljøledelsessystemer i henhold ISO 45001:2018 og i overensstemmelse med ISO 19011 og ISO 17021 standarderne.

Dato

16.03.2026

Sted

Vejle

Bureau Veritas
Kursus
FSSC 22000 Intern Auditor

FSSC 22000 Intern Auditor giver dig en grundlæggende forståelse for forhold, der har betydning for fødevaresikkerheden, og du vil således kunne planlægge, gennemføre og afrapportere effektive interne audits af din virksomheds fødevaresikkerhedssystem i henhold til FSSC/ISO 22000:2018 standarden.

Dato

16.03.2026

Sted

Kgs Lyngby

Bureau Veritas
Kursus
OHSMS ISO 45001:2018 Lead auditor arbejdsmiljø (CQI and IRCA-certificeret)

Ved succesfuld gennemførelse af vores CQI and IRCA-certificeret OHSMS ISO 45001:2018 Lead Auditor Arbejdsmiljøkursus vil du være i stand til at planlægge, gennemføre og afrapportere effektive 1., 2. og 3. parts audits af arbejdsmiljøledelsessystemer i henhold ISO 45001:2018 og i overensstemmelse med ISO 19011 og ISO 17021 standarderne.

Dato

16.03.2026

Sted

Vejle

DNV Business Assurance Denmark
Kursus
Afvigelseshåndtering og årsagsanalyse

I forbindelse med lukning af afvigelser og andre interne udfordringer er det meget vigtigt at få lavet en ordentlig årsagsanalyse. Årsagsanalysen laves for at identificere de grundlæggende eller underliggende årsager, få dem rettet og dermed forhindre gentagelser. Det sker jo af og til, at vi løser det samme problem igen og igen.

Dato

17.03.2026

Sted

Odense

Erhvervsakademi Aarhus
Kursus
Kursus: Livscyklusanalyser

Opnå en helhedsforståelse af produktets vej igennem hele værdikæden og bliv klogere på et produkts livscyklus og miljøbelastning. 4 kursusdage i Aarhus på statsgodkendt efteruddannelse med ECTS-point.

Dato

17.03.2026

Tid

09:00

Sted

Erhvervsakademi Aarhus Ringvej Syd 104 8260 Viby J

Dakofa
Møde
Temadag om styrket affaldstilsyn: Kommunale erfaringer efter det første år

Dakofa inviterer til en temadag, hvor der lægges op til udveksling af erfaringer med de allerede gennemførte, kommunale affaldstilsyn.

Dato

17.03.2026

Tid

10:00

Sted

Dakofa, Vesterbrogade 149, Bygning D, 4. sal, KBH V