
Etiske overvejelser i implementeringen af AI i erhvervslivet
To be sure, AI is no longer a “nice to have.” It is a competitive necessity.
— Beena Ammanath
Er denne artikel AI-genereret? Hvis “forfatteren” har den tilstrækkelige know-how til at skrive om kunstig intelligens, har han (eller den?) vel også evnerne til at få en af de store sprogmodeller til at klare arbejdet?
Lad mig betrygge dig med, at artikel er skrevet manuelt. Det rejser dog et — hvis ikke etisk, så finurligt — spørgsmål: Hvorfor skulle det gøre dig, kære læser, tryg? Det er vel ikke et kvalitetsstempel, at teksten er skrevet af et menneske? Tværtimod er det vel efterhånden ganske sandsynligt, at en sprogmodel kunne have gjort et bedre stykke arbejde?
Sandheden er, at det er et spørgsmål om transparens. Og transparens hænger nøje sammen med tillid. Om vi vil det eller ej, påvirkes vores dagligdag i 2025 af kunstig intelligens på en række punkter, de fleste af os ikke er bevidste omkring. Men bevidstheden vokser! I dette rejses en række spørgsmål om tillid:
- Kan vi stole på datahåndtering af de store spillere som OpenAI, Anthropic, X og Google? Selv hvis vi ikke kan, er det så stadig bedre, at de vinder AI-kapløbet, end de kinesiske modeller?
- Kan vi stole på de svar, sprogmodellerne giver? Hvilken data bygger de på? Og er information og sandhed overhovedet det samme?
- Hvem har egentlig ansvaret, når et AI-produkt fører til negative, endda dødelige, konsekvenser?
- Betyder mine eller mit firmas handlinger overhovedet noget, når de alligevel bare er dråber i havet i relation til de store spillere?
I denne artikel vil jeg tage dig gennem en række overvejelser om appliceringen af kunstig intelligens i erhvervslivet. Disse er nødvendige at forholde sig til af to grunde:
For det første vil et firma, der ikke forholder sig til den nye virkelighed med stor sandsynlighed have en begrænset fremtid. Det kan sammenlignes med et firma i dag, der ikke vil bruge computere og internettet. I den nye omstilling giver det store fordele at handle proaktivt.
For det andet er der en række risici forbundet med en ukritisk anvendelse af kunstig intelligens. På nuværende tidspunkt er der dele af sprogmodellerne, som ingen forstår. Der er også et stort juridisk efterslæb og mange etiske spørgsmål, der mangler forskning indenfor. At handle proaktiv er derfor ikke det samme som være progressiv! Eksempelvis kommer de fleste firmaer, der bliver udsat for omfattende sikkerhedsbrud, aldrig på fode igen.
Der er altså rigeligt at forholde sig til, når den rette AI-strategi skal vælges. Mens dette er alles ansvar, og alle skal involveres i processen, kan det være en stor fordel at have en medarbejder, der har en god forståelse for kunstig intelligens og samtidigt har evnerne til at stille de rette kritiske og etiske spørgsmål. Derved kan fremtidens muligheder mødes med større sikkerhed og tillid.
Mellem dommedag og utopia
Da OpenAI offentliggjorde ChatGPT i November 2022, blev verden for alvor konfronteret med noget, der længe havde været undervejs. Desværre var det etiske fokus næsten udelukkende på dommedagsscenarier i den offentlige debat. Udviklerne af produktet samt Gemini, Grok og så videre har derimod en tydelig tendens til at fokusere på de nærmest utopiske tilstande, AI vil skabe i fremtiden ved at takle miljøkrisen, helbrede sygdom og skabe økonomisk vækst af en sådan karakter, penge måske bliver overflødige. Udviklerne af Claude (Anthropic) er en undtagelse, der faktisk anerkender muligheden for et dommedagsscenarie og derfor fokusere på at bygge AI så sikkert som muligt.
Sandsynligvis ligger virkeligheden mellem dommedag og utopia: Som en kniv i hænderne på en morder kan tage liv og i hænderne på en kirurg kan redde det, vil AI blive brugt til at skabe både nye løsninger og problemer. Dette skaber en situation, hvor den aktuelle brug vil påvirke selve udviklingen af kunstig intelligens. Og fremtidens historikere vil dømme, hvordan vi håndterede det.
Microsoft ejer 49 % af OpenAI, mens Google har Gemini. De har derfor et incitement til at forme udviklingen af produkterne efter det, virksomheder og privatpersoner vil anvende. Hvis virksomheder, store som små, derfor insisterer på datasikkerhed, transparens overfor kunderne og beskyttelse af private informationer, så vil de globale AI-virksomheder være nød til at designe produktet derefter.
Vi kender det fra miljøkrisen: Hvad betyder det på verdensplan at lille jeg begrænser kødforbruget og rejser lidt mindre? Men denne dråbe-i-havet-tankegang skal vi gøre op med! Vi har jo netop talrige eksempler på, hvad der sker, når en række individers etiske kompas påvirker den brede befolknings tænkning, hvorefter de store spillere må indrette sig.
Kunstig intelligens er ikke én ting, men et paraplybegreb for en række beregnende modeller, der skræddersyes til at udføre diverse funktioner. SMV’ers konkrete anvendelse af AI-initiativer er derfor afgørende for, hvad kunstig intelligens udvikler sig til at være om ganske få år.
Firmaets sikre vej frem
Etiske forpligtelser bør udleves og efterstræbes, fordi de er gode i sig selv. Men der er også en forretningsmotivation i at være etisk bevidst i appliceringen af kunstig intelligens. I erhvervslivet er der konstant en afvejning af gevinst og risikovillighed. Hvis kunderne ikke stoler på, hvordan firmaet behandler deres data, så stoler de heller ikke på firmaet.
Som moderne forretning er ens ry konstant til forhandling og påvirkes af mange faktorer. Men få ting skader så meget som en dårlig historie. Når kunstig intelligens skaber mange nye muligheder, betyder det lige så, at der kommer mange muligheder for ting, der kan gå galt. Her bliver det ret kompliceret at holde sig på sikker grund.
Der er ikke en sikker og afprøvet vej frem. Sådan er fremtidens natur. Men nogle veje er langt mere sikre end andre! Lad os her se på nogle konkrete punkter, der kan være fordelagtige, hvis ikke nødvendige, at overveje:
Det kan være meget forskelligt, hvor robust en AI-løsning er. Robusthed handler om, i hvilken grad et AI-system formår at bevare dens niveau under forskellige situationer. Når systemet møder en række uventede eller mangelfulde data, så afsløres det, hvor godt det lykkes med at tackle situationen. En AI kan faktisk også blive upræcis med tiden, hvor den oprindelige løsning nu er blevet et problem for firmaet, hvis for eksempel en chatbot begynder at fejlinformere kunderne. At lave en chatbot til at besvare kundehenvendelser kan spare mange ressourcer. Men det er ikke nok at lave den og forvente, at alt derefter går, som det skal. Man kan teste dens robusthed, inden den gøres tilgængelig, ved at stille den skæve, uventede spørgsmål og se, hvordan den reagere. Samtidigt skal man teste den løbende for at sikre, den ikke kører af sporet med tiden.
Ved kunderne, hvordan jeres firma bruger kunstig intelligens? Kunder vil gerne (og fortjener at) vide, at det for eksempel er en chatbot, de kommunikere med. Vi er nu tilbage ved transparens, hvor kundernes tillid og firmaets integritet er på spil. Et firma bør informere ærligt om anvendelsen af data, personoplysninger og kunstig intelligens på en passende måde. Princippet om transparens rummer også nogle dilemmaer. Virksomheder har jo ikke kun produkter, men også intellektuelle ejendomme, de ønsker at beskytte fra konkurrenterne. Samtidigt har de fleste firmaer heller ikke selv en dybdegående og teknisk forståelse af, hvordan kunstig intelligens egentlig virker. Nogle simple råd i dette er følgende:
- Overvej, hvilke AI’s jeres firma bruger og derved støtter. Måske er der større transparens om anvendelse af data ved et amerikansk end et kinesisk firma, hvor dine kunders data ikke fortjener at havne.
- Anonymiser kundeinformation, når det anvendes i AI. Personfølsomme oplysninger bør ikke puttes ind i Grok, Gemini og ChatGPT.
- Sørg for, at kunder altid kan få et klart svar, hvis de spørger, hvad deres oplysninger bruges til.
- Overvej, om i skal have en lokal udgave af en sprogmodel, så modellen ikke træner på den kunde- og virksomhedsdata, der indsættes.
Selvom EU ønsker, at der bør være transparens omkring, hvordan et AI-system kommer frem til et output, så må det erkendes, at transparens-begrebet i dag er et spektrum. De globale virksomheder vil ikke afgive deres algoritmer (deres intellektuelle ejendom) til konkurrenterne, og derfor må transparens være gradvist. SMV'er bør derfor udvise et forsigtighedsprincip, når de håndtere kundernes data. Særligt når vi lever i en verden, hvor individet ganske enkelt ikke længere har fuld kontrol over privatlivet.
If privacy depends by definition on our individual control, we simply don’t have significant privacy and never will in a computerized world. On the contrary, it seems more reasonable to maintain that sensitive personal information ought to be private even if its owner is not in a position to control it.
— James Moor & Herman Tavani
Fuld kontrol er ganske enkelt ikke foreneligt med de algoritmer og den data, AI består af og træner på, så kunsten er at påvirke systemerne til at værne om de sensitive data. Selv GDPR er problematisk at efterleve, da for eksempel OpenAI ikke dybdegående vil oplyse kunder om, hvordan deres data anvendes. Desuden kan data ikke trækkes fuldt tilbage, når systemet først har trænet på den. Der er nok at forholde sig til!
Når en AI-løsning anvendes i erhvervslivet, er det derfor vigtigt, at:
- Den er robust: Den virker i den rigtige verden, hvor uventet input modtages.
- Den efterprøves: Det er ikke en engangsinstallering, men den revurderes løbende.
- Inputs overvejes: Et forsigtighedsprincip anvendes på både kundernes og firmaets vegne, hvor bestemte typer information anonymiseres.
- Kunne forklare brugen: En simpel forklaring bør kunne gives til alle interessenter om, hvordan løsningen anvendes.
Langt flere eksempler og konkrete pointer kunne nævnes. Men netop dette bringer os til en mere overordnet pointe.
Om at stille (de rette) spørgsmål
Mange var i starten dybt overraskede over, hvor god ChatGPT var til at svare på spørgsmål. Og den bliver konstant bedre! En vigtig pointe for applikationen af den ligger i ordet “chat”: Man skal snakke med den, indtil det konkrete svar, man søgte, opnås. Men netop her ligger også en risiko i at være for begejstret for dens imponerende evner.
Når ChatGPT kan lære os en voldsom mængde information om alt fra antropologi til historie, fysik, teologi, logik, arkitektur og opskrifter på kringler, så fristes man til at forveksle information med sandhed. Her skal vi have in mente, hvordan maskineriet fungerer, og hvad det er trænet på. Hvordan ChatGPT fungerer kan sammenlignes med at skrive en SMS, og telefonen selv foreslår, hvad de tre næste ord kunne være. Hvis jeg skriver “Jeg”, kan det være, min telefon foreslår “er”, “hedder” og “kan”. På samme måde vælger ChatGPT ud fra den indsatte prompt, hvad det næste ord mest sandsynligt ville være. Til tider tager den det næst- eller tredjemest sandsynlige ord for at øge den sproglige kreativitet.
Hvordan ved den, hvad de mest sandsynlige ord er? Fra den data, den er trænet på. Oprindeligt købte OpenAI sig adgang til Reddits data. På dette medie er mange kommentarer dybt sarkastiske. I en tidlig udgave af ChatGPT spurgte en pizzariaejer, hvad han kunne gøre ved, at osten gled af pizzaen. Svaret, han modtog, var, at han kunne lime det fast. Grunden til dette svar var, at en sarkastisk kommentar fra Reddit på et lignende spørgsmål havde modtaget flest likes, da folk fandt det morsomt, mens ChatGPT tolkede de mange likes som et udtryk for svarets højere kvalitet end de andre kommentarer. Siden er modellen naturligvis blevet bedre.
Når ChatGPT anvendes til at skrive artikler eller taler, er det vigtigt at fakta-tjekke information og forholde sig kritisk til resultatet. David Jakobsen fra Aalborg Universitet har for nylig sammenlignet ChatGPT med sofisterne fra antikkens Grækenland. De var imponerende dygtige til retorisk og sprogligt kompetente. Men i modsætning til Sokrates, Platon og Aristoteles gik de ikke op i sandhed. Derfor måtte de tre filosoffer konstant udfordre og kritisere stoikerne, men kunne samtidigt udvikle deres egen tænkning gennem disse sparringspartnere. Vi må behandle ChatGPT lige så: Som en sprogligt yderst kompetent partner at diskutere med, velvidende at den ikke i sin natur er optaget af sandhed.
Det kan forholdsvis let demonstreres, hvordan ChatGPT kan levere logisk inkonsistente resultater. Men to andre ting er værd at være opmærksom på: For det første udfordrer ChatGPT aldrig ens præmisser. Hvis vi beder den om en opskrift på glutenfri kattefodder, så leverer den det. Men den påpeger ikke, at katte ikke kan have glutenallergi, da deres immunforsvar er anderledes end menneskers. For det andet kan den finde på at hallucinere, hvilket betyder, at den finder på misvisende oplysninger for at give et resultat. Det kan være forkerte citater, falske undersøgelser til at underbygge en pointe eller opfinde virksomheder, der ikke eksisterer. For eksempel kan den give bogtitler af ægte forfattere, hvor bøgerne ikke findes.
Pointen er, at en forsvarlig og anvendelig brug af ChatGPT forudsætter, at vi er i stand til at stille de rette spørgsmål. En virksomhed kan have gavn af en filosof, teolog eller idéhistoriker, der er trænet i at undre sig og reflektere over det, de fleste ikke forholder sig til. I applikationen af AI-løsninger skal vi kunne være kritiske ikke bare overfor det givne resultat, men også overfor de præmisser, vi selv har stillet op. Det kan sikre en virksomhed imod uheldige og uhensigtsmæssige situationer, der går ud over ens brand og påvirker virksomhedens økonomi.
At stille reflekterede spørgsmål er derved en del af en forsvarlig brug af kunstig intelligens, der sikrer virksomheden imod at havne i vanskelige situationer, som ikke kan tilbagerulles. Mens kunstig intelligens kan få os til at tænke mindre, da den gerne gør det for os, er det ironisk nok endnu vigtigere end før, at vi udvikler vores refleksionsevne og kritiske sans.
Fremtidens virksomhed
AI fungerer i dag primært som en assistent, der er yderst kompetent til nogle opgaver, middelmådig til andre og ikke kan finde ud af endnu andre ting. Som virksomhed må man derfor afveje, om AI er tilstrækkeligt udviklet til at løse de forskellige udfordringer, man står overfor. Når kvaliteten af en AI-løsning sammenholdes med ressource- og tidsforbrug, kan det vurderes, om tiden er moden til at implementere den.
I dag handler det for SMV’er primært om at bruge AI som en assistent til hverdagsopgaver, der sparer tid. Det kan være idégenerering, tekstforfatning, mødetranskribering eller lignende. Det handler om at begynde med en simpel løsning, hvor der kan bygges ovenpå, og være kompetent indenfor prompting. De store virksomheder er naturligvis begyndt på mere komplekse initiativer, hvoraf agenter bliver det næste store skridt. I skrivende stund anvendes de primært i USA, men de vil de kommende år udbredes til danske SMV’er og kommuner. Agenter arbejder i højere grad autonomt og bliver gradvist bedre til at løse deres opgaver. De vil kunne anvendes indenfor en række områder i erhvervslivet.
De spørgsmål, firmaer månedligt står overfor, omhandler timingen for at implementere nye løsninger. Derved er vi tilbage til tematikken om at være proaktiv, men ikke progressiv. Og dette hænger igen sammen med vores tillid til AI-løsninger, heriblandt vores kunders tillid til os! At bevæge sig både effektivt og sikkert i disse farvande kræver medarbejdere, der har et indgående kendskab til firmaet selv og er opdateret på udviklingen indenfor kunstig intelligens. Vedkommende skal kunne bygge bro mellem de to verdener, men samtidigt kunne stille de rette, kritiske spørgsmål, for at sikkerheden bevares. Derfor er det firma, der tager etik seriøst, i virkeligheden dem, der formår at skabe stabilitet for forretningen i en tid med store nybrud. Det er gode nyheder! Det er også en opmuntring til at reflektere etisk over hele ens foretagende. Og selv hvis det ikke kunne svare sig, bør det gode, retfærdige og sande opsøges og praktiseres alligevel.
- Thomas N. Steiner