Informationstidsalderen blev skudt i gang af hvide amerikanske mænd. Det har medført bias i det verdensbillede vores teknologi præsenterer for os. Bias, som teknologien ikke altid kan håndtere.
Når du bruger et digitalt værktøj til at få svar på et spørgsmål, vil teknologien give dig det mest sandsynlige svar (hvilket ikke nødvendigvis er det samme som det korrekte eller mest passende svar). Det er sådan systemerne er designet, og i mange tilfælde er det da også præcis dét du er ude efter – det mest sandsynlige svar på dit spørgsmål. Det viser sig imidlertid, at det mest sandsynlige svar ofte har indbygget bias i form af stereotype opfattelser i forhold til køn, alder, etnicitet mv.
Kærestetesten
En kollega præsenterede mig forleden for noget, han kaldte for “kærestetesten”. En test af, hvor forudindtaget eller “biased” vores digitale redskaber er. I dette konkrete tilfælde var det Google Translate, der blev brugt som eksempel.
På dansk er ordet “kæreste” kønsneutralt, hvorimod man på engelsk bruger de kønsspecifikke betegnelser “boyfriend” og “girlfriend”. Denne forskel medfører, at når Google Translate forsøger at oversætte ordet “kæreste” til engelsk, vælger den enten “boyfriend” eller “girlfriend” ud fra en vurdering af, hvor stor sandsynligheden er for, at det er tale om en mandlig eller en kvindelig kæreste. I nedenstående eksempler fremgår det tydeligt, at Google Translate baserer sin sandsynlighedsvurdering på nogle lidt outdatede kønsrollemønstre.
Kærestetesten er et godt eksempel på, hvor meget bias vores digitale redskaber slæber rundt på, og hvor opmærksom på bias man bør være, når man bruger dem.
Det er naturligvis ikke fordi, teknologien bevidst er designet til at have holdninger som en mandschauvinistisk mand. Det er ganske enkelt et resultat af det fundament af tilgængelige data, som teknologien baserer sin viden på. Data, som også inkluderer information fra en tid, hvor andre holdninger end dem, der er dominerende i vor tid, var fremherskende.
Google røg i woke-fælden
Noget kunne tyde på, at Google udmærket er klar over bias-problematikken. Da de for nylig lancerede deres AI-værktøj Gemini, der blandt andet gør det muligt at skabe billeder ved hjælp af kunstig intelligens, blev det hurtigt tydeligt, at de havde været inde og justere algoritmerne, for at sikre, at den ville levere svar, der passede til vores nuværende syn på mangfoldighed. Gemini måtte for alt i verden ikke fremstå biased! Det viste sig imidlertid, at de var kommet til at skrue lidt for meget på knapperne. Gemini havde for eksempel rigtig svært ved at skabe billeder med mennesker, hvor personernes etnicitet var vigtig i forhold til den historiske kontekst.
Gemini var nærmest ude af stand til at skabe billeder af hvide mennesker og blev hurtigt beskyldt for at være for “woke”. Efterfølgende måtte Google lukke midlertidig ned for muligheden for at skabe billeder, hvor mennesker var en del af motivet.
Hvad skal vi gøre?
Det er et kendt fænomen, at historiebøger skrives med den bias som samtiden har. Sådan har det altid været. Og når nye AI-værktøjer lanceres, er de trænet på den data vi har til rådighed. Data, som er fuld af bias. De nye AI-værktøjer er stadig på baby-stadiet, så for nuværende bliver vi nok nødt til at gøre det til en vane at have vores eget “bias-filter” tændt, hver gang vi bruger dem.