Meninger Dette er et debattinnlegg. Innlegget gir uttrykk for skribentens holdninger.
Kunstig intelligens (AI) er overalt. Ansiktsgjenkjenning, Netflix-anbefalinger, selvkjøringsteknologi og robotstøvsugere - sjansen for at du benytter AI i det daglige er stor. Sjansen er også stor for at dersom AI blir bedt om fremstille en teknologibevisst person, vil den lage en mann.
Ordet «kjæreste» har ikke noen kjønnsnøytral oversettelse på engelsk dagligspråk. På engelsk heter det «girlfriend» eller «boyfriend». Det åpner for et interessant eksperiment; hva skjer om man ber det AI-baserte Google Translate oversette ordet «kjæreste» når kjæresten gjør eller er noe kjønnsstereotypisk?
Hvis du ber Google oversette «Kjæresten er en sykepleier», får du til svar: «The girlfriend is a nurse». Hva om vi prøver med elektriker? Vel, da blir oversettelsen «The boyfriend is an electrician”. Man aner et mønster. Tilfeldig? Vi prøver igjen. Hva hvis kjæresten er lege? Svaret blir «Boyfriend». Sekretær? «Girlfriend». Rørlegger? «Boyfriend». Daglig leder, snekker eller økonom? «Boyfriend.» Hjelpepleier, hjemmeværende eller hushjelp? «Girlfriend.»
Hva om vi bytter ut yrker med handlinger? «Kjæresten mekker bil» blir «the boyfriend fixes the car» og «kjæresten passer barn» blir «the girlfriend looks after the children». Installering av hyller, bilkjøring, tjening av penger, betaling av regninger, å gå på jobb eller å drikke svart kaffe er tydeligvis også oppgaver for «the boyfriend», mens det å re opp sengen, ta solarium, sy i en knapp, lage mat eller drikke cappucino er en oppgave for «the girlfriend».
Det er ikke i utgangspunktet Google sin feil. Den digitale oversetteren forsøker å finne mønstre i hundrevis av millioner dokumenter som allerede er oversatt av menneskelige oversettere. Deretter gjør den kvalifiserte gjetninger om hva en passende oversettelse bør være. Oversettelsene, som er håpløst kjønnsstereotypiske, kunne vært avfeid som enkeltpersoners fordommer. Det stikker dypere enn som så; kjønnsstereotypiene er så rotet i samfunnet at de blir matematisk sannsynlighet når en datamaskin må velge om den som tar oppvasken skal være mann eller kvinne.
Problemet med kjønn i AI-oversettelse er betydelig, spesielt når man oversetter tekst som ikke spesifiserer kjønnet til personen eller objektet det refereres til. For å redusere disse problemene er noen AI-oversettelsessystemer utviklet for å inkludere kjønnsinformasjon i databasene deres, noe som kan bidra til å redusere unøyaktigheter og misforståelser. I tillegg kan det å ta hensyn til kulturell kontekst og lokale idiomer bidra til å redusere unøyaktigheter i oversettelser.
De siste tre setningene du leste nå var forøvrig ikke skrevet av meg, men av den mye omtalte AI-baserte chatboten ChatGPT. Fascinerende, ikke sant? ChatGPT har fått mye kritikk for å gjøre det litt for enkelt å svare på hjemmeleksene. Google Translate kan frikjennes for å i utgangspunktet anta at det er mest sannsynlig at kvinner vasker opp og passer barn, men de kan likefullt kritiseres for å ikke har tilpasset algoritmene sine godt nok for å motvirke dette. ChatGPT derimot, fortjener skryt; jeg har gjort mitt ytterste for å prøve å provosere fram kjønnsstereotypiske holdninger - og ikke klart det.
Bildet er forøvrig det samme om man bruker en AI-kunstgenerator. Da jeg ba programmene Hotpot og CrAIyon tegne en sykepleier og en som vasket opp, tegnet de kvinner. Legen ble en mann. Da jeg ba om en snekker, fikk jeg riktignok en person med to munner, en halv nese og en blodig pølsefinger, men mengden skjegg talte for hankjønn. Men hva vet jeg? Datamaskiner fortjener vel også kunstnerisk frihet.
Ragne Victoria Kolaas Stauri, spaltist, Lillehammer