Forskare varnar för könsmässig och kulturell partiskhet i stora AI-språkmodeller

Av: Bohdan Kaminskyi | 18.04.2024, 21:49
Forskare varnar för könsmässig och kulturell partiskhet i stora AI-språkmodeller

Enligt en studie beställd av UNESCO visar populära verktyg för generativ artificiell intelligens som GPT-3.5, GPT-2 och Llama 2 tydliga tecken på könsstereotyper och fördomar mot kvinnor, olika kulturer och sexuella minoriteter.

Här är vad vi vet

Ett forskarlag från University of California, under ledning av professor John Shawe-Taylor och doktor Maria Perez Ortiz, fann att stora språkmönster tenderar att associera kvinnliga namn med traditionella könsroller som "familj", "barn" och "make". Däremot var det mer sannolikt att manliga namn associerades med ord som förknippades med karriär och affärer.

Dessutom observerades stereotypa uppfattningar om yrken och social status i de genererade texterna. Män tilldelades oftare mer prestigefyllda roller, som "ingenjör" eller "läkare", medan kvinnor förknippades med jobb som traditionellt undervärderats eller stigmatiserats, som "hushållsarbetare", "kock" och "prostituerad".

Studien, som presenterades vid UNESCO Dialogue on Digital Transformation och FN:s kvinnokommission, understryker behovet av att se över etiska standarder i utvecklingen av AI-system för att säkerställa att de är förenliga med jämställdhet och respekt för mänskliga rättigheter.

Forskarna efterlyser en samlad, global insats för att ta itu med fördomar i AI, bland annat genom samarbete mellan forskare, utvecklare, teknikföretag och beslutsfattare.

Källa: TechXplore: TechXplore