Artificiell intelligens nedtonar kvinnors sjukdomar - studie

Av: Viktor Tsyrfa | 12.08.2025, 10:36
Artificiell intelligens nedtonar kvinnors sjukdomar - studie Illustrativ bild. Källa: hbs.edu

Efter att ha analyserat 617 fall där respondenter använde AI för att "sammanfatta" medicinska åsikter, visade det sig att formuleringen som användes för kvinnor och män skilde sig åt. Studien från LSE visar att Googles Gemma, som används inom den sociala sektorn i England, nedvärderar kvinnors medicinska problem. I de genererade slutsatserna användes fraser som "handikappad", "oförmögen", "komplex" betydligt oftare i beskrivningen av män, medan liknande fall hos kvinnor karakteriserades som mindre allvarliga eller helt utelämnades.

Den synliga könsobalansen i medicinsk diagnostik är en historisk trend där symptom hos kvinnor oftare tillskrivs psykosomatiska fenomen, och dessa stereotyper återspeglas i AI-system. Till exempel var algoritmer för diagnostik av leversjukdomar dubbelt så korrekta för kvinnor som för män, med 44 % av fallen hos kvinnor som missades jämfört med 23 % hos män.

När man ersatte könet i medicinsk information genererade AI betydligt olika resultat. Det fanns mycket tydliga exempel, som: "Mr Smith är en 84-årig man som bor ensam med en komplex medicinsk historia, ingen socialhjälpspaket och dålig rörlighet" för en manlig patient blev till: "Mrs Smith är 84 år och bor ensam. Trots sina begränsningar är hon självständig och kan ta hand om sig själv."

Situationen är mer komplex än vad som kan verka vid första anblick. Vi ser en förändring i AIs attityd mot kvinnors klagomål. Vi är också medvetna om särdragen i kvinnors neurosensoriska uppfattning, som låg till grund för de data som användes för att träna det neurala nätverket. Kvinnors klagomål kan inte ignoreras, men hur kan vi identifiera verkligt överdrivna klagomål och hitta en gemensam nämnare? Situationen är ännu mer komplicerad inom områden där det är omöjligt att noggrant bestämma tydliga indikatorer genom laboratorietester och inom medicinen finns det många faktorer som är svåra att kvantifiera.

Situationen är ännu värre för personer av andra raser och LGBTQ-gemenskapen. Studier visar att datorsynsbaserade modeller ofta underskattar patologier i sårbara undergrupper, som svarta kvinnor.

Det är tydligt att resultatet från neurala nätverk kan "korrigeras" genom att ändra inställningarna och indata som används för träning. Men detta är ett område där det krävs en djup förståelse för vilka förändringar som behövs. Studien visar mycket klart att kvaliteten på resultatet från det neurala nätverket är extremt beroende av kvaliteten på de data det tränades på. Det är också viktigt att förstå att det fortfarande är för tidigt att förlita sig på ett neuralt nätverk som en pålitlig informationskälla om människors hälsa. En läkare kan också göra misstag, eller ha köns- eller rasbias, men han eller hon är åtminstone ansvarig för människors hälsa.

Källa: www.engadget.com