Meta släppte FACET-datauppsättningen för att undersöka datorvisionsmodeller för partiskhet

Av: Bohdan Kaminskyi | 01.09.2023, 21:02
Meta släppte FACET-datauppsättningen för att undersöka datorvisionsmodeller för partiskhet

Meta har presenterat ett nytt verktyg, FACET, för att utvärdera rättvisan hos artificiell intelligens som klassificerar och känner igen objekt i foton och videor, inklusive människor.

Här är vad vi vet

FACET består av 32 000 bilder med 50 000 personer som har märkts av mänskliga kommentatorer. Verktyget tar hänsyn till olika klasser relaterade till yrken och aktiviteter, samt demografiska och fysiska egenskaper.

Meta tillämpade FACET på sin egen datorseendealgoritm DINOv2. Verktyget fann flera fördomar i modellen, bland annat mot personer med vissa könsegenskaper. Det visade sig också att DINOv2 tenderade att stereotypisera kvinnor som "sjuksköterskor".

Meta är medvetet om att FACET kanske inte på ett adekvat sätt återspeglar verkliga koncept och demografiska grupper. Dessutom kan många av beskrivningarna av yrken i datasetet ha ändrats sedan verktyget skapades.

Till exempel bär de flesta läkare och sjuksköterskor på foton som tagits under covid-19-pandemin mer personlig skyddsutrustning än de gjorde före pandemin.

Förutom själva datasetet tillhandahöll Meta också ett verktyg för att utforska data. För att använda det måste utvecklarna gå med på att inte träna datorvisionsmodeller på FACET, utan bara utvärdera, testa och validera dem.

Källa: TechCrunch: TechCrunch