Populär LAION-5B-datauppsättning för artificiell intelligens innehåller bilder av sexuella övergrepp mot barn - studie

Av: Bohdan Kaminskyi | 21.12.2023, 14:19
Populär LAION-5B-datauppsättning för artificiell intelligens innehåller bilder av sexuella övergrepp mot barn - studie
LAION

LAION-5B-datasetet för utbildning i artificiell intelligens innehåller minst 1679 referenser till bilder på sexuella övergrepp mot barn (CSAM).

Det här är vad vi vet

Forskare vid Stanford Internet Observatory började analysera LAION-datauppsättningarna i september 2023 - de kontrollerade bildhashar med hjälp av specialiserade plattformar för att upptäcka CSAM. Det gjordes även en kontroll av Canadian Centre for Child Protection.

Enligt beskrivningen på webbplatsen är LAION ett index över bilder från internet, inte ett arkiv. Experter noterar dock den potentiella faran med att ha CSAM-material i det - AI-modeller som tränas på sådana data kan lära sig att skapa skadligt innehåll.

Forskarna rekommenderade att man skulle sluta använda AI-modeller som tränats på LAION-5B. I synnerhet Stability AI: s Stable Diffusion-modell tränades delvis på dessa data.

Google använde också en tidigare version av LAION för Imagen, men övergav senare den informationen.

Källa: The Verge