Stora AI-företag enas om att hantera bilder på övergrepp mot barn
Steve Johnson/Unsplash
Ledande AI-företag som Google, Meta, OpenAI, Microsoft och Amazon har kommit överens om att vidta åtgärder för att förhindra att material om sexuell exploatering av barn (CSAM) används i träningsdatauppsättningar för AI-modeller.
Det här är vad vi vet
Teknikjättarna har undertecknat en ny uppsättning principer som syftar till att begränsa spridningen av CSAM. De lovar att se till att träningsdata inte innehåller skadligt innehåll, undvika dataset med hög risk för att innehålla sådant material och ta bort sådana bilder eller länkar till dem från datakällor.
Dessutom avser företagen att "stresstesta" AI-modeller för att säkerställa att de inte genererar CSAM-innehåll, och att släppa modeller först efter att ha bedömt deras överensstämmelse med barnsäkerhetskraven.
Företag som Anthropic, Civitai, Metaphysic, Mistral AI och Stability AI har också anslutit sig till initiativet.
Den ökande populariteten för generativ AI har bidragit till spridningen av falska bilder online, inklusive syntetiska bilder av sexuell exploatering av barn. Ny forskning har avslöjat förekomsten av CSAM-referenser i vissa populära träningsdatauppsättningar för AI-modeller.
Thorn, en ideell organisation som bekämpar barnmisshandel och som hjälpte till att utveckla riktlinjerna, varnar för att generering av CSAM genom AI kan förhindra att offer identifieras, skapa större efterfrågan och göra det lättare att hitta och distribuera problematiskt material.
Google säger att företaget i samband med antagandet av principerna också har ökat reklambidragen till National Centre for Missing and Exploited Children (NCMEC) för att främja initiativ för att öka medvetenheten och ge människor verktyg för att identifiera och rapportera övergrepp.
Källa: The Verge