Google har utökat sitt bug bounty-program för sårbarheter i generativa AI-system
Jakub Porzycki/Getty Images
Google har kompletterat sitt belöningsprogram för att hitta sårbarheter med angreppsscenarier som är specifika för generativ artificiell intelligens.
Det här är vad vi vet
I bug bounty-programmet betalar Google etiska hackare kontantbelöningar för att hitta och på ett ansvarsfullt sätt avslöja sårbarheter. Enligt företaget stimulerar detta forskning om AI-säkerhet och hjälper till att identifiera potentiella problem för att göra tekniken säkrare.
Med tanke på de nya säkerhetsproblemen med AI har Google beslutat att ompröva hur man kategoriserar buggar i sina system. För att göra detta använder företaget data från sitt AI Red Team som modellerar olika cyberattacker.
Teamet upptäckte särskilt språkmodellernas sårbarhet när det gäller att införa skadliga tips och extrahera träningsdata från angripare. Sådana scenarier omfattas nu av bug bounty-programmet.
Upptäckta buggar som innebär upphovsrättsintrång eller utvinning av okänsliga uppgifter kommer dock inte att belönas.
Belöningens storlek beror på hur allvarlig den upptäckta sårbarheten är. Google betalade forskare mer än 12 miljoner dollar under 2022.
Källa: TechCrunch