"Fullständigt skräp": Hackare har kritiserat nuvarande AI-säkerhetstester

Av: Vlad Cherevko | 11.02.2025, 22:59
"Fullständigt skräp": Hackare har kritiserat nuvarande AI-säkerhetstester

På DEF CON, världens största hackerkonferens, uppgav ledande cybersäkerhetsforskare att nuvarande metoder för att skydda system för artificiell intelligens (AI) är fundamentalt felaktiga och kräver en fullständig översyn.

Här är vad vi vet

Konferensens första Hackers' Almanac rapport, som producerades i samarbete med University of Chicagos Cyber Policy Initiative, ifrågasätter effektiviteten i "red team"-metoden där säkerhetsexperter skannar AI-system efter sårbarheter. Sven Cattell, som leder AI Village DEF CON, säger att metoden inte kan ge tillräckligt skydd mot nya hot eftersom dokumentationen av AI-modeller är fragmenterad och de bedömningar som ingår i dokumentationen är otillräckliga.

<

På konferensen testade cirka 500 deltagare AI-modeller, och även nybörjare lyckades hitta sårbarheter. Forskarna efterlyste en implementering av strukturer liknande CVE-ramverket (Common Vulnerabilities and Exposures) som använts inom traditionell cybersäkerhet sedan 1999 för att standardisera hur AI-sårbarheter dokumenteras och åtgärdas.

Källa: DEF CON