OpenAI lanserar Red Teaming Network-grupp för att förbättra tillförlitligheten hos sina modeller
OpenAI har tillkännagivit lanseringen av Red Teaming Network-programmet, en grupp experter som kommer att bedöma och minska riskerna i modeller för artificiell intelligens.
Det här är vad vi vet
Enligt OpenAI kommer gruppen att hjälpa till att identifiera fördomar i modeller som DALL-E 2 och GPT-4, samt hitta ledtrådar som får AI att ignorera säkerhetsfilter.
Tidigare har företaget också tagit in testare från tredje part, men detta arbete är nu formaliserat för att "fördjupa och bredda" kontrollerna med experter och organisationer.
Nätverksdeltagarna kommer att kunna interagera med varandra om gemensamma AI-testfrågor. Alla som deltar i projektet kommer dock inte att arbeta med nya OpenAI-produkter.
Företaget bjuder även in experter inom en rad olika områden, bland annat lingvistik, biometri, finans och hälso- och sjukvård. Tidigare erfarenhet av AI-system krävs inte, men sekretessavtalet kan påverka annan forskning, varnade OpenAI.
Källa: OpenAI: OpenAI