OpenAI skärper kontrollen av utvecklingen av potentiellt farliga AI-modeller
Mariia Shalabaieva/Unsplash
OpenAI, utvecklaren av den populära chatboten ChatGPT, inför ytterligare kontroller för att minska risken för att skadliga modeller för artificiell intelligens skapas.
Det här är vad vi vet
OpenAI håller på att inrätta en särskild rådgivande säkerhetsgrupp. Den kommer att bedöma riskerna med utvecklade modeller inom flera områden: cybersäkerhet, felaktig information, autonomi och andra.
Gruppen kommer att kunna ge rekommendationer till företagets högsta ledning om att förbjuda eller begränsa vissa projekt. Dessutom kommer OpenAI:s styrelse att ha rätt att lägga in veto mot beslut som fattas av den verkställande ledningen.
Enligt företagets uttalanden kommer dessa åtgärder att göra det möjligt att bättre identifiera potentiella hot i ett tidigt skede av utvecklingen. Experter noterar dock att systemets verkliga effektivitet beror på OpenAI-ledningens egen policy.
Tidigare uteslöts anhängare av att begränsa riskfyllda AI-projekt från styrelsen. Och de nya styrelseledamöterna är kända för sin ganska kommersiella inställning. I vilken utsträckning de kommer att vara benägna att använda vetorätten i praktiken är okänt.
Källa: TechCrunch