OpenAI har bildat en grupp för att bedöma katastrofrisker från AI
Mariia Shalabaieva/Unsplash
OpenAI meddelade att man inrättat ett nytt team som ska minska de potentiellt farliga risker som är förknippade med artificiell intelligens.
Här är vad vi vet
Beredskapsteamet kommer att övervaka, bedöma och förebygga allvarliga problem som AI kan orsaka. Dessa inkluderar kärnvapenhot, biologiska vapen, mänskligt bedrägeri och cyberattacker.
OpenAI noterar att det nya teamet kommer att utveckla riskbaserade AI-utvecklingspolicyer. Aleksander Madry, en MIT-expert inom maskininlärning, har utsetts till att leda teamet.
Enligt OpenAI kan avancerade AI-modeller medföra fördelar men också ökande risker. Företagets VD Sam Altman har tidigare varnat för de potentiella katastrofala konsekvenserna av AI och uppmanat regeringar att ta tekniken på lika stort allvar som kärnvapen.
Källa: OpenAI: OpenAI