OpenAI har skapat ett team som ska integrera allmänhetens idéer i förvaltningen av AI-modeller
Mariia Shalabaieva/Unsplash
OpenAI tillkännagav bildandet av en ny forskningsgrupp, Collective Alignment, som ska utveckla ett system för att samla in och ta hänsyn till allmänhetens åsikter när beslut fattas om hur företagets modeller för artificiell intelligens ska bete sig.
Det här är vad vi vet
Enligt utvecklarna kommer Collective Alignment att säkerställa att framtida AI-modeller är i linje med samhällets värderingar och förväntningar.
Skapandet av teamet var resultatet av ett bidragsprogram som lanserades förra året och som finansierade experiment för att införa offentlig granskning och "demokratiska processer" i hanteringen av AI-system.
OpenAI publicerar nu koden och resultaten av stipendiaternas arbete. I framtiden kommer Collective Alignment-teamet att integrera lovande prototyper i företagets produkter och tjänster.
Utvecklarna hävdar att initiativet är utformat för att göra OpenAI AI så användbart och säkert för samhället som möjligt. Vissa experter noterar dock förekomsten av kommersiella intressen och risker för lobbying från företagets sida.
Källa: OpenAI