OpenAI har erkänt att GPT-4 med "minimal risk" skulle kunna bidra till utvecklingen av biologiska vapen.
Mariia Shalabaieva/Unsplash
OpenAI genomförde en studie för att bedöma riskerna med att använda sin nya GPT-4-modell för att utveckla biologiska vapen. Resultaten visade att tillgång till AI-kapacitet ger "åtminstone en marginell" ökning av effektiviteten i informationsinsamlingen för att utveckla biologiska hot.
Här är vad vi vet
Femtio biologer och 50 studenter deltog i experimentet. De ombads att hitta information om odling och distribution av farliga ämnen. Hälften av försökspersonerna fick tillgång till en specialversion av GPT-4 utan begränsningar, medan den andra hälften använde det vanliga internet.
Jämförelsen av resultaten visade en liten ökning av noggrannheten och fullständigheten i svaren i gruppen med tillgång till AI. OpenAI-forskarna drog slutsatsen att det fanns en "åtminstone mindre" risk att använda modellen för att samla in data om utveckling av biovapen.
Experter och beslutsfattare har tidigare uttryckt oro över den potentiella användningen av chatbots för att utveckla biologiska hot. I oktober gav USA:s president energidepartementet i uppdrag att säkerställa att AI-system inte utgör kemiska och biologiska risker. OpenAI-teamet arbetar nu för att minimera sådana risker i takt med att AI-tekniken utvecklas.
Källa: OpenAI