Microsoft-anställd klagade till FTC över säkerheten i Copilot Designer AI-generator

Av: Bohdan Kaminskyi | 07.03.2024, 16:38
Microsoft-anställd klagade till FTC över säkerheten i Copilot Designer AI-generator
Microsoft

Shane Jones, ingenjör inom artificiell intelligens på Microsoft, har lämnat in ett klagomål till US Federal Trade Commission (FTC) om säkerheten i Copilot Designer AI-bildgenerator.

Det här är vad vi vet

Enligt Jones, som har arbetat på Microsoft i sex år, "vägrade" företaget att ta bort Copilot Designer. Han varnade upprepade gånger för att verktyget kunde skapa skadligt innehåll.

I sitt brev till FTC påpekade ingenjören att AI:n under tester genererade "demoner och monster tillsammans med terminologi relaterad till aborträtt, tonåringar med automatvapen, sexualiserade bilder av kvinnor i våldsamma scener samt minderårigas drickande och droganvändning".

Dessutom, hävdar Jones, genererade verktyget bilder av Disneyfigurer mot en bakgrund av förstörelse i Gazaremsan och iförda israeliska arméuniformer.

Ingenjören har försökt varna Microsoft för problem med DALLE-3-konstruktorn som används i Copilot Designer sedan december förra året. Han publicerade ett öppet brev på LinkedIn, men företagets advokater krävde att det skulle raderas.

"Under de senaste tre månaderna har jag upprepade gånger uppmanat Microsoft att ta bort Copilot Designer från offentlig användning tills bättre skyddsåtgärder kunde införas. Återigen har de misslyckats med att genomföra dessa förändringar och fortsätter att marknadsföra produkten till 'Vem som helst. Var som helst. Vilken enhet som helst", säger Jones.

Microsoft sa att man är fast besluten att ta itu med anställdas oro i enlighet med företagets policy och har genomfört en intern utredning av ingenjörens oro.

Tidigare har Microsofts VD Satya Nadella kallat Copilot Designer-genererade explicita bilder av sångerskan Taylor Swift "alarmerande och fruktansvärda" och lovat bättre kontrollsystem.

Gå djupare:

Källa: The Verge