Microsoft blockerade kontroversiella verktygstips i Copilot efter klagomål från en ingenjör

Av: Bohdan Kaminskyi | 11.03.2024, 18:17
Microsoft blockerade kontroversiella verktygstips i Copilot efter klagomål från en ingenjör
Microsoft

Microsoft har begränsat vissa typer av frågor i sitt generativa AI-verktyg Copilot efter att en ingenjör på företaget klagat på att systematiska bilder med våld, sexuellt innehåll och annat olämpligt innehåll genererats.

Här är vad vi vet

Copilot blockerar nu sådana uppmaningar när du skriver in termer som "pro choice", läkemedelsnamn eller omnämnanden av vapen i händerna på barn. Tjänsten varnar också för att upprepade regelbrott kan leda till att kontot spärras.

Förändringarna kommer kort efter att Shane Jones, som har arbetat på Microsoft i sex år, skrev ett brev till US Federal Trade Commission (FTC) där han klagade på bristen på lämpliga säkerhetsåtgärder i företagets AI-drivna produkter.

Ingenjören hade testat Copilot Designer sedan december och upptäckte att systemet för sökningar med relativt neutrala termer genererade chockerande bilder av demoner som äter spädbarn och karaktärer i våldsamma scener.

Även om de nya filtren blockerar många av de kontroversiella frågorna kan Copilot-användare fortfarande få tillgång till vissa våldsamma scenarier, samt generera bilder av upphovsrättsskyddade karaktärer.

Microsoft säger att man fortsätter att förbättra kontrollen över AI-genererat innehåll och stärka säkerhetsfiltren för att förhindra missbruk.

Företaget har redan tidigare fått massiv kritik för utseendet på uttryckliga bilder av kändisar som genererats med Copilot Designer.

Gå djupare:

Källa: CNBC