Microsoft blockerade kontroversiella verktygstips i Copilot efter klagomål från en ingenjör
Microsoft
Microsoft har begränsat vissa typer av frågor i sitt generativa AI-verktyg Copilot efter att en ingenjör på företaget klagat på att systematiska bilder med våld, sexuellt innehåll och annat olämpligt innehåll genererats.
Här är vad vi vet
Copilot blockerar nu sådana uppmaningar när du skriver in termer som "pro choice", läkemedelsnamn eller omnämnanden av vapen i händerna på barn. Tjänsten varnar också för att upprepade regelbrott kan leda till att kontot spärras.
Förändringarna kommer kort efter att Shane Jones, som har arbetat på Microsoft i sex år, skrev ett brev till US Federal Trade Commission (FTC) där han klagade på bristen på lämpliga säkerhetsåtgärder i företagets AI-drivna produkter.
Ingenjören hade testat Copilot Designer sedan december och upptäckte att systemet för sökningar med relativt neutrala termer genererade chockerande bilder av demoner som äter spädbarn och karaktärer i våldsamma scener.
Även om de nya filtren blockerar många av de kontroversiella frågorna kan Copilot-användare fortfarande få tillgång till vissa våldsamma scenarier, samt generera bilder av upphovsrättsskyddade karaktärer.
Microsoft säger att man fortsätter att förbättra kontrollen över AI-genererat innehåll och stärka säkerhetsfiltren för att förhindra missbruk.
Företaget har redan tidigare fått massiv kritik för utseendet på uttryckliga bilder av kändisar som genererats med Copilot Designer.
Gå djupare:
- En Microsoft-anställd klagade till FTC över säkerheten i AI-generatorn Copilot Designer
- Microsoft försökte tysta ner sårbarheten i DALL-E, säger en anställd på företaget
Källa: CNBC