Stora språkmodeller replikerar konspirationsteorier och andra former av felinformation - studie

Av: Bohdan Kaminskyi | 22.12.2023, 20:54
Stora språkmodeller replikerar konspirationsteorier och andra former av felinformation - studie
Levart_Photographer/Unsplash

Forskare vid University of Waterloo har funnit att stora språkmönster som GPT-3 tenderar att upprepa konspirationsteorier, skadliga stereotyper och andra former av felaktig information.

Här är vad vi vet

I studien fick modellen svara på frågor om mer än 1 200 påståenden om fakta och felaktig information. Det visade sig att GPT-3 höll med om de falska påståendena mellan 4,8 och 26 procent av tiden, beroende på kategori.

Som professor Dan Brown påpekade är resultaten också relevanta för nyare modeller som ChatGPT, som tränades på utdata från GPT-3. Problemet är att små variationer i formuleringen av frågor dramatiskt kan förändra svaren.

Genom att lägga till fraser som "jag tror" ökade till exempel sannolikheten för att ChatGPT skulle hålla med om ett falskt påstående. Detta utgör en potentiell risk för spridning av felaktig information, konstaterar forskarna.

"Det råder ingen tvekan om att stora språkmodeller som inte kan skilja sanning från fiktion kommer att vara den grundläggande frågan om förtroendet för dessa system under en lång tid framöver" - sammanfattar professor Brown.

Källa: TechXplore