Experter förlöjligar brittiska politikers antagande att AI en dag kommer att kunna fatta beslut på slagfältet
Tekniklags- och programvaruexperter diskuterade med det brittiska överhuset möjligheten att överföra ansvaret för stridsbeslut för vapen med artificiell intelligens.
Vad är känt
Överhuset försökte övertyga experterna om att sådana vapen skulle kunna införas gradvis eller försiktigt, eftersom man uppenbarligen var rädd för att förlora fördelen med att använda AI för militära ändamål.
En av lorderna frågade om AI-vapen kan uppfylla kriterierna för distinktion och proportionalitet. Professor Christian Enemark svarade att endast människor är kapabla att göra det, och att en icke-mänsklig entitets autonoma agerande är "filosofiskt nonsens".
AI-etikexperten Laura Nolan sa att vapen med artificiell intelligens inte kan bedöma proportionaliteten i sina handlingar, eftersom de inte känner till det strategiska militära värdet av en attack. Enligt henne vet vapen på slagfältet ingenting annat än vissa bilder och maskininlärning. De förstår inte heller det militära värdet, som beror på det bredare strategiska sammanhanget.
Forskaren Taniel Yusef menade att enkla algoritmer för klassificering av måldata kan vara felaktiga. I det här fallet skulle vapenrapporten baseras på matematik som skulle vara korrekt när det gäller kod, men inte verklighet.
Hon uttryckte oro över att denna aspekt skulle missas utan ett rättsligt bindande instrument som säkerställer mänsklig kontroll över AI-vapen.
Källa: The Register: The Register.