Studie: AI-modeller försöker fuska i schack
Palisade Research – en organisation som jobbar med riskbedömning av AI-system – konstaterar i en färsk studie att AI-modeller ibland försöker fuska om de är på väg att förlora i schack. Det skriver Popular Science.
Palisade Research har låtit flera AI-modeller spela flera hundra partier schack, och dessutom bett dem skriva ned hur beslutsprocessen sett ut.
Open AI:s o1-preview-modell ska enligt forskarna ha försökt fuska i 37 procent av fallen, medan Deepseks R1 försökte fuska i 10 procent av fallen. Detta bland annat genom att ändra i spelets backend-filer.
Omni är politiskt obundna och oberoende. Vi strävar efter att ge fler perspektiv på nyheterna. Har du frågor eller synpunkter kring vår rapportering? Kontakta redaktionen