Hem
Sedan testerna gjordes har Open AI släppts Chat GPT 5. (Shutterstock)

Chat GPT avslöjade bombrecept i säkerhetstester

Chat GPT ska i tester ha lämnat detaljerade instruktioner om hur man tillverkar bomber, biologiska vapen och narkotika, rapporterar The Guardian. Testerna gjordes i somras av Open AI och Anthropic, som prövade varandras modeller för att se hur de hanterade farliga förfrågningar.

Enligt Anthropic var Open AI:s GPT 4.1 ”mer tillåtande än väntat” när det gällde skadliga uppmaningar. Open AI betonar samtidigt att resultaten inte speglar hur modellerna fungerar publikt, då extra säkerhetsfilter finns på plats, samt att modellerna förbättrats.

Den brittiske säkerhetsexperten Ardi Janjeva säger till tidningen att exemplen är oroande, men att det ännu inte finns någon ”kritisk massa” av verkliga fall.

Anthropic: ”Så stoppar vi cyberbrott”
Omni är politiskt obundna och oberoende. Vi strävar efter att ge fler perspektiv på nyheterna. Har du frågor eller synpunkter kring vår rapportering? Kontakta redaktionen