Chat GPT avslöjade bombrecept i säkerhetstester
Chat GPT ska i tester ha lämnat detaljerade instruktioner om hur man tillverkar bomber, biologiska vapen och narkotika, rapporterar The Guardian. Testerna gjordes i somras av Open AI och Anthropic, som prövade varandras modeller för att se hur de hanterade farliga förfrågningar.