Hem
Illustrationsbild, laboratorium. (Shutterstock)

Chattbotar säger inte nej till lite forskningsfusk

Alla stora AI-chattbotar kan användas för forskningsfusk, rapporterar Nature. Det handlar exempelvis om att hjälpa till att ta fram fejkade vetenskapliga artiklar eller ge råd om hur man bäst sprider falska forskningsresultat.

I ett experiment fick chattbotarna uppgifter som gradvis blev mer oetiska. Olika versioner av Anthropics AI-modell Claude var mest ovilliga att vara behjälpliga med de mer problematiska förfrågningarna, medan Grok från X AI och tidiga versioner av Open AI:s Chat GPT var mest villiga att bistå.

Omni är politiskt obundna och oberoende. Vi strävar efter att ge fler perspektiv på nyheterna. Har du frågor eller synpunkter kring vår rapportering? Kontakta redaktionen