Hem
(Michael Dwyer / AP)

Open AI-modell som används av sjukhus hallucinerar

En grupp forskare från Cornell-universitetet i USA har genomfört en studie som visar att Open AI:s modell Whisper – som bland annat används av många sjukhus för transkriptioner – hallucinerar och hittar på hela meningar. Meningarna kan dessutom vara både våldsamma och rasistiska. Ibland hittar AI-modellen även på medicinska tillstånd.

En talesperson för Open AI säger till The Verge att företaget ser mycket allvarligt på det hela, och att arbetet med att förbättra modellen pågår kontinuerligt. Talespersonen hänvisar också till att användarpolicyn avråder från att använda AI-modellen när det handlar om viktiga beslut.

Omni är politiskt obundna och oberoende. Vi strävar efter att ge fler perspektiv på nyheterna. Har du frågor eller synpunkter kring vår rapportering? Kontakta redaktionen