Open AI tillsätter team för säkrare AI-modeller
Open AI letar just nu efter medlemmar till ett nytt team kallat Red Teaming Network, som ska kunna hjälpa till i arbetet med att utvärdera och stresstesta företagets AI-modeller. Det rapporterar Techcrunch.
Tanken med initiativet är att Open AI ska bli bättre på att identifiera potentiella risker och förbättra säkerheten kring tjänster som till exempel Chat-GPT.
Open AI skriver i ett blogginlägg att företaget även tidigare har använt utomstående experter för att förskra att AI-systemen till exempel är neutrala och balanserade, men då har det skett på en mer spontan basis.
Med det nya teamet vill Open AI skapa kontinuitet och frekvent återkoppling genom fler steg av utvecklingen av AI-modeller.
Omni är politiskt obundna och oberoende. Vi strävar efter att ge fler perspektiv på nyheterna. Har du frågor eller synpunkter kring vår rapportering? Kontakta redaktionen