Hem
Arkivbild. Anthropics vd Dario Armodei. (Don Feria / AP)

Anthropic sänker riskkrav för ”farliga” AI-modeller

AI-utvecklaren Anthropic har gjort sig känd för att hålla hårt på säkerheten och har lovat att stoppa modeller om de bedöms som farliga på något sätt. Men de senaste månaderna har bolaget ändrat sin centrala policy, skriver Time.

– Vi kände att det inte skulle hjälpa någon om vi slutade träna AI-modeller. Med AI:s snabba utveckling kände vi inte att det gynnade oss att ge ensidiga löften om konkurrenterna stormar på, säger forskningschefen Jared Kaplan i en intervju med tidningen.

Förändringen innebär att AI-modeller kan släppas på marknaden, även om bolaget inte kan garantera ”lämplig riskminimering” på förhand.

Ändringen har dock ingenting att göra med tvisten med Pentagon, där försvarsminister Pete Hegseth kräver att bolaget ändrar användarrestriktionerna så att AI-modellen Claude kan användas för inrikes övervakning och diverse dödliga militära angrepp. De reglerna kommer bolaget inte att rucka på, uppgav källor för Reuters i går.

Gå förbi betalväggar!

Omni Mer låser upp en mängd artiklar. En smidig lösning när du vill fördjupa dig.

Omni är politiskt obundna och oberoende. Vi strävar efter att ge fler perspektiv på nyheterna. Har du frågor eller synpunkter kring vår rapportering? Kontakta redaktionen