Anthropic sänker riskkrav för ”farliga” AI-modeller
AI-utvecklaren Anthropic har gjort sig känd för att hålla hårt på säkerheten och har lovat att stoppa modeller om de bedöms som farliga på något sätt. Men de senaste månaderna har bolaget ändrat sin centrala policy, skriver Time.
– Vi kände att det inte skulle hjälpa någon om vi slutade träna AI-modeller. Med AI:s snabba utveckling kände vi inte att det gynnade oss att ge ensidiga löften om konkurrenterna stormar på, säger forskningschefen Jared Kaplan i en intervju med tidningen.
Förändringen innebär att AI-modeller kan släppas på marknaden, även om bolaget inte kan garantera ”lämplig riskminimering” på förhand.
Ändringen har dock ingenting att göra med tvisten med Pentagon, där försvarsminister Pete Hegseth kräver att bolaget ändrar användarrestriktionerna så att AI-modellen Claude kan användas för inrikes övervakning och diverse dödliga militära angrepp. De reglerna kommer bolaget inte att rucka på, uppgav källor för Reuters i går.