Hem
(Shutterstock)

Meta kommer inte släppa AI som bedöms utgöra en risk

Meta skriver i ett nytt policydokument kallat ”Frontier AI Framework” att företaget inte kommer att släppa några AI-system som bedöms kunna utgöra en allvarlig risk. Det rapporterar Techcrunch, som skriver att Meta definierar två risknivåer i dokumentet: Hög risk och kritisk risk. System som utgör en kritisk risk kan enligt Metas definition få ”katastrofala följder”, och som exempel tar Meta spridningen av biologiska vapen.

Om Meta anser att ett AI-system är för riskabelt så kommer tillgången till det att begränsas internt, och en lansering kommer inte att ske förrän det vidtagits åtgärder för att ”reducera risken till måttliga nivåer”.

Meta säger att policydokumentet kommer att utvecklas i takt med hur AI-landskapet förändras.

Omni är politiskt obundna och oberoende. Vi strävar efter att ge fler perspektiv på nyheterna. Har du frågor eller synpunkter kring vår rapportering? Kontakta redaktionen