Microsoft täpper till AI-kryphål som möjliggjort fejkbilder
Efter att pornografiska fejkbilder på artisten Taylor Swift börjat spridas i olika sociala kanaler så har Microsoft nu täppt till ett kryphål som funnits i företagets AI-baserade text-till-bild-verktyg Designer, som gjort det möjligt att skapa fejkade pornografiska bilder. Det rapporterar sajten 404 Media. Detta efter uppgifter om att åtminstone vissa av de bilder på Swift som spridits kan ha designats med Designer.
Microsofts vd Satya Nadella säger i en intervju med NBC Nightly News att att det som drabbat Swift är ”alarmerande och fruktansvärt” och att man därför väljer att agera.
Verktyget Design gick tidigare under namnet Bing Image Creator.
Omni är politiskt obundna och oberoende. Vi strävar efter att ge fler perspektiv på nyheterna. Har du frågor eller synpunkter kring vår rapportering? Kontakta redaktionen