Hem
(Richard Drew / AP)

Chat GPT-baserade Bing svarar fel och förolämpar

Microsofts nya version av sökmotorn Bing – som har en chattbot baserad på Chat GPT-teknologi inbakad – har visat sig både svara fel, vara motsträvig och komma med förolämpningar. Det hävdar flera av de användare som nu fått tillgång till verktyget, rapporterar Fast Company.

Och det handlar inte bara om några enstaka misstag. De många exempel som användarna visat upp på Twitter och Reddit målar upp en bild av nya Bing som en narcissistisk och passivaggressiv bot, skriver Fast Company.

Ett av många exempel rör en fråga om vilka tider som filmen ”Avatar: The Way of Water” visas. Bing svarade att filmen släpps först om tio månader, trots att den släpptes i december. Boten insisterade dessutom på att det var februari 2022 och inte 2023. När användaren försökte övertyga Bing om att uppgiften var fel så svarade boten att användaren försökt föra den bakom ljuset och att den förlorat ”all tillit och respekt” för användaren.

Ett annat exempel visar hur boten börjar ifrågasätta sig själv efter att en användare påpekat att den glömt en tidigare konversation.

Microsoft säger att det hela är en del av inlärningsprocessen för Bing, och att exemplen inte representerar hur produkten kommer att fungera längre fram.

Omni är politiskt obundna och oberoende. Vi strävar efter att ge fler perspektiv på nyheterna. Har du frågor eller synpunkter kring vår rapportering? Kontakta redaktionen