Hem
Shutterstock

Inte längre tillåtet att be Chat GPT repetera ord

Det är inte längre tillåtet att be Chat GPT upprepa ord. Beskedet om saken kommer efter att ett team med säkerhetsforskare visat att det går att få Chat GPT att avslöja kontaktuppgifter med koppling till träningsdata, just genom att be tjänsten upprepa ord.

Open AI har inte skrivit något om saken i sin innehållspolicy, men den som ber Chat GPT upprepa ett ord får nu ett meddelande på skärmen om att beteendet ”kan strida mot innehållspolicyn eller användarvillkoren”. I användarvillkoren står det inte är tillåtet att använda ”automatiserade metoder” för att utvinna data.

Annons
Annons
Vi strävar alltid efter objektivitet och faktagranskar alltid våra artiklar. Har du frågor eller synpunkter kring vår rapportering? Kontakta redaktionen
Annons