Open AI och Anthropic säkerhetstestar varandras AI
AI-bolagen Open AI och Anthropic har för första gången öppnat upp sina AI-modeller för gemensamma säkerhetstester, rapporterar Techcrunch. Syftet var att hitta svagheter i respektive bolags interna tester och visa att samarbete är möjligt, trots hård konkurrens.
Enligt resultaten hade Anthropics modeller lägre tendens att ”hallucinera”, men vägrade samtidigt svara på fler frågor än Open AI:s modeller. Till Techcrunch säger Open AI:s medgrundare Wojciech Zaremba att den rätta balansen ligger troligen någonstans mittemellan.
Han kommenterar också fallet där en 16-årig pojke i USA uppges ha tagit sitt liv efter kontakt med Chat GPT.
– Det vore en sorglig berättelse om vi bygger AI som löser avancerade forskningsproblem och uppfinner ny vetenskap, men samtidigt orsakar psykisk ohälsa hos människor som använder den. Det är en dystopisk framtid som jag inte vill se.