Forskaren: Granska AI-produkten ”Friend”
AI-produkten ”Friend”, som är tänkt att bäras runt halsen som ett AI-sällskap, är på väg till den europeiska marknaden. Men enheten kräver en skyndsam rättslig granskning, skriver forskaren Petra Holmberg i en debattartikel i SvD.
”Friend” marknadsförs som en lösning på ensamhet. Den lyssnar på användaren och kan interagera via textmeddelanden, men det finns betydande risker, enligt Holmberg.
För det första bygger den, menar hon, på ständig datainsamling. Den spelar in konversationer och anpassar svar utifrån användarens privatliv.
”Samtidigt anges i användarvillkoren att informationen kan vara felaktig och inte bör betraktas som tillförlitlig.”
Därtill uppmanas användaren att lita på systemet, samtidigt som företaget bakom friskriver sig från ansvar.
”Riskerna är som allra störst för sårbara grupper. Erfarenheter från liknande AI-system visar att de kan förstärka skadliga tankemönster, särskilt hos personer med psykisk ohälsa”, skriver Holmberg.
Om debattören
Petra Holmberg, forskare vid Lunds universitet, fokuserar på rättslig och etisk reglering av nya e-hälsotekniker och AI-drivna verktyg inom hälso- och sjukvården