Hem

AI-system med neuronnät ska lära sig språk

Ett så kallat neuronnät – ett artificiellt signalflödesnätverk som efterliknar en biologisk hjärna – tränas nu i att lära sig utveckla ett språk. Det är brittiska och italienska forskare som skapat neuronnätet ANNABELL (Artificial Neural Network with Adaptive Behavior Exploited for Language Learning) med två miljoner simulerade neuroner. Det är i nivå med hjärnan hos exempelvis ett bi eller en kackerlacka. En människa har 86 miljarder neuroner och en katt har 760 miljoner. Tanken är att man ska försöka förstå sig på hur människor en gång utvecklade de egenskaper som krävs för komplicerade funktioner som språk och att föra resonemang. ANNABELL har ingen förprogrammerad kunskap alls och ska lära sig språk enbart genom kommunikation med en människa.

 
Neuronnät på Wikipedia
Wikipedia (sv)
Ett neuronnät (rekommenderad term enligt Svenska datatermgruppen) eller neuralt nätverk är en signalflödesmodell av hjärnor och andra nervsystem. Begreppet kan även åsyfta artificiella neuronnät (ANN), som är ett samlingsnamn på ett antal självlärande algoritmer för informationsbehandling som försöker efterlikna funktionen i biologiska neuronnät. Algoritmer som emulerar neuronnät kan ofta klara problem som är svåra att lösa med konventionella datalogiska metoder. Exempel på tillämpningar är: informationsutvinning (data mining), mönsterigenkänning, signalbehandling, reglerteknik, datorspel, prognoser, självorganisering, icke-linjär optimering, optimeringsproblem med många bivillkor, exempelvis schemaläggning. Precis som den mänskliga hjärnan måste neuronnät tränas innan de kan användas. De flesta neuronnät arbetar därför i två faser, först en inlärningsfas där nätet tränas på den uppgift som ska utföras, sedan följer en tillämpningsfas där nätet bara använder det som det har lärt sig. Det går också att låta nätet fortsätta att lära sig även när det används, men vanligen lämnas det som det är när det uppnått den precision som eftersträvades.
 
Synaptisk plasticitet på Wikipedia
Wikipedia (sv)
Synaptisk plasticitet är en neurologisk term för nervcellers förmåga att anpassa sin reaktivitet till följd av den fortsatta aktiveringen, till exempel nivåförändringar av en viss signalsubstans eller av antalet receptorer, eller cellernas förmåga att reagera på signalsubstanser. Med vissa typer av elektrofysiologisk stimulering[källa behövs] av kretsar av nervceller, kan den synaptiska transmissionens effekt ökas eller minskas. De mest kända och välstuderade typerna av synaptisk plasticitet är långtidspotentiering (LTP) och långtidsdepression (LTD). Det faktum att synapsernas effektivitet kan manipuleras ses som ett starkt bevis för att Hebbs postulat om hur inlärning går till på cellulär nivå, är korrekt.
Omni är politiskt obundna och oberoende. Vi strävar efter att ge fler perspektiv på nyheterna. Har du frågor eller synpunkter kring vår rapportering? Kontakta redaktionen