Hem
Arkivbild. (Peng Peng / TT NYHETSBYRÅN)

Broms för AI: Kraven på datorkraft ökar dramatiskt

Kraven på den datorkraft som krävs för att göra nya genombrott inom maskininlärning och artificiell intelligens ökar i en smått ofattbar takt, visar en färsk uppdatering från Open AI som MIT Technology Review tagit del av.

Från 1959 till 2012 fördubblades den kraft som behövdes vartannat år och följde i stort sett den så kallade Moores lag. Från 2012 och framåt har beräkningsstyrkan som används för att träna de största AI-modellerna fördubblats ungefär en gång varje tre och en halv månad. Kraven stiger nu alltså sju gånger snabbare än det historiska snittet, konstaterar tidningen.

Allt fler varnar för att kostnaderna för AI-forskning exploderar. Den snabba utvecklingen driver på trenden mot en privatisering av AI-forskningen då akademiska labb får svårt att konkurrera med privata aktörer med djupare fickor, varnar vissa forskare.

 
Maskininlärning
Wikipedia (sv)
Maskininlärning (engelska: machine learning) är ett område inom datavetenskapen som handlar om metoder för att få datorer att "lära" sig utifrån data utan att datorerna har programmerats för just den uppgiften. Området angränsar till statistik, artificiell intelligens och mönsterigenkänning. Datautvinning (datamining) är ett betydelsenära begrepp som avser en kombiniation av maskininlärning och statistiska metoder för att upptäcka och visualisera mönster i stora mängder data. Maskininlärningsmetoder arbetar med data. Ofta kan datan delas in i indata (den information som datorn får tillgång till) och utdata (det svar som datorn förväntas ge efter att ha bearbetat indatan). En definition av maskininlärning har skapats av Tom M. Mitchell. Han definierar de algoritmer som studeras inom maskininlärning som "ett datorprogram sägs lära av erfarenhet E givet en uppgift T och ett prestandamått P om dess prestanda på uppgiften T, mätt med P, ökar med erfarenhet E".
 
Moores lag
Wikipedia (sv)
Moores lag (på engelska: Moore's law), uppkallad efter en av Intels grundare Gordon E. Moore, betecknar det fenomen att antalet transistorer som får plats på ett chip växer exponentiellt. Takten som gäller sedan många år tillbaka ger en fördubbling var 24:e månad. Ofta citeras Moores lag som att det vore var 18:e månad, men det är enligt Moore inte korrekt. Moores lag har visat sig korrekt ända sedan 1965 då den formulerades, dock med en och annan justering av fördubblingstiden. På 80-talet tolkades lagen som fördubblingen av antalet transistorer per chip, men det har kommit att ändrats med tiden. I början av 90-talet menades mer fördubblingen av mikroprocessorkraften och senare under decenniet fördubblingen av beräkningskraft per fix kostnad. Moore beskrev först lagen som en fördubbling efter endast ett år, vilket han sen reviderade till två år. Han menade aldrig själv att det skulle vara efter 18 månader. Det är något som kommit till i efterhand då det visade sig ligga närmare verkligheten. Det var heller inte Moore själv som kom på idén, utan den var känd sedan tidigare av dem som arbetade inom området. Det tog också ungefär ett decennium innan lagen fick sitt namn "Moores lag". Moores lag har haft stor betydelse för datorindustrin som i mångt och mycket lever på att föregående års modeller måste bytas ut när datorns CPU blivit föråldrad enligt Moores lag. Lagen kommer också till användning när man utvecklar exempelvis spel, och behöver veta hur kraftiga datormaskinerna som finns på marknaden är när spelet släpps. Moores lag är enbart applicerbar för halvledare. En utökning av Moores lag som innefattar all informationsteknisk utveckling föreslogs 2001 av Ray Kurzweil. Denna lag är känd som the law of accelerating returns. Under 2016 konstaterade transistorbranschen att man inom en period av fem år kommer tvingas frångå Moores lag.
Omni är politiskt obundna och oberoende. Vi strävar efter att ge fler perspektiv på nyheterna. Har du frågor eller synpunkter kring vår rapportering? Kontakta redaktionen