Hem
Illustration. (Shutterstock)

Företag kan framtidssäkra med hjälp av ”big data” och AI

Pandemin har ställt många förutfattade meningar om produktivitet på ända. När vi nu är på väg ut på andra sidan, är det hög tid för företagen att tänka igenom vilka färdigheter de behöver i den allt mer teknikdrivna framtiden. Det skriver Harvard Business Review i en artikel om hur företag kan framtidssäkra sin verksamhet.

”Teknologi håller på att i förändra arbetets natur i grunden. Men företagens förhållningssätt till planering och personal har nästan inte förändrats alls under de senaste decennierna”, skriver tidningen.

Med stöd i en stor studie som managementkonsltbolaget Bain & Company gjort bland 300 företag runtom i världen, har tidningen identifierat några särskilt framgångsrika för att lära av deras exempel. Deras gemensamma nämnare är att de hittat sätt att integrera den senaste tekniken, såsom hantering av stora datamängder genom AI och maskinkärning, med befintliga kompetenser.

En effekt av förändringen är att många organisationer som tidigare inte varit teknikdrivna, måsta börja anställa systemvetare och dataingenjörer. Men det räcker inte att bara nyanställa – i stället fortbildar framgångsrika företag sin personal.

Att göra sig av med personal bara för att anställa ny, så kallad ”fire and hire”, är dyrt. Enligt Bain kan över 60 procent av ett företags framtida roller tillsättas med befintlig personal om denna bara får rätt utbildning. I kristider är det lockande för företag att dra ner på fortbildning och utveckling, men det är helt fel konstaterar Harvard Business Review som menar att ”det är lättare att lära gamla hundar nya tricks än att hitta nya hundar som redan är upplärda”.

Användningen av så kallad big data och AI är inte bara relevant inom kärnverksamheten, som kan vara allt ifrån energi till försäkringar. Även på HR-området bör stora företag använda sig av teknologi för att känna sin personal bättre och snabbt kunna identifiera talanger och potential i den befintliga arbetskraften.

bakgrund
 
Big data
Wikipedia (sv)
Big data utgörs av digitalt lagrad information av sådan storlek (vanligen terabyte och petabyte), att det är svårt att bearbeta den med traditionella databasmetoder. Big data innefattar tekniker för very large databases (VLDB), datalager (data warehouse) och informationsutvinning (data mining). Termen big data fick sitt genomslag under 2009. Ingen svensk översättning har blivit etablerad, men stora datamängder har använts. Stora datamängder skapas bland annat inom meteorologi, bioinformatik, genomik, fysik, miljöforskning, handel, avancerade simuleringar, försvaret och vid kommunikationstjänster med många användare, som mobiltelefoni, webbtjänster som Youtube, Flickr, Twitter, Facebook och Google. I många fall skapas datamängderna kontinuerligt (i realtid) och måste även analyseras i realtid. Framväxten av dessa stora datamängder beror på möjligheten att samla in (bland annat via Internet och digitalkameror) och lagra information (på hårddiskar), och svårigheten att hantera dem beror på att den traditionella tekniken för databaser inte har utvecklats lika fort. Två slag av angreppssätt för big data har varit NoSQL-databaser (som programvaran MongoDB) och ramverket map-reduce (som bland annat implementeras med programvaran Apache Hadoop).
Omni är politiskt obundna och oberoende. Vi strävar efter att ge fler perspektiv på nyheterna. Har du frågor eller synpunkter kring vår rapportering? Kontakta redaktionen