Sök
Artiklar AI & Robotik Digital transformation Risk & Kredit Bisnode View

2019 får vi digitalisering, automatisering och AI att fungera i verkligheten

- 30 jan 2019

Till dig som jobbar inom finanssektorn,

2018 ligger bakom oss och det är dags att summera. Jag hoppas att du har haft ett bra år. Det var definitivt ett år präglat av omvandling. Den heliga treenigheten digitalisering, automatisering och AI skulle slutligen frälsa oss från gamla, långsamma och isolerade processer och gammal teknik och inte bara ge oss effektivitet utan även befria oss från tidigare efterlevnadssynder, och "omvandla kundernas förväntningar till konkurrensfördelar" (som det brukar heta). Men hur blev det egentligen?

Här är exempel på erfarenheter från året som gått: Vi vill digitalisera, men allt vi får är en ny hög med gigantiska IT-projekt. Vi vill automatisera, men våra medarbetare söker fortfarande upp, kopierar och klistrar in data manuellt inför varje viktigt beslut. Vi vill analysera, och nu har vi gott om välbetalda IT-tekniker med fantastiska idéer, men de har fortfarande inte lyckats skapa några faktiska resultat i vår dagliga verksamhet.

Känner du igen det? Sitter du kanske och nickar instämmande med vetskapen om att  2019 ska bli annorlunda så måste något med största sannolikhet också göras annorlunda?

(Om du å andra sidan är helt övertygad om att alla dina utmaningar är förbi, så grattis. Jag avundas dig verkligen och skulle gärna vilja veta mer. Jag bjuder gärna på lunch.)

För dig som vill läsa vidare så har jag en idé. Det är ingen teoretisk tanke utan en koncentrerad – och surt förvärvad – erfarenhet från mitt teams tre år av intensiv omvandling på Bisnode. Det kanske inte är någon mirakellösning. Men för oss var det nära på det, och en som verkligen fungerade. Kanske kan även ditt team dra nytta av den?

Det säger sig självt att det beror på hur relevant Bisnodes omvandling är för dig. Du kanske inte känner till oss, och om du gör det så känner du kanske till oss som vi var för några år sedan. Men låter något av följande bekant i dina öron?

En bakgrund av många olika företag som tagit lång tid att integrera, men som nu äntligen blivit ett? En fragmenterad, komplex, föråldrad teknikbas med all tänkbar teknik från 70-, 80- och 90-talet? Ökande kundkrav som ger en vag känsla av att ni, trots att ni är oumbärliga, är relativt "gamla och slöa" jämfört med nya uppstickare?

Med förmånen att ha arbetat med runt 60 olika finansinstitut under de senaste 15 åren – från globala jättar till ledande nordiska bolag och uppstickarföretag – har jag uppfattningen att ganska många av er delar de här erfarenheterna, åtminstone när det handlar om omvandling.

Något som vi inte har gemensamt är däremot nettomarginalen. För er går det bra, men det gjorde det sannerligen inte för oss för tre år sedan, varken ekonomiskt eller utvecklingsmässigt. Det var tuffa tider. Men ibland är nöden faktiskt uppfinningarnas moder – och med kniven mot strupen kan vissa beslut bli lättare att fatta. Tre år senare befinner vi oss på ett helt annat plan, såväl när det gäller ekonomin som omvandlingen. Vi är inte färdiga ännu, men utvecklingen går åt rätt håll och framtiden ser ljus ut.

Möjligheterna med data, teknik och analys

Vår stapplande väg framåt under de senaste åren började på välkänd mark.

Vi vet alla att digitalisering, och inte minst AI, maskininlärning, djupinlärning – vilket trendord man nu föredrar – handlar om data. "Data är den nya oljan", som många säger. Och det finns mycket data. Utmaningen består i att flytta denna data från alla de ställen där den är idag till de digitala motorer där den kan få verklig nytta. Alla motorer är naturligtvis olika och behöver olika typer av bränsle – det duger inte bara med vilken data som helst.

För Bisnode – i själ och hjärta ett dataföretag – handlar allt om att via förfining och matchning omvandla data från källor till analys och från kundspecifika plattformar till externa API:er för att därefter integrera den i kundernas system och processer.

För fem år sedan (och dessförinnan) gjordes detta i flera olika parallella, monolitiska system. Och det gick ju bra, så länge det inte fanns så mycket data och mottagaren var en människa. Men när förutsättningarna förändrades och kraven ökade på att hantera allt mer data som förändrades allt snabbare, med en mottagare i form av en finjusterad och ändamålsenlig robot, gick det plötsligt inte så bra längre.

För tre år sedan började vi skapa en "oljeledning", en pipeline av data för att tillgodose de här kraven. Premisserna var enkla: Vi skulle aldrig kunna förutse alla sätt som vi eller våra kunder skulle vilja använda data på i framtiden. Inte heller kunde vi förhindra eller styra ökningen av data, dess förändringshastighet eller den alltmer omfattande lagstiftningen. Alltså behövde vi ge våra kunder möjlighet att flytta exakt rätt kombination av data och analys just dit där de behövde den, utan förvarning, och dra nytta av den direkt.

För två år sedan fick vi den här "oljeledningen" att fungera. Men den var långsam. Datan flöt snarare som asfalt än som bensin. Och detta trots att vi hade en stor, välbyggd och uppdaterad teknikbas (vi kan implementera kod 30 gånger per dag eller mer, en enorm förändring jämfört med forna tiders kvartalscykler), duktiga analytiker inklusive ett nytt AI/ML/DL-team och kunder som var redo att dra nytta av fördelarna.

Vi var så klart inte ensamma. Det var här någonstans det blev uppenbart att de superdyra IT-tekniker som alla hade jobbat så hårt för att rekrytera lade 70 till 80 procent av sin tid på att få tag på data, analysera den och mappa den fram och tillbaka. Många av våra kunder berättade i förtroende att de också kämpade med att utnyttja sin egen data fullt ut. Jag kunde bara nicka medkännande.

Lärdomar från utmaningar och misslyckanden

Nu insåg vi att även om vår pipeline var bra på att förflytta data så var själva tillgången bara en del av problemet. Som en IT-tekniker formulerade det: "Jag behöver inte leta fram rätt data längre, men jag måste fortfarande mappa den manuellt i modellerna. Sedan behöver vi mappa både datan och modellen manuellt för produktion, eftersom inget av systemen förstår vad datan innehåller eller handlar om."

Vi insåg att det här inte bara gällde våra analytiker utan även varje teknikkomponent, varje processteg och varje användare.

Det ledde oss till insikten att det parallellt med vårt (nu relativt smidiga) dataflöde finns ytterligare en dold, manuell ad hoc-process, nämligen att transportera kunskap om datan. Det var den tröga delen – återtolkningen, återmappningen, återintegreringen av data.

Det var dåliga nyheter, och när AI närmade sig blev det ännu värre eftersom den här typen av inlärning innebar att vi även var tvungna att åtgärda problemet i återkopplingen, för varje beslut, i realtid. Den här utmaningen är en av de främsta anledningarna till att AI-modellerna fastnade i idéstadiet.

Vi provade några olika metoder – samtliga misslyckades. Men jag kan stolt konstatera att vi misslyckades relativt snabbt och att vi lärde oss mycket på vägen. Men det finns ju ingen anledning för er att upprepa våra misstag, så här kommer de:

  • "Vi skapar en gyllene standard."
    Även om det ofta kan vara rätt sak att göra passade en normalisering av allt mer omfattande data illa samman med finjusterad AI och robotteknik – vi förlorade helt enkelt för många detaljer på vägen. Om man har många befintliga analysmodeller med olika bakgrund kommer en normalisering tidigt i processen dessutom att leda till att datan inte lämpar sig för någon av dem heller.
  • "Det löser sig om vi är agila."
    Att vara agil är alltid bra, men i det här fallet ledde det oss fel. Inkapsling, snabbhet och fokus på levererat kundvärde i varje steg kombinerat med tendensen hos utvecklare att ofta fokusera mer på sin egen kod än på olika dataelement ledde till att de bidrog till inställningen "nu mappar vi bara det här snabbt" – och det fungerar inte när mängden data blir allt större.
  • "Om vi bara skapar bättre API:er (eller dokumenterar dem bättre) så löser vi problemet."
    Det här var troligtvis den lärdom som drabbade oss hårdast, och den som var svårast att förutse. I korthet innebar det att vi försökte göra API:ernas mikrotjänster så specifika som möjligt när det gällde vad som skickades och mottogs för att eliminera alla oklarheter. Det ledde tyvärr till en alltför fast bindning som omöjliggjorde inkapsling och flexibilitet. Man märker det inte till en början. Det är först när behovet av att lägga till och ändra data ökar och man ser hastigheten sjunka och underhållsbehovet öka som man inser att man trots mikrotjänsternas uppbyggnad faktiskt har skapat nya monoliter.

Det finns fler punkter på listan, men jag snabbspolar framåt ett år i tiden i stället.

Göd inte bara monstret med data, utan även med data om datan

Vår lösning visade sig vara en ontologibaserad dataarkitektur med specificerad metadata genom hela vår pipeline. Varje enskilt dataelement som färdas genom vår pipeline har numera sällskap av beskrivningar av vad denna data är (ontologi), dess relation till övriga dataelement, var den kommer ifrån, hur den har behandlats, och hur och av vem den kan användas utan att bryta mot lagen (all metadata).

Om jag var konsult och ville sälja rådgivning eller projekt till dig skulle det här vara början på en långrandig monolog om vad detta innebär på ett djupare och mer tekniskt plan (och sedan skulle jag försöka sälja in antingen ett program eller konsulter). Men det är jag inte, och det kommer jag inte att göra. Ni har säkert IT-arkitekter som kan förklara detaljerna.

Låt mig i stället berätta vad detta har inneburit för oss:

För det första var det en verklig dörröppnare att få tillgång till data som kunde tolkas direkt där den skulle användas, av de personer och maskiner som behövde använda den. Tillsammans med fullständiga processer och agil utveckling kunde vi skapa en mycket mer fullständig separation – och på så sätt undvika föreställningen om "gigantiska IT-projekt". Det kanske låter pompöst, men vi refererar ibland till det vi uppnått som en "demokratisering av data". Datan är verkligen tillgänglig för alla att använda – effektivt och utan att vara beroende av andra. Visst, de totala IT-kostnaderna är fortfarande höga, men de innebär mycket färre risker förknippade med ömsesidigt beroende. Skulle mindre, mer agila IT-satsningar kunna fungera även för er?

Bisnodes motsvarighet till människor som sitter och söker efter, klipper ut och klistrar in data – det oändliga sökandet efter experter, dokument och specifikationer för vår egen eller våra kunders del – är också äntligen på väg att försvinna. Du behöver inte längre leta i pärmar, Excel-filer eller interna system, eller hitta rätt personer. Vad skulle det innebära om dina omvandlingskämpar inte längre begränsades av åtkomst eller kunskap, utan kunde fokusera på sitt verkliga uppdrag?

Om du till exempel vill skapa en avancerad prediktiv modell, automatisera ditt affärssystem eller skapa digitala arbetsflöden kan du välja exakt den data du behöver – med total transparens. Det innebär att den mappning som en gång i tiden gjordes manuellt i varje steg kan utföras en enda gång i ett format som är mänskligt läsbart, och att alla övriga processer kan vara maskinverifierade. När du har byggt klart din modell och börjar tillämpa den kan du vara säker på att den har åtkomst till exakt rätt uppsättning data som också är i produktion. Du kan vara säker på att resultatet är tillgängligt för varje potentiell användare och att efterföljande steg med data också är tillgängliga för din AI-modell. Vad skulle det innebära om dina IT-teknikers arbete gick att utnyttja direkt, överallt? Och om AI-inlärningen inte slutade efter den första tillämpningen?

Det blir faktiskt ännu bättre. Det har sagts att bara runt en tredjedel av alla analysinsatser skapar verkliga resultat och fördelar och att alltför många antingen inte lyckas lösa en omfattande och verklig affärsutmaning, eller inte är tillräckligt transparenta för att slutanvändaren ska våga lita på dem och låta dem ligga till grund för åtgärder, eller ännu värre, att datan används på ett sätt som inte är lagenligt (vilket kan få stora konsekvenser med tanke på GDPR). Eftersom vår pipeline även låter metadatan flöda direkt kan lagenligheten kontrolleras direkt, modellens källor är transparenta och företagsägaren och analytikern har ett gemensamt språk för att beskriva vad de söker. Vad skulle det innebära om det gick att säkerställa att företagsägare och analytiker alltid beskrev den fullständiga utmaningen på samma sätt?

Om du behöver mer eller annan data är det lika enkelt. Med hjälp av ontologi och metadata kan API:erna även vara extremt allmänna. Det innebär att tillägg och ändringar av data också bara "flödar igenom" utan manuellt arbete, med samma höga hastighet. Tidsåtgången för att integrera en ny generisk datakälla har gått från flera månader till några dagar. Vilken ny data skulle du vilja använda för att utöka din verksamhet om du bara kunde få den dit där den behövs?

Om du är ute efter att frigöra mänsklig intelligens genom digitalisering – genom att låta automatiseringen sköta de "enkla" uppgifterna så att dina medarbetare kan fokusera på de komplexa utmaningarna – har jag också en inspirerande lärdom. Om de människor som ska jobba vidare med ett komplext uppdrag kan få förståelig information om vilken data som redan finns, varifrån den kommer och hur den har analyserats är det mycket mer sannolikt att de fortsätter där maskinen slutade, i stället för att börja om från början med manuell datainsamling och verifiering. Vad skulle det innebära om alla dina medarbetare (till exempel i kundkännedomsprocesser) kunde koncentrera sig på det som verkligen gör skillnad i stället för på datainsamling?

De här tankarna och koncepten är inte nya, inte heller förhoppningarna och löftena. Det kanske inte kan ge dig allt du behöver. Men idén har faktiskt fungerat i praktiken och gjort en enorm skillnad för utveckling och hastighet. Om du är intresserad får du gärna höra av dig. Om du provar vill jag gärna höra din framgångsberättelse sedan, men även om de svårigheter du stöter på. Tillsammans blir vi ännu bättre.

2019 blir troligtvis ännu ett år präglat av omvandling. Vi får inte glömma att det är över 30 år sedan Robert Solow yttrade sitt berömda citat "Vi ser datoråldern överallt utom i produktivitetsstatistiken". Nästan lika många år är det sedan Paul Krugman observerade att "Produktivitet är inte allt, men i längden är det nästan allt".

Som jag ser det finns det tillräckliga bevis för att digitaliseringen (i alla dess former) äntligen kommer att kunna bevisa att Robert Solow hade fel och att Paul Krugman hade rätt.

Ska vi se till att 2019 blir året när det händer?

Vi vill dela våra insikter med dig!

Vi har de data- och analystjänsterna som du behöver för att driva ditt företag framåt. Registrera dig här för att få trender, inbjudningar och insikter.

Få insikter, trender och inspiration från Bisnode Smart Insights