Automatisk förmedling av kundtjänstärenden till rätt enhet/förvaltning
I samband med ett projekt där vi labbade med många olika AI-tekniker (länken går till en projektbeskrivning) försökte vi använda Fasttext i en NLP-lösning som analyserade gamla ärenden och tränade upp en lösning.
Ett ärende som någon skriver in i det centrala ärendehanteringssystemet och som t ex lyder “Jag behöver ett nytt P-tillstånd” skulle automatiskt vidarebefordras till Trafikenheten under Gata & Park på Tekniska förvaltningen. utan att manuellt granskas och vidarebefordras av någon.
--
Image by Freepik
Detta var en av flera labbar i ett projekt där vi genomförde halvdagslabbar där man hade ett teoripass och sedan fick köra och “leka” med framtagen koden. Labbarna omfattade neurala nätverk, Natural Language Processing, klustring , Reinforced Learning mm och var riktade till personer med någon slags kodningskompetens. Deltagarna kom i huvudsak från näringslivet.
Syftet var att ge folk “hands on”-erfarenheter av praktisk AI och inte i första hand att skapa POC:ar
Genom att träna en AI-lösning baserad på Fasttext (Facebook) på ca 1.6 miljoner ärenden registrerade i Skellefteå kommuns kundtjänst har en algoritm tränats till att görs en bedömning av vilken kommunal enhet som bör hantera ärendet. Ibland sätts också en slags ärendetyp.
Algoritmen har lärt sig vilka slags texter som brukar kopplas samman med en viss kommunal avdelning.
Lösningen visar algoritmens förslag på de tre mest relevanta kommunala enheterna eller ärendetyperna med den mest relevanta först.
Observera att detta har gjorts för att testa tekniken. Precisionen/kvaliteten har inte optimerats. Precision och Recall är ca 83%
Vår slutsats av våra äventyr var att man kan komma hyfsat långt rätt snabbt men att datatvätt (felstavningar, omorganisationer där enheter bytt namn/fått ändrat uppdrag mm) kräver en betydande arbetsinsats.
Att tvätta bort information man inte vill ha i datat av integritetsskäl är svårt. Kanske behövs avancerade AI-lösningar för detta? Regex räcker inte långt. Men om man gör detta och ersätter känsliga data med placeholders kan det troligen öka precisionen jämfört med att de helt enkelt rensas bort.
Som så många andra sagt - datatillgång och datakvalitet är det stora bekymret när man ska jobba med AI-lösningar.
Att omorganisationer och lite röriga fördelningar av arbete så att olika enheter utför snarlika arbetsuppgifter har så pass stor påverkan på precisionen i lösningens utfall var också en aha-upplevelse. Att vi upplevde det förstnämnda kan bero på att vi hade träningsdata från en väldigt lång tidsperiod.