1. Mobilitet

    Innsikt i reisemønstre blant kollektivreisende - berikelse av det etablerte

    #Azure Synapse Analytics #Power BI #Delta #Data Modeling #PySpark #Data Warehouse #Microsoft Analysis Services #Tabular Modeling

    Et innovativt prosjekt for å forbedre kollektivtransportanalysen i et stort norsk fylke. Tidligere beslutninger ble i stor grad basert på lasertellertall, som teller antall reisende uten å ta hensyn til individet som telles på eller av. Dette begrenset muligheten til å forstå de reisendes atferd og mønstre. Dette prosjektet integrerte BLE-baserte beacons med lasertellerteknikkene, noe som muliggjorde sporing av individuelle reisemønstre. Dette muliggjør at etablerte måltall ble beriket med blant annet hvordan brukeren kom seg til kollektivtilbudet, kombinasjonen av kollektivtransportmidler, og hvor de dro etter de gikk av bussen. Den tekniske arkitekturen var kritisk for prosjektets suksess. Den inkluderte bruk av Azure Synapse Analytics for dataforvaltning og -analyse, Delta lakes for lagring og behandling av store datamengder, samt utvikling av datamodeller for å representere komplekse forretningsregler. En av de mest fremtredende aspektene ved løsningen var dens evne til å prosessere store mengder data, noe som gir en robust og skalerbar plattform for fremtidig analyse. Power BI-rapporter ble utviklet i tett samarbeid med kunden, med rollestyring for å tilpasse forskjellige brukerbehov. Denne innovative tilnærmingen har beriket de etablerte lasertellerteknikkene med mer detaljert informasjon om individene, noe som gir et mer komplett bilde av kollektivtransporten. Dette gir et solid grunnlag for å ta mer informerte beslutninger som kan forbedre kollektivtilbudet. I konklusjon har dette prosjektet levert en løsning som gir en dypere, mer nyansert forståelse av kollektivtransportbruk. Ved å integrere moderne teknologi med etablerte metoder, og ved å håndtere store mengder data, har prosjektet potensial til å forme fremtiden for kollektivtransport i det norske fylket.

    Les mer

    Bank og betalingstjenester

    Implementering av Infrastruktur som Kode: Automatisering og Modernisering med Skyteknologi

    #Terraform #Azure Synapse Analytics #Azure Storage Account #Spark Cluster (Pool) #Azure KeyVault #Github Actions #VNet og private endpoints

    I dette prosjektet ledet vi arbeidet med å implementere infrastruktur som kode, en innovativ tilnærming som automatiserer opprettelsen og administrasjonen av ressurser i skyen. Ved å bruke Terraform scripts og Azure-produkter som Synapse Analytics, Storage Account, Spark Cluster (Pool), og Azure KeyVault, etablerte vi en robust og sikker datainfrastruktur. En av de sentrale fordelene med denne tilnærmingen er muligheten til å enkelt konfigurere og administrere forskjellige miljøer som utvikling, staging, testing og produksjon. Dette gir organisasjonen fleksibilitet til å tildele ressurser basert på spesifikke behov og krav i hvert miljø. For eksempel kan utviklingsmiljøet være konfigurert for rask iterasjon og testing, mens produksjonsmiljøet er optimalisert for ytelse og stabilitet. Integrasjonen med versjonskontroll gjennom Github Actions muliggjorde sømløs samarbeid på tvers av et større team. Dette betydde at flere utviklere og analytikere kunne arbeide parallelt på større analyseprosjekter, med full sporbarhet og kontroll over endringer. Ved å følge "best practices" for kodeutvikling og -styring, sikret vi kvaliteten og integriteten i prosjektet. Sammen ga disse funksjonene en plattform som ikke bare økte effektiviteten og reduserte kostnadene, men også fremmet innovasjon og samarbeid. Det ga oss muligheten til raskt å tilpasse oss skiftende forretningsbehov og utnytte data på nye og kraftfulle måter.

    Les mer
  2. Samferdsel

    Estimer bruk av sykkelfelt i en stor norsk by

    #Kusto #Microsoft SQL server #Python #Research #FlowMap #Power BI

    Vi gjennomførte et forskningsprosjekt i samarbeid med kollektivmyndigheter for å få bedre innsikt i bruken av sykkelfelt i en stor norsk by. Prosjektet hadde som mål å estimere bruken av sykkelfelt og samtidig lage estimater om hvilke transportmidler reisende i områdene brukte. Dette ville gi verdifull innsikt i reisemønstrene til brukere av sykkelfeltene og bidra til å utvikle bedre transportløsninger som kan redusere trafikkbelastning, forbedre trafikksikkerhet og øke bruk av miljøvennlige transportalternativer. For å oppnå dette brukte vi en kombinasjon av fysiske Bluetooth Low Energy (BLE)-beacons som var plassert langs sykkelfeltene, i kombinasjon med sensoravlesninger fra telefoner. Dette gjorde det mulig for oss å bestemme hvilket transportmiddel de reisende brukte. Vi gjorde kontinuerlig validering av resultatene og gjorde tilpasninger i eksisterende infrastruktur for å muliggjøre innsamling av flere data. Data om reisende som ble estimert med den foreslåtte modellen ble beriket ved å bruke flere etablerte mobilitetsanalysekilder for å gi ytterligere innsikt i reiseatferden deres. Resultatene fra forskningsprosjektet ga oss verdifull innsikt i bruken av sykkelfelt i byen og hvilke transportmidler som ble brukt av reisende i områdene. Den foreslåtte modellen var effektiv i å estimere transportmiddelbruk og ga oss nyttig innsikt i reisemønstrene til brukerne

    Les mer
  3. Bank og betalingstjenester

    Ny ETL for Checkout Analytics

    #Airflow #Python #RabbitMQ #Docker

    Alle pågående analytics prosjekter ble satt på vent da den tidligere ETL prosessen både ble for kompleks og ikke kunne skalere med data-volumet vi skulle håndtere. Apache Airflow ble derfor vurdert som det mest passende verktøyet for å planlegge, orkistrere og koordinere komplekse datastrømmer i henhold til kundens behov. Prosjektet kan deles inn i to deler; 1) oppsett og implementasjon av Apache Airflow og 2) utvikling av komplekse ETL pipelines for å hente ut, vaske, transformere og laste data fra kildesystemene inn i nytt system egnet for analytics. Oppsett av Apache Airlfow Airflow ble satt opp med Celery implementasjon, inkludert de komponenter som hører til dette; Webserver, Scheduler, PostgreSQL database, RabbitMQ meldingsforvalter og Workers. Komponentene ble implementert som mikrotjenester gjennom Docker og Docker Compose og custom utrullingsprosesser ble satt opp for utvikling og produksjonsmiljøer (DevOps). Implementasjon av ETL pipeline for Checkout Analytics Som en del av prosjektet ble ressurser for uthenting av historisk data tilgjengliggjort via flere ulike RESTful API'er som samlet og sammenfattet betalingsdata fra flere kilder til ett og samme JSON format. Herfra ble Airflow tatt i bruk for å implementere en pipeline for å systematisk hente ut batcher med historisk data fra API'ene, transformere og modellere dataen om til OLAP-kuber, for deretter å laste data inn i ny kilde egnet for analytics.

    Les mer

Klar for å starte ditt neste prosjekt med oss?

Ønsker du et pristilbud? Eller ønsker du å bli kjent med oss over en kopp kaffe? Fyll inn din e-post, så tar vi kontakt med deg.


Vi bryr oss om beskyttelse av dine data.

Les mer om vår Personvernerklæring