Sindre Klavestad

Senior Konsulent

Sindre har en bred kompetanse innen Business Intelligence og Data Engineering, kombinert med en solid teoretisk forståelse takket være hans bachelorgrad i E-Business og mastergrad i Applied Computer Science. Som arkitekt har han stort ansvar og er kjent for sin evne til å se helheten og skape innovative muligheter ved å bruke data og kontekstuell informasjon på en effektiv måte. Sindre har også god kunnskap om Azure-plattformen, og hans lidenskap for faget gjør at han alltid streber etter å demystifisere avanserte analytiske verktøy og tilgjengeliggjøre mulighetene for bedrifter, samfunn og enkeltpersoner. Hans unike kombinasjon av teknologisk kunnskap og analytisk tenkning gir ham en særegen evne til å forstå og løse komplekse data- og teknologiproblemer på en effektiv måte. Alt i alt er Sindre en svært kvalifisert kandidat for jobber som krever kompetanse innen Business Intelligence og Data Engineering, og hans kombinasjon av utdanning og erfaring gjør ham til en unik og verdifull ressurs.

  • MSc i Applied Computer Science - Software Integration

    Høyskolen Kristiania

    Klassiske og ledende datakonsepter og -teknologier, brukt på ulike nivåer fra systemutvikling til prosjektanalyse, prosjektledelse og rådgivning. Programmet utviklet praktiske ferdigheter og kritisk bevissthet angående programvareintegrasjon.

  • BSc i Informasjonsteknologi, E-Business

    Høyskolen Kristiania

    Med en grad i E-business blir du en brobygger mellom forretning og teknologi. E-business ser på hvordan IT-baserte forretningssystemer kan skape merverdi for enkeltpersoner, organisasjoner og lokalsamfunn. Noen av fagene er: Datavitenskap, Digital markedsføring, Økonomi, Business Intelligence, Programmering, ERP-systemer, CRM-systemer, IT-innovasjon, smidig utvikling og informasjonssikkerhet.

Sindre Klavestad's prosjekter

Bank og betalingstjenester

Implementering av Infrastruktur som Kode: Automatisering og Modernisering med Skyteknologi

#Terraform #Azure Synapse Analytics #Azure Storage Account #Spark Cluster (Pool) #Azure KeyVault #Github Actions #VNet og private endpoints

I dette prosjektet ledet vi arbeidet med å implementere infrastruktur som kode, en innovativ tilnærming som automatiserer opprettelsen og administrasjonen av ressurser i skyen. Ved å bruke Terraform scripts og Azure-produkter som Synapse Analytics, Storage Account, Spark Cluster (Pool), og Azure KeyVault, etablerte vi en robust og sikker datainfrastruktur. En av de sentrale fordelene med denne tilnærmingen er muligheten til å enkelt konfigurere og administrere forskjellige miljøer som utvikling, staging, testing og produksjon. Dette gir organisasjonen fleksibilitet til å tildele ressurser basert på spesifikke behov og krav i hvert miljø. For eksempel kan utviklingsmiljøet være konfigurert for rask iterasjon og testing, mens produksjonsmiljøet er optimalisert for ytelse og stabilitet. Integrasjonen med versjonskontroll gjennom Github Actions muliggjorde sømløs samarbeid på tvers av et større team. Dette betydde at flere utviklere og analytikere kunne arbeide parallelt på større analyseprosjekter, med full sporbarhet og kontroll over endringer. Ved å følge "best practices" for kodeutvikling og -styring, sikret vi kvaliteten og integriteten i prosjektet. Sammen ga disse funksjonene en plattform som ikke bare økte effektiviteten og reduserte kostnadene, men også fremmet innovasjon og samarbeid. Det ga oss muligheten til raskt å tilpasse oss skiftende forretningsbehov og utnytte data på nye og kraftfulle måter.

Les mer

Bank og betalingstjenester

Ny ETL for Checkout Analytics

#Airflow #Python #RabbitMQ #Docker

Alle pågående analytics prosjekter ble satt på vent da den tidligere ETL prosessen både ble for kompleks og ikke kunne skalere med data-volumet vi skulle håndtere. Apache Airflow ble derfor vurdert som det mest passende verktøyet for å planlegge, orkistrere og koordinere komplekse datastrømmer i henhold til kundens behov. Prosjektet kan deles inn i to deler; 1) oppsett og implementasjon av Apache Airflow og 2) utvikling av komplekse ETL pipelines for å hente ut, vaske, transformere og laste data fra kildesystemene inn i nytt system egnet for analytics. Oppsett av Apache Airlfow Airflow ble satt opp med Celery implementasjon, inkludert de komponenter som hører til dette; Webserver, Scheduler, PostgreSQL database, RabbitMQ meldingsforvalter og Workers. Komponentene ble implementert som mikrotjenester gjennom Docker og Docker Compose og custom utrullingsprosesser ble satt opp for utvikling og produksjonsmiljøer (DevOps). Implementasjon av ETL pipeline for Checkout Analytics Som en del av prosjektet ble ressurser for uthenting av historisk data tilgjengliggjort via flere ulike RESTful API'er som samlet og sammenfattet betalingsdata fra flere kilder til ett og samme JSON format. Herfra ble Airflow tatt i bruk for å implementere en pipeline for å systematisk hente ut batcher med historisk data fra API'ene, transformere og modellere dataen om til OLAP-kuber, for deretter å laste data inn i ny kilde egnet for analytics.

Les mer

Klar for å starte ditt neste prosjekt med oss?

Ønsker du et pristilbud? Eller ønsker du å bli kjent med oss over en kopp kaffe? Fyll inn din e-post, så tar vi kontakt med deg.


Vi bryr oss om beskyttelse av dine data.

Les mer om vår Personvernerklæring