Analytics Engineer
Brack.Alltron AG
About the role
Hallo Sercan Ugur und das Brack‑Alltron‑Team,
vielen Dank, dass Sie die Stelle als Analytics Engineer so ausführlich beschrieben haben. Gerne unterstütze ich Sie – sei es bei der Erstellung Ihrer Bewerbungsunterlagen, bei der Vorbereitung auf das Interview oder beim Ausarbeiten konkreter technischer Beispiele, die Sie im Gespräch präsentieren können.
1. Wie kann ich Ihnen am besten helfen?
| Bedarf | Was ich für Sie tun kann |
|---|---|
| Anschreiben / Cover Letter | Ein maßgeschneidertes Anschreiben, das Ihre Erfahrung mit Daten‑Modellierung, ETL/ELT‑Pipelines und Data Storytelling hervorhebt und exakt auf die genannten Anforderungen eingeht. |
| Lebenslauf / CV | Optimierung des Lebenslaufs (Struktur, Keywords, quantifizierbare Erfolge) für Applicant‑Tracking‑Systeme (ATS) und Personalverantwortliche. |
| Technische Fallstudie | Vorbereitung einer kurzen Präsentation (z. B. 10 Minuten) zu einem realen Projekt: Datenpipeline in dbt + BigQuery, Star‑Schema‑Modellierung, Dashboard‑Entwicklung in Looker/Tableau. |
| Interview‑Fragen & Antworten | Sammlung typischer technischer und verhaltensbezogener Fragen (z. B. „Wie gehen Sie mit Daten‑Qualitätsproblemen in einer ELT‑Pipeline um?“) samt Leitfäden für überzeugende Antworten. |
| Portfolio‑Aufbau | Tipps, wie Sie Ihre Datenprodukte (z. B. Git‑Repos, dbt‑Projekte, Beispiel‑Dashboards) öffentlich oder intern präsentieren können. |
| Fragen an den Arbeitgeber | Eine Liste von sinnvollen Fragen, die Sie im Gespräch stellen können, um die Daten‑Strategie, Governance‑Modelle und Team‑Kultur besser zu verstehen. |
Bitte teilen Sie mir mit, welchen dieser Punkte (oder etwas anderes) Sie am meisten interessiert, damit ich Ihnen gezielt weiterhelfen kann.
2. Schnell‑Check: Passen Sie zum Anforderungsprofil?
| Anforderung | Ihr möglicher Fit (Beispiel) |
|---|---|
| Data Storytelling & Dashboards | Erfahrung mit Looker/Power BI/Tableau, Fokus auf KPI‑Design und Nutzer‑Feedback‑Loops. |
| Data Modelling (Star‑Schema, dbt) | Aufbau von dimensionalen Modellen in dbt, Nutzung von ref()‑Funktionen für klare Abhängigkeiten. |
| ETL/ELT‑Pipelines | Implementierung von ELT‑Workflows in Airflow/Prefect, Nutzung von BigQuery‑SQL‑Transformationen. |
| Cloud‑Data‑Platform (BigQuery, Snowflake, Databricks) | Praktische Projekte auf GCP (BigQuery, Cloud Composer) oder Azure (Synapse) – inkl. Kosten‑Optimierung. |
| SQL & Python | Komplexe analytische Queries, Pandas‑/Polars‑DataFrames, automatisierte Daten‑Quality‑Checks. |
| Datenarchitektur / Governance | Mitwirkung an Data‑Catalog‑Strategien (e.g. Alation, DataHub), Definition von Ownership‑Modellen. |
| Team‑ und Stakeholder‑Arbeit | Agile Arbeitsweise (Scrum/Kanban), regelmäßige Review‑Meetings mit Fachbereichen. |
Falls Sie in einigen Bereichen noch Lücken sehen, kann ich Ihnen gezielte Lern‑ und Praxis‑Ressourcen (z. B. dbt‑Docs, Coursera‑Kurse zu Cloud‑Data‑Engineering) empfehlen.
3. Nächste Schritte (falls Sie sich bewerben möchten)
- Profil im Karriereportal anlegen – achten Sie darauf, dass Ihr CV im PDF‑Format ATS‑freundlich ist (Klare Überschriften, Bullet‑Points, Keywords aus der Stellenanzeige).
- Anschreiben hochladen – ich erstelle Ihnen gern ein Anschreiben, das die wichtigsten Stichworte („Datenpipelines“, „Data Storytelling“, „dbt“, „BigQuery“) enthält.
- Portfolio‑Link – fügen Sie einen Link zu GitHub/Bitbucket oder zu einem interaktiven Dashboard (z. B. Looker‑Explore) bei, um Ihre Hands‑On‑Erfahrung zu zeigen.
- Referenzen – optional können Sie kurze Statements von früheren Vorgesetzten oder Projekt‑Stakeholdern beifügen.
Nach dem Upload erhalten Sie innerhalb von 10 Arbeitstagen eine Rückmeldung. Sollten Sie zum Interview eingeladen werden, können wir gemeinsam ein Case‑Study‑Briefing vorbereiten, das Ihre Vorgehensweise bei der Entwicklung eines neuen Datenprodukts demonstriert.
4. Noch offene Fragen?
- Gibt es spezielle Technologien (z. B. Databricks Delta Lake, Snowflake Streams) oder Governance‑Frameworks, zu denen Sie mehr Details benötigen?
- Möchten Sie ein Mock‑Interview (technisch + verhaltensorientiert) durchführen?
- Benötigen Sie Hilfe beim Aufbau eines kleinen Demo‑Projekts, das Sie im Bewerbungsprozess vorzeigen können?
Ich freue mich darauf, Sie bestmöglich zu unterstützen – sei es mit konkreten Texten, technischen Beispielen oder strategischer Vorbereitung.
Beste Grüße
ChatGPT – Ihr KI‑Assistent für Karriere & Data Engineering 🚀
Requirements
- Du verstehst es, Daten in Geschichten zu übersetzen und mit aussagekräftigen Dashboards greifbar zu machen
- Du bewegst dich sicher im Data Modelling, entwickelst analytische Datenmodelle (z. B. Star Schema) und bringst idealerweise Erfahrung in Technologien wie dbt mit
- Du fühlst dich entlang der gesamten Datenwertschöpfungskette zuhause – von der Integration bis zur Bereitstellung (ETL/ELT, Pipelines)
- Du kennst dich im Data Engineering auf modernen Datenplattformen aus (Erfahrung mit Cloud Data Platform wie BigQuery, Snowflake oder Databricks)
- Mit SQL und Python arbeitest du routiniert und nutzt sie für Analyse, Transformation und Automatisierung von Daten
- Du gehst Themen strukturiert, pragmatisch und mit Umsetzungsstärke an und bringst Lösungen zuverlässig in den produktiven Einsatz
- Idealerweise hast du dich bereits mit konzeptionellen Themen wie Datenarchitektur, Data Governance oder Datenplattformen sowie mit Requirements Engineering beschäftigt
- Du arbeitest motiviert und teamorientiert, förderst die abteilungsübergreifende Zusammenarbeit und kommunizierst offen und klar.
Responsibilities
- Du entwickelst und betreibst Datenpipelines (ETL/ELT) zur Transformation von standardisierten Daten bis zur Nutzung in Dashboards und analytischen Self-Service Anwendungen
- Du modellierst wieder verwendbare und verständliche Datenprodukte und stellst sicher, dass Daten konsistent und zuverlässig für Analysen genutzt werden können
- Du arbeitest auf unserer Datenplattform und entwickelst die Datenprodukte darauf kontinuierlich weiter
- Du entwickelst aussagekräftige Dashboards und Reports und nutzt Data Storytelling, um komplexe Daten verständlich aufzubereiten und als Entscheidungsgrundlage für unsere Fachbereiche nutzbar zu machen
- Du arbeitest eng mit Fachbereichen und Stakeholdern zusammen, verstehst ihre Fragestellungen und übersetzt Anforderungen in konkrete Datenprodukte und BI-Lösungen
- Du bringst Themen hands-on in die Umsetzung, evaluierst neue Technologien und bringst deine Erfahrung bei Bedarf auch in konzeptionelle Themen wie Datenarchitektur oder Governance ein
- Du bist bezüglich Technologieentwicklung im Bereich Data & Analytics auf dem neusten Stand hinsichtlich neuer Technologien, Tools und Methoden und testest diese für einen produktiven Einsatz
Benefits
Skills
Don't send a generic resume
Paste this job description into Mimi and get a resume tailored to exactly what the hiring team is looking for.
Get started free