TDWI München 2026

Die TDWI München ist der jährliche Branchentreffpunkt der Data-Community. Die Konferenz ist die beste Möglichkeit für den entspannten Austausch mit Kolleg:innen auf Augenhöhe und zum Knüpfen neuer Kontakte. Pausen, Expo sowie Special Events und Abendveranstaltungen bieten Raum für Inspiration, neue Perspektiven und Lösungsansätze für aktuelle Herausforderungen.

Datum: 23.06.2026Ort: MünchenZeit: 09:00
  • MOC München
  • 23. - 25. Juni 2026
00:00
Unsere Sessions vom 23. bis 25. Juni 2026 an der TDWI München
Available
Level: Basic
Language: DE
KalDa/Bi: Der Weg zur datengetriebenen Bildungsorganisation

Die Kalaidos Bildungsgruppe startet mit der Initiative KalDa/Bi eine umfassende Transformation zur datenorientierten Organisation. Der Vortrag zeigt, wie strategische Vision, agile Methoden und eine moderne Plattform auf Basis Microsoft Fabric und DWH Automation zusammenspielen, um eine skalierbare Datenplattform aufzubauen. Neben Technik werden kulturelle und organisatorische Aspekte beleuchtet, die für den Erfolg entscheidend sind.

Zielpublikum: BI- und Analytics-Verantwortliche, Projektleiter und Product Owner, Entscheider in Bildungsorganisationen

Extended Abstract:
Die Kalaidos Bildungsgruppe steht vor der Herausforderung, heterogene Schulverwaltungs , Web  und Fachsysteme so zusammenzuführen, dass eine konsistente, gruppenweite Sicht auf Qualität, Performance und Wachstum entsteht. Mit dem Programm KalDa/Bi bauen wir eine gemeinsame Datenplattform auf, die sowohl Steuerungs Kennzahlen als auch explorative Analysen und zukünftige KI Szenarien unterstützen soll.

In unserem Vortrag zeigen wir, wie wir KalDa/Bi mit dem strukturierten 5 STEP Vorgehen von der ersten Idee über die Initialisierung bis zur Realisierung der ersten Releases aufsetzen. In mehreren Workshops haben wir eine gemeinsame Vision, ein priorisiertes KPI Framework, eine grobe Release Roadmap bis 2027+ sowie zentrale Risiken und einen Kostenrahmen erarbeitet.

Technologisch haben wir uns für Microsoft Fabric als zentrale Plattform entschieden und führen Daten aus verschiedenen Quellsystemen in einem harmonisierten, unternehmensweiten Datenmodell zusammen. Geplant ist eine Architektur mit historisierten Stammdaten, klar getrennten Schichten (Medaillon-Architektur, u.a. mit Landing Area, Persistent Staging Area, zentrales Data Warehouse, physische und virtuelle Data Marts sowie den eigentlichen Datenprodukten) und einem hohen Automatisierungsgrad. Dazu setzen wir auf DWH- und Test-Automation, um Qualität, Geschwindigkeit und Skalierbarkeit sicherzustellen.

Genauso wichtig wie die Technologie ist für uns der organisatorische Aufbau: Ein interdisziplinäres Kernteam arbeitet nach einem agilen Vorgehensmodell mit Inception , Construction und Transition Phasen sowie etablierten agilen Zeremonien. Ein besonderer Fokus liegt auf Enablement – durch interne und externe Schulungen, On the Job Coaching und wiederverwendbare konzeptionelle Blueprints wird sowohl das zentrale Team als auch eine entstehende Data Community befähigt, KalDa/Bi mittelfristig eigenständig weiterzuentwickeln.

Die Teilnehmenden erhalten einen praxisnahen Einblick in ein laufendes Transformationsprogramm. Wir zeigen, wie wir strategische Ziele in eine umsetzbare Roadmap übersetzen, welche Artefakte (Vision, KPI Framework, Architektur Skizzen, Governance  und Rollenmodelle) sich bislang bewährt haben und welche Stolpersteine – etwa ambitionierte Reporting Wünsche, Datenqualitätsrisiken oder kulturelle Hürden – wir aktiv adressieren. Unser Ziel ist es, ein realistisches Bild zu vermitteln, wie der Weg zu einer datengetriebenen Organisation in der Praxis aussehen kann – inklusive der Spannungsfelder zwischen Technik, Organisation und Menschen.

 

    Available
    Level: Basic
    Language: DE
    KI und Power Automate – ein Dreamteam

    Erfahren Sie, wie Fachanwender ohne tiefes technisches Wissen KI in die Prozessautomation integrieren können. Der Vortrag zeigt zahlreiche praxisnahe Beispiele: Extraktion von Informationen aus E-Mail-Texten mit Schreiben ins CRM, automatisierte Unterschriftenprüfung gegenüber Registern, automatisierte KI-unterstütze Web-Recherchen uvm. Der Vortrag soll inspirieren und gleichzeitig Ängste gegenüber KI abbauen.

    Zielpublikum: Fachanwender, Business-Analysten, Prozessverantwortliche, Projektleiter, die Automatisierungspotenziale nutzen möchten.

    Extended Abstract:
    Im Spannungsfeld zwischen KI Hype und Fachkräftemangel eröffnet Microsoft Power Automate Fachanwendern neue Möglichkeiten, Geschäftsprozesse ohne tiefes IT Know-how zu automatisieren. Der Vortrag zeigt, wie sich KI Funktionen pragmatisch in Power-Automate-Flows integrieren lassen – mit einem klaren Fokus auf Verständlichkeit und sofort nutzbare Praxisbeispiele, damit die Teilnehmenden nicht in der Technologiekomplexität „untergehen“, sondern mit klaren Use Cases nach Hause gehen.

    Nach einer kompakten Einführung in Power Automate werden verschiedene Integrationspfade für KI vorgestellt: von der Strukturierung unstrukturierter Eingaben mit JSON, über den Einsatz von REST-APIs zum Lesen und Schreiben von Daten, bis hin zur Einbindung zusätzlicher Modelle aus der Azure AI Foundry. Die Teilnehmenden lernen, wie sie diese Bausteine kombinieren können, um robuste, wiederverwendbare und für Fachbereiche verständliche Automatisierungen zu bauen.

    Der Hauptteil des Vortrags besteht aus einer Reihe konkreter Praxisbeispiele: automatisiertes Anlegen von Terminen, das Schreiben von E Mail Zusammenfassungen ins CRM, das Extrahieren von Kontaktinformationen aus E Mails, die KI gestützte Unterschriftenprüfung gegenüber Registern, automatisierte Web-Recherchen sowie die KI basierte Bereinigung von Excel-Dateien als Vorbereitung für nachgelagerte ETL Prozesse. Ein Ausblick zeigt zudem, wie Data Agents in Microsoft Fabric künftig eine noch engere Verzahnung von Datenplattform, Automatisierung und KI ermöglichen.

    Im Fazit fassen wir Erfolgsfaktoren und Stolpersteine zusammen: Welche Aufgaben eignen sich besonders für KI in Power Automate, wie bleibt die Lösung für Fachanwender nachvollziehbar, und wo sind Grenzen – technisch, organisatorisch und aus Sicht der Governance? Die Teilnehmenden nehmen ein klares Bild davon mit, wie sie selbst erste KI gestützte Automatisierungen aufbauen können, welche Architektur  und Designentscheidungen sich bewährt haben und wie sie ihre Organisation schrittweise an das „Dreamteam“ aus KI und Power Automate heranführen.

      

      Available
      Level: Basic
      Language: DE
      Back to basics: Harry Potters komplexe Zeitreisen im DWH

      Die Datenwelt ist voller Magie - zumindest in unserem Vortrag! Wir öffnen die „Kammer der Historisierung“ und zeigen, warum Historisierung im Data Warehousing alles andere als trivial ist. Von SCD2 über Snapshot-Fakten bis zu bitemporalen Dimensionen: Wir geben einen strukturierten Überblick, teilen Lösungsansätze und lassen die Konzepte mit einer Storyline aus Hogwarts lebendig werden. Begleite uns auf eine Zeitreise durch das Data Warehouse!

      Zielpublikum: Data Engineers, BI-Architekten, DWH-Entwickler, Datenmodellierer

      Extended Abstract:
      Die Datenwelt entwickelt sich rasant - wir versuchen, den neuen Technologien , Architekturen und Trends auf den Fersen zu bleiben. Doch bei aller Innovation bleibt eines unverändert: Wir müssen die Grundlagen beherrschen. Bereits vor zwei Jahren haben wir mit Harry Potter gezeigt, wie Daten zum Leben erwachen. Diesmal öffnen wir die Kammer des Schreckens … ähm, der Historisierung!

      Historisierung im Data Warehousing klingt nämlich einfach - bis die Anforderungen explodieren. Von der klassischen Slowly Changing Dimension bis hin zu komplexen Kombinationen aus fachlicher und technischer Historisierung, oder der Historisierung von Bewegungsdaten: Die Varianten sind vielfältig und oft verwirrend.

      Der einfachste und häufigste Fall, die Historisierung von Stammdaten, ist nämlich nur der Beginn einer Reise durch die Historisierungs-Varianten. Was, wenn stattdessen ein historischer Verlauf einer Kennzahlenveränderung aufgezeigt werden soll - z.B. die Preisveränderung über die Zeit? Und was, wenn dies in Kombination mit historisch korrekten Stammdateninformationen ausgewiesen werden soll? Und was ist eigentlich der Unterschied zwischen fachlicher und technischer Historisierung - und wie kombiniert man beides elegant? Ausserdem stellen wir uns die Frage: Wie beeinflussen CDC (Change Data Capture) und Time Travel die Datenhistorisierung?

      In unserem Vortrag geben wir einen strukturierten Überblick über gängige und seltenere Historisierungsanforderungen und zeigen praxisnahe Lösungsansätze. Wir demonstrieren die Funktionsweise anhand eines interaktiven Dashboards, teilen Erfahrungen aus realen Projekten und stellen bewährte SQL-Patterns vor.

      Basisbegriffe wie SCD1, SCD2, und Transaktionale Fakten, aber auch fortgeschrittene Konzepte wie Bitemporale Dimensionen, Timespan Tracking Fact Tables und Accumulating Snapshots sind nach dieser Session keine Fremdwörter mehr für dich.

      Bonus: Wir bleiben unserem Herzensthema treu und lassen auch diesen Vortrag mit einer guten Story lebendig werden. Begebe dich mit Harry Potter auf Zeitreise durch das Data Warehouse.

        Datum: 23.06.2026Ort: MünchenZeit: 09:00
        • MOC München
        • 23. - 25. Juni 2026

        Eva-Maria Kopf

        Consultant Data & Analytics bei IT-Logix AG

        more

        Gianna Neeser

        Senior Consultant Data & Analytics bei IT-Logix AG

        more

        Raphael Branger

        Principal Consultant Data & Analytics bei IT-Logix AG

        more