DatenstrategiefürFührungskräfte:WarumDatenvorAIkommenmüssen
Die Bitkom hat 2024 repräsentativ 603 deutsche Unternehmen befragt. Das Ergebnis ist ernüchternd: Nur 6 % schöpfen das Potenzial ihrer Daten vollständig aus. 42 % nutzen ihre Daten "eher wenig". 18 % überhaupt nicht.
Gleichzeitig sind 76 % dieser Unternehmen überzeugt, dass Daten entscheidend für ihre Wettbewerbsfähigkeit sind. Bitkom-Präsident Ralf Wintergerst hat das 2024 auf den Punkt gebracht: "AI entfaltet erst dann Wirkung, wenn sie die nötigen Daten verwenden kann. Die deutsche Wirtschaft muss ihre Daten nutzen und verwerten, damit nicht Dritte die Lücke füllen."
Das ist kein Erkenntnisproblem. Es ist ein Umsetzungsproblem. Und wer heute AI Budgets freigibt, ohne das Datenproblem vorher zu lösen, kauft sich einen sehr teuren Spiegel für eine sehr unordentliche Wohnung.
Das Muster, das wir immer wieder sehen
Ein Unternehmen möchte AI einführen. Vielleicht eine Absatzprognose. Oder einen Chatbot für den Kundendienst. Oder ein Modell, das Ausschuss in der Produktion früher erkennt. Das Ziel ist klar, der Druck ist real, der Wettbewerb macht es vor.
Ein Tool wird evaluiert, manchmal auch ein Dienstleister beauftragt. Dann beginnt die Arbeit. Und vier Wochen später stellt sich heraus: Die historischen Verkaufsdaten liegen in drei verschiedenen Systemen. Das ERP System hat Artikel IDs aus dem Systemwechsel 2019 nicht sauber migriert. Das CRM hat Kundendaten, die teilweise zehn Jahre alt sind. Und wenn zwei Systeme dieselbe Kennzahl zeigen, zeigen sie verschiedene Zahlen. Niemand weiß, welcher man vertrauen soll.
Das AI Projekt stockt. Nicht wegen AI. Wegen Daten.
McKinsey hat das 2025 in einer der umfangreichsten AI Studien des Jahres bestätigt: Unternehmen, die signifikante AI Erträge erzielen, haben doppelt so wahrscheinlich ihre End-to-End Workflows und ihre Datenbasis redesigned, bevor sie Modellierungstechniken gewählt haben. Die Reihenfolge ist entscheidend.
S&P Global meldet für 2025, dass 42 % der Unternehmen die Mehrheit ihrer AI Initiativen abgebrochen haben. 2024 waren es 17 %. Dieses Muster hat eine Ursache: Unternehmen starten Projekte, stoßen auf die Datenbasis, und brechen ab, mit investiertem Budget, leerem Ergebnis und einem internen Vertrauensverlust in AI, der nachfolgende Projekte schon beim Start diskreditiert.
Was eine Datenstrategie von "wir speichern Daten" unterscheidet
Viele Unternehmen verwechseln Datenmanagement mit Datenstrategie. Das ist ein wichtiger Unterschied.
Datenmanagement beantwortet operative Fragen: Wo liegen unsere Daten? Wie sichern wir sie? Wie sind sie strukturiert? Es ist die IT Perspektive auf Daten als zu verwaltende Ressource.
Datenstrategie beantwortet strategische Fragen: Warum brauchen wir diese Daten? Was wollen wir damit entscheiden? Welche Geschäftsziele hängen von besseren Daten ab? Wer trägt Verantwortung dafür? Es ist die Unternehmensperspektive auf Daten als strategischen Hebel.
Der Unterschied ist nicht akademisch. Gartner formuliert es 2025 so: "Organisationen, die die fundamentalen Unterschiede zwischen AI-ready Datenanforderungen und traditionellem Datenmanagement nicht erkennen, gefährden den Erfolg ihrer AI Bestrebungen."
AI-ready Data ist nicht einfach gut gepflegte Daten. Es ist Daten, die so aufgebaut, dokumentiert und verwaltet werden, dass sie als verlässliche Trainings- und Betriebsbasis für AI Modelle dienen können. Das setzt voraus, dass man weiß, welche Daten man für welchen Use Case braucht. Und das ist eine strategische Frage, keine technische.
Die Wavestone/NewVantage Partners Survey hat 2024 über 100 Fortune-1000-Unternehmen befragt. 78 % nennen menschliche Faktoren, also Kultur, Organisation und Prozesse, als größte Barriere für datengetriebenes Arbeiten. Nicht Technologie. Das bedeutet: Wer mehr Tools kauft, löst das falsche Problem.
IBM Watson: Was passiert, wenn man die Reihenfolge ignoriert
IBM hat mehrere Milliarden Dollar in Watson for Oncology investiert. Das Versprechen war eindrucksvoll: Ein AI System, das Ärzt:innen weltweit bei Krebsbehandlungen unterstützt und individualisierte Therapieempfehlungen auf Basis von Patientendaten und medizinischer Literatur liefert.
Was niemand vor dem Launch ausreichend gefragt hatte: Repräsentieren unsere Trainingsdaten die Patientengruppen, für die das System eingesetzt werden soll?
Das System wurde mit hypothetischen Patientenszenarien trainiert, nicht mit realen Patientendaten aus der Praxis. Die Datenbasis stammte primär aus wenigen US Krankenhäusern mit einem spezifischen Profil. Beim globalen Einsatz, in Kliniken in Korea, Indien, Europa, Lateinamerika, empfahl Watson Behandlungen, die Ärzt:innen als unangemessen, unsicher oder für ihre Patientenpopulation irrelevant bewerteten. 2018 wurde das Programm in mehreren Kliniken eingestellt.
Das Problem war nicht der Algorithmus. Es war die fehlende strategische Frage im Vorfeld: Welche Daten brauchen wir, damit dieses System in der Realität funktioniert, in der es eingesetzt werden soll?
Eine Datenstrategie Frage. Mit einer sehr teuren fehlenden Antwort.
John Deere: Was passiert, wenn man die Reihenfolge respektiert
John Deere hat in den letzten zehn Jahren eine der bemerkenswertesten Datenstrategie Transformationen in der Industrie vollzogen. Nicht indem das Unternehmen AI Tools kaufte. Indem es zuerst die Datenbasis schuf, auf der AI funktionieren kann.
Der erste Schritt war Infrastruktur: 1,5 Millionen vernetzte Maschinen, die kontinuierlich Felddaten liefern. Eine zentrale Plattform, auf der diese Daten zusammengeführt werden. Klare Governance Strukturen darüber, wer auf welche Daten zugreifen darf und wie Qualität sichergestellt wird.
Der zweite Schritt war Anwendungen auf dieser Basis: See & Spray Technologie, die AI nutzt, um auf Pflanzenebene zwischen Nutzpflanze und Unkraut zu unterscheiden und selektiv zu sprühen. Das reduziert den Herbizideinsatz dramatisch. Ertragsprognosen auf Parzellenebene. Predictive Maintenance für Maschinen.
Der dritte Schritt war das neue Geschäftsmodell: Von Equipment Verkauf zu datenbasierten Subscription Services. John Deere verkauft heute nicht mehr nur Traktoren. Es verkauft datengetriebene Agronomie Entscheidungen.
Der Unterschied zu Watson: John Deere hat zuerst die Straße gebaut, dann das Fahrzeug aufgesetzt. Watson hat das Fahrzeug gebaut und dann festgestellt, dass die Straße fehlt.
Data Scientists Zeitverschwendung: 50-80 % für Datensuche statt Modelle
Das ist keine Übertreibung. Es ist die Realität in Unternehmen ohne Datenstrategie.
Ursprünglich aus dem CrowdFlower Data Science Report stammend und seitdem vielfach bestätigt: Data Scientists verbringen 50-80 % ihrer Arbeitszeit damit, Daten zu finden, zu verstehen und aufzubereiten. Nicht damit, Modelle zu bauen.
Warum? Weil niemand dokumentiert hat, wo die relevanten Daten liegen. Weil niemand definiert hat, was die Felder bedeuten. Weil keine Single Source of Truth existiert und der Data Scientist selbst herausfinden muss, welchem von drei Systemen er vertrauen kann. Weil Datenzugriffe unklar sind und jede Anfrage einen eigenen Genehmigungsprozess braucht.
Forrester und Capital One haben 2024 gemeinsam 500 Enterprise Data Leader befragt. 73 % nennen Datenqualität und -vollständigkeit als primäre Barriere für AI Erfolg. Nicht Modellgenauigkeit. Nicht Rechenkosten. Nicht Fachkräftemangel. Daten.
Eine Datenstrategie, die diese Grundlage schafft, gibt Data Scientists ihre Zeit zurück. Wer 80 % der Zeit für Datenpflege aufwendet, kann AI Modelle nicht schnell genug bauen und iterieren. Wer 20 % für Datenpflege braucht, weil Governance und Dokumentation das erledigen, kann liefern.
Daten Readiness Check?
In einem halben Tag prüfen wir, ob eure Datenbasis für AI bereit ist — und was konkret fehlt.
KI Einführung Voraussetzungen: Fünf Fragen vor jedem AI Projekt
Diese fünf Fragen sind kein Jahresprojekt. Sie sind eine ehrliche Selbstbefragung, die einen halben Tag braucht und Monate Fehlinvestition verhindert.
Frage 1: Was ist das Geschäftsproblem, das wir lösen wollen?
Nicht "wir wollen AI einführen". Nicht "wir wollen datengetrieben werden". Sondern: Wo verlieren wir heute konkret Geld oder Zeit, weil wir schlechte Vorhersagen treffen oder schlechte Entscheidungen ohne gute Datenbasis?
Zu hoher Lagerbestand wegen ungenauer Absatzprognosen? Hohe Fluktuation, weil wir Abwanderungssignale zu spät erkennen? Zu viel Ausschuss, weil Wartungsintervalle zu starr und nicht datengetrieben sind? Lange Reaktionszeiten im Kundendienst, weil niemand Muster in Anfragen erkennt?
RAND Corporation identifiziert in ihrer 2024 Analyse als häufigsten Scheiterngrund für AI Projekte: fehlenden Geschäftskontext. Technologie wird eingeführt, ohne dass ein klares Problem dahintersteht. Das Geschäftsproblem bestimmt, welche Daten ihr braucht. Nicht umgekehrt.
Frage 2: Welche Daten brauchen wir dafür, und haben wir sie?
Wenn das Geschäftsproblem "bessere Absatzprognose" lautet, braucht ihr saubere Transaktionsdaten, saubere Produktdaten, idealerweise externe Daten wie Saisonalität oder Markttrends. Habt ihr diese Daten? In welchem System? Wie weit reicht die Geschichte zurück? Wie vollständig sind die kritischen Felder?
Diese Frage beantwortet, ob ihr in drei Monaten ein Modell bauen könnt oder erst sechs Monate Datenbasis schaffen müsst. Beide Antworten sind legitim. Die gefährliche Antwort ist: "Wir schauen mal, was wir haben." Das ist der Einstieg in das klassische Muster des gestoppten Projekts.
Frage 3: Wie gut sind diese Daten wirklich?
Fünf Dimensionen, jede davon kann ein Projekt zum Scheitern bringen: Vollständigkeit (sind kritische Felder befüllt?), Konsistenz (sind Begriffe systemübergreifend einheitlich?), Aktualität (wie alt sind die Daten im Schnitt?), Korrektheit (gibt es plausible Ausreißer oder offensichtliche Fehler?), Repräsentativität (bilden die Daten die relevante Realität fair ab?).
Wir empfehlen: Nehmt zwei Stunden, zieht die Daten für den geplanten Use Case, und schaut sie tatsächlich an. Eine einfache Profiling Analyse mit Excel oder einem BI Tool zeigt schnell, wo die Lücken sind. Die Ergebnisse sind meistens überraschend.
Frage 4: Wer ist für diese Daten verantwortlich?
Wenn ihr diese Frage nicht beantworten könnt, habt ihr kein Datenproblem. Ihr habt ein Governance Problem. Daten ohne Verantwortliche veralten, akkumulieren Fehler und werden von verschiedenen Teams unterschiedlich interpretiert.
Benennt eine Person aus dem Fachbereich, die für den relevanten Datenbereich einsteht. Nicht die IT. Jemanden, der versteht, was diese Daten bedeuten, warum sie wichtig sind und was "korrekt" für diesen Bereich heißt.
Frage 5: Was ist der messbare Erfolg in 12 Monaten?
AI Projekte ohne klare Erfolgskriterien enden in einem Zustand, den wir "Pilotpurgatorium" nennen: Das Modell läuft, niemand weiß ob es gut ist, und nach einem Jahr fragt jemand, was das eigentlich gebracht hat.
Definiert vorab: Wie messen wir den Erfolg? Reduktion der Lagerkosten um X %? Senkung der Ausschussquote auf Y? Erhöhung der Churn Erkennung auf Z % der gefährdeten Kund:innen?
Diese Kriterien geben dem Projekt eine Richtung und dem Management eine Basis, um Budget und Fortschritt zu beurteilen.
Was Gartner, McKinsey und Forrester als Must-Haves nennen
Drei Analysehäuser, ein gemeinsamer Nenner. Vor AI kommt das Fundament.
Gartner empfiehlt für den Einstieg in AI Readiness: Mehr als 75 % der Organisationen sollten AI-ready Data als Top 5 Investitionsprioritäten erklären. Und: 50-70 % des AI Projektbudgets sollten für Daten Readiness eingeplant werden, also für Extraktion, Normalisierung, Governance Metadaten und Qualitätsdashboards. Das klingt nach viel. Es ist die realistische Kalkulation für Projekte, die halten.
McKinsey ergänzt: Unternehmen mit den höchsten AI Erträgen haben dreimal so häufig einen robusten EBIT Beitrag durch Daten und Analytics. Die Bedingung dahinter: Sie haben Governance, Datenqualität und Infrastruktur als Voraussetzung behandelt, nicht als Parallelaktivität.
Forrester: 73 % nennen Datenqualität als primäre AI Barriere. Wichtiger ist aber die zweite Erkenntnis aus derselben Studie: Unternehmen, die in Daten Readiness investiert haben, bringen AI Projekte durchschnittlich 40 % schneller in die Produktion als solche, die es nicht getan haben.
Das ist das eigentliche Argument für Datenstrategie: Nicht "es wäre schön". Sondern "es spart Zeit und Geld, und es ist die Voraussetzung dafür, dass AI Investitionen einen Return liefern".
Das Lumen Beispiel: Datenstrategie, die sofort wirkt
Lumen Technologies, ein US Telekommunikationsunternehmen, hatte ein konkretes Problem: Sales Teams verbrachten durchschnittlich vier Stunden pro Anruf mit Kundenrecherche. Vier Stunden, um Informationen über den Kunden zusammenzustellen, die in verschiedenen Systemen verteilt lagen und manuell aggregiert werden mussten.
Der Ansatz war nicht "AI kaufen und dann schauen". Der Ansatz war: Zuerst den Geschäftsschaden quantifizieren (50 Millionen Dollar Opportunitätskosten pro Jahr), dann die Datenfrage klären (welche Informationen brauchen Sales Mitarbeitende, aus welchen Quellen, in welcher Form?), dann die technische Lösung designen.
Ergebnis: Die Recherchezeit sank von vier Stunden auf 15 Minuten. Das ist eine AI Erfolgsgeschichte. Aber die eigentliche Leistung war nicht das Modell. Es war die Arbeit davor: Klären, welche Daten gebraucht werden, wo sie liegen, wie sie zugänglich gemacht werden können.
Datenstrategie 5 Punkte Plan für den Mittelstand
Für Unternehmen, die mit Datenstrategie anfangen wollen, ohne ein Jahresprojekt aufzusetzen, hat sich folgendes Vorgehen bewährt:
Geschäftsziele zuerst. Drei bis fünf Kernentscheidungen identifizieren, die ihr in den nächsten zwölf Monaten besser treffen wollt, wenn ihr bessere Daten habt. Das sind eure Datenanforderungen. Technologie kommt danach.
Bestandsaufnahme durchführen. Alle relevanten Datensysteme kartieren. Für jeden Bereich: Wo liegen die Daten? Wie vollständig sind sie? Wer ist zuständig? Welche Systeme überschneiden sich? Das Bild, das dabei entsteht, ist meistens überraschend. Und es zeigt, wo die eigentlichen Lücken sind.
Governance Grundlage legen. Für die fünf wichtigsten Datenbereiche je einen Data Owner aus dem Fachbereich benennen. Drei bis fünf zentrale Begriffe definieren, die aktuell unklar sind. Zugangsfragen für AI Projekte vorab klären.
Technologie Fundament aufbauen, iterativ. Kein Big Bang. Ein zentrales System für die priorisierten Datenbereiche, das als Single Source of Truth gilt. Self Service BI für Fachabteilungen, damit sie auf verlässliche Daten zugreifen können. Erste Quick Wins in 30-60 Tagen, um Momentum zu erzeugen.
Kultur mitbauen. Datenkompetenz ist kein IT Thema. 85 % der deutschen Führungskräfte halten Datenkompetenz für ebenso wichtig wie Computer Bedienung, zeigt Bitkom. Aber nur 11 % der Beschäftigten vertrauen ihren eigenen Data Skills. Die Lücke schließt sich nicht durch Schulungen allein. Sie schließt sich, wenn Führungskräfte datenbasierte Entscheidungsfindung vorleben.
AI-mature: Was Datenstrategie mit AI Reife zu tun hat
McKinsey hat 2025 eine für die meisten Unternehmen unangenehme Zahl veröffentlicht: Von allen Unternehmen, die AI nutzen, qualifizieren sich nur 1 % als "AI-mature", also mit vollständig integrierten AI Workflows, die systematisch Geschäftswert liefern.
Das bedeutet nicht, dass 99 % der Unternehmen gescheitert sind. Es bedeutet, dass der Weg zur wirklich produktiven AI Nutzung länger ist als die meisten Hype Zyklen suggerieren. Und dass der Unterschied zwischen dem 1 % und dem Rest nicht die AI Technologie ist. Es ist die Datenbasis darunter.
Wer heute anfängt, diese Basis zu bauen, ist in zwei Jahren näher am 1 % als wer heute ein weiteres AI Tool kauft.
Die eigentliche Entscheidung
Wintergerst hat es auf den Punkt gebracht: "Damit nicht Dritte die Lücke füllen."
Die Lücke, von der er spricht, ist real. In Deutschland nutzen 94 % der Unternehmen ihr Datenpotenzial nicht vollständig. Jedes dieser Unternehmen hat Wettbewerber, die dieselben Daten, dieselbe Technologie, denselben Markt nutzen könnten. Wer die Datenstrategie früher klärt, hat einen Vorsprung, der sich mit der Zeit aufbaut.
Das ist kein Konzernproblem. Mittelständische Unternehmen haben kürzere Entscheidungswege, weniger Silos und oft mehr Datenhunger im Management als Konzerne. Wer heute mit den fünf Fragen oben startet, kann in zwölf Monaten die ersten produktiven AI Ergebnisse sehen.
Wer weiter AI Tools kauft ohne Datenstrategie, verliert Zeit, Budget und das Vertrauen im eigenen Haus.
Verwandte Artikel:
EuerDatenReadinessCheckineinemhalbenTag
