Am 24. Februar 2026 machte der EIM-Tag in Köln deutlich, wo Unternehmen beim Enterprise Information Management heute konkret ansetzen müssen. Aus den Keynotes, Praxisberichten und Diskussionsrunden im Rahmen unseres Events lassen sich Erkenntnisse ableiten, die für IT-Verantwortliche, aber auch Fachbereiche relevant sein dürften.
Zukunftsfähiges Informationsmanagement entsteht nicht durch die nächste Technologie allein, sondern dort, wo Sie Daten, Dokumente und Prozesse intelligent zusammenkommen.
Neben den Learnings vom EIM-Tag, die wir hier schriftlich für Sie aufarbeiten, können Sie sich auch einen audio-visuellen Eindruck von unserem Event verschaffen. Schauen sie dafür gern in dieses Video zum EIM-Tag 2026 am Ende des Newsbeitrags rein.
Learnings vom EIM-Tag
1. Self-Service funktioniert nur mit zentral kuratierten Daten und klarer Plattformlogik
Fachbereiche treiben Self-Service aktiv voran und bringen wertvolle Eigeninitiative in die Datennutzung ein. Die Erfahrungen zeigen dabei, dass dieses Engagement besonders wirksam wird, wenn es durch eine klar definierte Plattformlogik und abgestimmte Governance-Strukturen unterstützt wird.
Vonovia hat in diesem Kontext erkannt, wie wichtig es ist, gewachsene Datenlandschaften in eine gemeinsame, zentral kuratierte Umgebung zu überführen, um Self-Service nachhaltig skalierbar und effizient zu gestalten.
Self-Service eröffnet Fachbereichen vielfältige Möglichkeiten, eigenständig mit Daten zu arbeiten und Innovationen voranzutreiben. Gleichzeitig wird deutlich, dass mit wachsender Toolvielfalt und neuen Anwendungsfeldern auch der Bedarf an klarer Orientierung steigt. SEW hebt hervor, dass eine transparente Plattformstrategie und konsistente Leitlinien dabei helfen, die vorhandenen Möglichkeiten gezielt nutzbar zu machen und Fachbereiche sicher durch die zunehmende Komplexität zu führen.
Vor diesem Hintergrund empfiehlt es sich, eine klare Plattformstrategie zu etablieren, zentrale Rollen wie Plattform-Owner, Data-Steward und Fachbereiche verbindlich zu definieren sowie Übergabe- und Betriebsprozesse (z. B. SLAs, Meilensteine, Wissensaufbau) frühzeitig zu verankern. So schaffen Sie die Grundlage dafür, dass Self-Service sein volles Potenzial entfalten kann – effizient, skalierbar und im Einklang mit einer gemeinsamen Daten- und Plattformlogik.
2. „AI-ready“ heißt: Daten sind nicht nur vorhanden, sondern kontrolliert nutzbar
Die Keynote von IBM brachte es auf den Punkt: „Wenn ich eine Datenbasis habe, die Schrott ist, dann kann ich nicht ordentlich KI einsetzen mit meinen Unternehmensdaten.“, so Matthias Biniok. Damit wurde die Erwartung korrigiert, dass Modelle allein den Mehrwert liefern; tatsächlich verlangt AI-Readiness eindeutige Identifikatoren, konsistente Metadaten, modellgerechte Datenstrukturen und eine passende Infrastruktur.
Mercedes-Benz illustrierte dieses Problem operativ: „Daten sind verfügbar, aber nicht nutzbar. Wir haben gar nicht den Kontext, den die AI braucht, um zu arbeiten.“ Es wurde deutlich, dass die Hürde seltener das Modell, sondern vielmehr das Zusammenführen, Annotieren und Governen der Daten ist.
Unternehmen sollten deshalb ein Data-Inventory und einen zentralen Datenkatalog aufbauen, Schlüssel und Beziehungen dokumentieren sowie verbindliche Richtlinien zur Modell- und Infrastrukturwahl (lokal vs. Cloud; Vektor-Store vs. Data-Lake; Kriterien für Trust/Cost/Performance) festlegen — nur so werden KI-Use-Cases verlässlich und skalierbar.
3. Dokumente sind heute dank KI kein Verhinderer für Automatisierung mehr
Aus mehreren Praxisberichten wurde sichtbar, dass Dokumente oft der „analoge Kern“ kompletter Prozesse sind – und teilweise eben auch ein Engpass.
Die NürnbergMesse fasste es knapp zusammen: „Jeder Dokumententyp hat eigene Anforderungen. (…) Manchmal reicht eine beliebige Gewerbeanmeldung nicht aus. Die Tätigkeit muss inhaltlich zum Produkt Spektrum der Messe passen. Genau dieser fachliche Bezug macht die Prüfung so komplex.“ Damit ist gemeint, dass Klassifikation und reine Extraktion nicht ausreichen, wenn Fachkontext, Vollständigkeit und formale Anforderungen fehlen.
DFKP schilderte die Größenordnung und Heterogenität: „Wir verarbeiten wöchentlich mehrere 1000 Dokumente, wir haben ungefähr 200 verschiedene Dokumentenklassen. (…) Die Klassen in sich selbst sind oft auch sehr heterogen.“, und machte damit die Grenzen reiner Feldextraktion sichtbar.
Der ISR-Kunde Deka Immobilien beschrieb den pragmatischen Weg: erst Workshops, dann Metadatenmodell, Prototyp, iteratives Nachschärfen — Resultat: innerhalb weniger Wochen ein iterativ geschärfter Prototyp und zusätzliche Funktionen, die schnell in die Nutzung gebracht werden konnten.
Deshalb empfiehlt sich ein Vorgehen, das mit einer Dokumententypologie beginnt, Prozesse nach Volumen, Variabilität und wirtschaftlichem Hebel priorisiert, einen Metadaten-Layer etabliert und fachliche Validierungsregeln definiert — erst danach folgt die technische Extraktion.
4. Extraktion allein reicht nicht. Agentic-IDP ermöglicht End-to-End-Prozesse
Mehrere Vorträge zeigten, dass der Hebel nicht in punktuellen Extraktions-Tools liegt, sondern in der nahtlosen Orchestrierung: „Benötigt werden End-to-End-Orchestrierung: Classification, Extraktion und Feedback-Mechanismen; eine Demo-Lösung genügt nicht“, fasste Maximilian Dassler von der DFKP zusammen.
Ein Praxisbeispiel der NürnbergMesse demonstrierte das operative Muster: nach Klassifikation und Extraktion folgt eine Nachbearbeitungs-Oberfläche („Human Hub“) — und nur wenn die KI mit ausreichend Vertrauen antwortet und sicher ist, läuft der Prozess ohne manuelle Nachkontrolle in der Dunkelverarbeitung weiter. Der Vortrag machte deutlich, wie wichtig Monitoring, Fehlerkategorien und definierte Human-in-the-loop-Schnittstellen sind, damit Automatisierung wirtschaftlich bleibt.
Bevor Technologiewahl und Modellierung final getroffen werden, sollten Sie Prozess-Workflows inklusive Fehlerpfaden modellieren, End-to-End-KPIs (Durchlaufzeit, typische Fehlerarten, Nachbearbeitungsaufwand) definieren und Feedback-Schleifen in den Betrieb integrieren. Agentic-IPD kann dabei helfen.
5. KI muss kontrollierbar bleiben und sich an harten Kennzahlen messen lassen
IBM forderte klare Wirtschaftlichkeitsprüfungen. Mit Verweis auf eine Deloitte-Studie meint Keynote-Speaker Matthias Biniok: „Nur 10 % der aktuellen KI-Projekte sehen einen echten ROI. Das ist wenig!“ Damit war die Erwartung verbunden, KI-Projekte bereits vor dem Start an klaren Metriken zu messen.
Praktische Zahlen untermauern die These: DFKP berichtet von ihrem Projekt mit Buildsimple von konkreten Outcomes:
- Median von 30–35 Minuten auf 2 Minuten,
- 70 % weniger Zeit,
- 60 % weniger Fehler,
- dreifacher Durchsatz bei gleichem Personal
Diese zeigen, dass KI wirtschaftlich wirkt — allerdings nur dort, wo Vorher-Nachher-Metriken definiert sind.
Deshalb ist es Pflicht, vor jedem Piloten Baselines zu definieren, die Messmethodik und das Reporting festzulegen sowie Produktivsetzungen an harte Abnahmekriterien zu koppeln.
6. Governance, Security und der People-Faktor sind Betriebsvoraussetzungen
Compliance, Löschlogiken, Modelldokumentation sowie Sicherheitsfragen wie Prompt-Injection sind keine Randthemen, sondern Voraussetzung für den stabilen Betrieb. HUK-Coburg formulierte dies konkret: „DSGVO konformes Löschen ist Pflicht. (..) Die Löschsystematik, die wir aufbauen, muss nachweisbar sein. Sie muss sicher sein. Und transparent. Aufbewahrungsfristen, sofern sie eine Rolle spielen, müssen berücksichtigt werden. Das ist die Herausforderung. Also geht es am Ende um den Aufbau eines standardisierten Systems, was skalierbar ist und natürlich entsprechend der Gesetzgebung Rechnung trägt.“
IBM warnte vor Operationalisierungsfallen: „Prompt-Injection im Rahmen von AI-Security ist ein spannendes Thema — plötzlich habe ich Data-Leakage. (..) Man braucht Visibilität über Use-Cases, regulatorische Compliance und Risikomanagement.“ Damit wurde deutlich, dass Governance-Lifecycle, Tests, Security-Checks und AI-Literacy parallel zur Technik aufgebaut werden müssen.
Etablieren Sie daher eine Governance-Roadmap (Datenrechte, Löschprozesse, Modelldokumentation, Lifecycle-Tests), führen Sie Security-Checks (inkl. Prompt-Injection-Szenarien) durch und begleiten Sie technische Maßnahmen mit Schulung, Kommunikation und die Einbindung der relevanten Stakeholder.
7. Dokumentenlogistik skaliert nicht mit immer neuen Einzellösungen
Mehrere Vorträge aus der Dokumentenlogistik machten deutlich, dass nachhaltige Modernisierung nicht dadurch entsteht, für jeden Fachbereich eine neue Speziallösung zu bauen. Der tragfähigere Weg ist, aus konkreten Anwendungsfällen wiederverwendbare Bausteine, Standards und Integrationsmuster zu entwickeln, die sich auf weitere Szenarien übertragen lassen.
Bei den Berliner Wasserbetrieben ist aus den ersten Projekten genau so ein Baukasten entstanden. „Mit der Migration des Genehmigungsmanagements in die Ecliso-ECM-Welt war uns klar, dass wir irgendwas machen müssen, damit wir nicht jeden Fachbereich, jeden Aktentyp in einer in einem sehr aufwändigen Projektvorgehen mit Konzept und Anforderungsaufnahme angehen, weil das einfach, viel zu lange dauert. Wir müssen standardisieren, wir müssen wegkommen von den Fachbereichsspezifischen Dingen und müssen so strategische Entscheidungen treffen, wie wir es schaffen, unsere Projekte sehr viel schneller ins Leben zu bekommen.“ Genau darin zeigt sich ein zentrales Muster des EIM-Tags: Nicht die einzelne Lösung skaliert, sondern die Fähigkeit, aus ihr ein wiederverwendbares Modell zu machen.
Auch DATEV beschrieb diesen Wandel sehr klar. Dort war Enterprise Content Management über Jahre stark von heterogenen Systemlandschaften, Eigenentwicklungen und entsprechend hohem Betriebsaufwand geprägt. Der Umbau zielte deshalb bewusst auf Plattformdenken, Standardsoftware und eine stärker beratende Rolle der IT. Besonders prägnant formulierte es Michael Szigeti in seinem Vortrag mit dem Hinweis, man habe „eine Menge an Custom Code Eigenentwicklungen zurückfahren und dadurch Produktstandards etablieren können, die heute helfen, Standardlösungen sinnvoll einzusetzen.“
Modernisierung heißt hier also nicht, alles neu zu bauen, sondern das Bestehende so zu konsolidieren, dass daraus ein belastbarer Standard entsteht.
MTU zeigte dieselbe Logik auf Workflow-Ebene. Dort wurde ein historisch gewachsenes, komplexes und auditsicheres Verfahren nicht komplett neu aufgesetzt, sondern zunächst über ein modernes Frontend und modular aufgebaute Formulare modernisiert. Entscheidend war, dass sich Anforderungen gemeinsam mit dem Fachbereich schnell abbilden ließen und die Lösung dadurch nicht nur technisch tragfähig, sondern auch im Betrieb akzeptiert wurde.
Lufthansa Technik wiederum machte deutlich, dass Skalierung auch technisch modular gedacht werden muss: Regelbasierte Extraktion bleibt dort sinnvoll, wo sie schnell und zuverlässig funktioniert, während LLM-basierte Verfahren die Lücken schließen, an denen klassische Regeln an ihre Grenzen stoßen.
Und Versafile erweiterte diese Perspektive um die strategische Ebene, indem der Vortrag den Schwerpunkt auf Content- und Metadatenstrategie mit Hilfe des Produkts docuflow legte.
Dahinter steht dieselbe Erkenntnis: Dokumentenlogistik wird erst dann wirklich zukunftsfähig, wenn Inhalte, Prozesse und Metadaten nicht als Einzellösungen, sondern als wiederverwendbares System gedacht werden.
Zusammenfassung: Was Unternehmen jetzt konkret tun sollten
Wer Informationsmanagement heute zukunftsfähig aufstellen will, sollte nicht bei der einzelnen Technologie beginnen, sondern bei den größten Reibungsverlusten im eigenen Geschäft. Die Vorträge des EIM-Tags zeigen sehr deutlich: Der größte Hebel liegt dort, wo unklare Datenstrukturen, manuelle Dokumentenprozesse, fehlende Governance und Medienbrüche heute noch Skalierung, Geschwindigkeit und Qualität ausbremsen. Genau dort sollten Unternehmen ansetzen — mit klar priorisierten Use Cases, belastbaren KPIs und Lösungen, die nicht im Piloten stecken bleiben, sondern in den Betrieb überführt werden können.
Ebenso klar wurde: KI entfaltet ihren Nutzen erst dann, wenn Daten und Inhalte wirklich nutzbar gemacht werden — also strukturiert, verknüpfbar, fachlich beschrieben und in belastbare Prozesse eingebettet. Dafür braucht es nicht nur gute Modelle, sondern ebenso eine tragfähige Plattformlogik, wiederverwendbare Bausteine in der Dokumentenlogistik, saubere Metadaten, klare Regeln für Sicherheit und Compliance sowie ein realistisches Verständnis dafür, wo Automatisierung heute schon wirtschaftlich funktioniert und wo weiterhin menschliche Prüfung notwendig bleibt.
Genau in diesen Spannungsfeldern begleitet ISR Unternehmen seit vielen Jahren: von der AI-Readiness von Daten über Dokumentenlogistik und End-to-End-Orchestrierung bis hin zu Governance, Security, Analytics und Plattformarchitekturen. Wenn Sie prüfen möchten, welche der gezeigten Ansätze für Ihre eigene Ausgangslage relevant sind, kommen Sie gern auf uns zu. Wir ordnen die Learnings des EIM-Tags gemeinsam mit Ihnen auf Ihre konkreten Prozesse, Systemlandschaften und Prioritäten ein.
Auf Wunsch stellen wir Ihnen zudem gern die Originalaufnahmen der Vorträge zur Verfügung.
erhalten sie einen einblick
Auf unserem ▶️ YouTube-Kanal unter https://lnkd.in/d-xtqjuA gibt es noch mehr Einblicke vom EIM-Tag. Dort stehen neben diesem Video auch die Zusammenfassungen der den Vortragsslots im Bereich Künstliche Intelligenz, Analytics und Dokumentenlogistik bereit.
Vertiefen Sie ihr Wissen
Haben sie Fragen? Sprechen Sie uns gerne an!
Michael Frihs
Senior Executive Manager
Key Account Sales
michael.frihs@isr.de
+49(0)151 527 45 346


