Organisationen sind komplexe Systeme mit einer Unmenge an Daten. Wie lassen sich aus diesen „Big Data“ Modelle erstellen, mit denen man mögliche Vorhersagen treffen kann?
Organisationen produzieren routinemäßig eine Vielzahl an Daten. Fast jeder Vorgang hinterlässt mittlerweile einen digitalen Fußabdruck. Diese Daten können Aufschluss über Prozessqualität, Effizienz, Sicherheit oder Resilienz von Organisationen geben. Die Datenmengen wachsen jedoch deutlich schneller als unsere Fähigkeiten, sie zu verarbeiten. Daraus ergibt sich die methodische Herausforderung, wie man viele, größtenteils unwichtige Daten zu wenigen, hochrelevanten Informationen transformieren kann.
Digitaler Zwilling als Big Theory
„In der Komplexitätsforschung begegnen wir dieser Herausforderung, indem wir versuchen, die einem System zu Grunde liegenden Netzwerke datengetrieben und quantitativ zu verstehen, also die passende „Big Theory“ zu „Big Data“ zu entwickeln“, sagt Klimek. Damit können komplexe Systeme wie Organisationen besser vorhersagbar gemacht werden, die Auswirkung von Interventionen besser antizipiert, und damit die Systeme besser gemanagt werden. „Konkret können wir auf Basis von hochaufgelösten und dynamischen Daten digitale Zwillinge erschaffen, in denen eine Vielzahl von Szenarien durchgespielt werden, um optimale Maßnahmen identifizieren zu können“, so der Komplexitätsforscher weiter.
Digitale Zwillinge sind „lebendige“ Datenmodelle, die für unterschiedliche Anwendungsbereiche eingesetzt werden. In der Komplexitätsforschung dienen sie zur Simulation von Zukunftsszenarien, um die Auswirkungen hypothetischer Vorfälle zu untersuchen. Der aktuelle Stand der Forschung in der Entwicklung solcher digitalen Zwillinge wird anhand von Anwendungsbeispielen der Organisationswissenschaft, Gesundheitsversorgung, dem Pandemiemanagement sowie wirtschaftlicher Produktionsnetzwerke gezeigt.
Organisationen: Ist der Informationsaustausch effizient?
Eine Organisation lässt sich in gewisser Hinsicht als eine Ansammlung von Kommunikationsflüssen beschreiben. Also wer, wann mit wem, über was, auf welche Art auch immer Informationen austauscht. In der Komplexitätsforschung kann man zum Beispiel zeigen, wie sich durch Kenntnis dieser Kommunikationsnetzwerke Flaschenhälse finden lassen oder in welchen Bereichen der Austausch besonders effizient funktioniert. Die Resilienz einer Organisation hängt ganz wesentlich auch davon ab, wie sich diese Netzwerke teils spontan, teils gesteuert umorganisieren. Und wie robust und effizient die sich bildenden, neuen Hierarchien den Informationsfluss ermöglichen.
Wie Organisationen ihre Daten nutzen und die Qualität steigern können, dazu präsentierte Alexander Zeppelzauer, Geschäftsführer der TÜV AUSTRIA Data Intelligence, analytische Werkzeuge und industrielle Praxisbeispiele.
Über den Qualitätstag
Als Fixpunkt im Tagungskalender der Qualitätsmanager/innen standen auch weitere Vorträge: Was Organisationen tun sollten, um sich effizient auf ein mögliches Blackout vorzubereiten, vom internationalen Blackout-Experten Herbert Saurugg, Nachhaltigkeit im Qualitätsmanagement, Symbiose von Geschäftsführung und Qualitätsmanagement, Resilienz als innere Ressourcen zur gesunden Arbeitsbewältigung sowie Praxisbeispiele zur Umsetzung eines zeitgemäßen Qualitätsmanagements.
Fotocredit: @Daniel Mikkelsen