DATA ANALYTICS
SMARTE DATENANALYSE UND PROGNOSE
Digitalisierung und Automatisierung bringen in den unterschiedlichsten Branchen wie in der Industrie, im Handel oder in der Medizin eine umfangreiche Datenerfassung mit sich. Infolgedessen ist es erforderlich, große Datenmengen sicher zu speichern und nutzbringend zu verarbeiten, um daraus wertvolle Informationen abzuleiten.
Aus IKT-Sicht ist die Grundlage für die Wissensgenerierung das digitalisierte Know-how der Domänen-Expertinnen und Experten sowie der damit verbundenen Optimierung der Geschäfts- und Produktionsprozesse. Durch Anwendung von statistischen Verfahren, moderner Methoden aus dem Bereich Data- und Visual Analytics sowie Machine Learning wird das vorhandene Wissen in Kontext mit den aufgezeichneten Daten analysiert.
Dadurch können Anomalien und Muster identifiziert und in weiterer Folge zusätzliche Informationen über Korrelationen zur Fehler- und Ursachenanalyse abgeleitet werden. Mittels Methoden aus dem Umfeld der künstlichen Intelligenz wird Wissen generiert und daraus werden Handlungsempfehlungen für Expertinnen und Experten formuliert.
Durch Forschungs- und Entwicklungsprojekte sowie zahlreiche Projekte mit der Wirtschaft in unterschiedlichsten Bereichen des Data Managements und Analytics mit kleinen und großen Datenmengen sammelte die RISC Software GmbH bereits viel Erfahrung. Mit diesem Know-how unterstützt die RISC Software GmbH ihre Kundinnen und Kunden bei der Vorbereitung auf neue Herausforderungen durch einen besseren Einblick in ihre firmeneigenen Daten.

FRAGESTELLUNGEN
DATA SCIENCE PROZESS
1. Data Engineering
Maschinen-, Gesundheits-, Sensor- oder IT-Infrastrukturdaten fallen in den unterschiedlichsten Ebenen und Systemen an. Um diese Daten zu nützen, müssen sie intelligent zusammengeführt, gefiltert und verknüpft werden. Auch die Überprüfung auf Korrektheit und Vollständigkeit der Daten ist relevant. Dabei müssen bestehende IT-Infrastrukturen mit einbezogen werden, wobei Datensicherheit und -qualität unumgänglich sind.
- Entwicklung von Datenmodellen
- Automatisierung des Datenimports
- Extraktion von komplexen Merkmalen aus medizinischen Bilddaten
- Einsatz moderner Big Data-Technologien für große Datenmengen
- Verwendung gängiger Industriestandards, bspw. OPC UA
- Validierung und Verifikation von Daten
- Detektion und Korrektur fehlerhafter Daten
- Ermittlung von Trainings- und Evaluierungsdaten
- Datenmodellierung und Abbildung des Domänenwissens
- Modellentwicklung
- Datenvorverarbeitung und –validierung
- Feature Engineering
- Explorative Datenanalyse und Visualisierung
2. Data Analytics und Künstliche Intelligenz
Um aus gesammelten und gefilterten Daten Erkenntnisse zu gewinnen, werden Verfahren aus Mathematik, Statistik und Künstlicher Intelligenz sowie Visual Analytics verwendet. Durch den Einsatz ausgewählter Algorithmen werden große Datenbestände auf Zusammenhänge und Muster untersucht. Es werden mathematische Modelle erstellt, um verschiedene Fragestellungen zu beantworten. Zusammenhänge, Verbindungen und Gesetzmäßigkeiten in den Daten können wichtige Informationen beinhalten, einerseits für kurzfristige Reaktionen im Echtzeitbetrieb und andererseits für effektive Vorhersagen für die Zukunft.
3. Data Presentation
Die visuelle Aufbereitung der Daten und Analyseergebnisse ist ein wichtiges Werkzeug zur Gewinnung neuer Erkenntnisse. Ein wesentlicher Faktor zur Interpretation von Analyseergebnissen ist die starke Einbindung der Domänen-Expertinnen und Experten. Die intuitive Wahrnehmungs- und Kombinationsfähigkeit bildet außerdem einen wesentlichen Faktor bei der Visualisierung der Ergebnisse. Die Interaktion zwischen menschlicher Expertise und maschineller Verarbeitung kann maßgeblich zur Unterstützung des Entscheidungsprozesses beitragen.
- Visualisierung der Modelle und Analyseergebnisse
- Individuelle Dashboards
- Web-basiertes Front-End
- REST-API zur Anbindung an externe Systeme
- Anbindung an Reportingtools
- Integration von Lösungen in bestehende Systeme
KI-METHODENFRAMEWORK

REFERENZPROJEKTE


AnnaLyze – Die virtuelle Produktionsassistentin
AnnaLyze unterstützt in erster Linie die Domänen-Expertinnen und Experten. Sie führt das gesamte Know-how aus der Produktion, den Prozessen, der Konfiguration, der Aufträge sowie der Werkzeuge aller Maschinen zusammen. Daraus wird mittels Data- und Visual Analytics neues Wissen generiert, um Ursache-Wirkung-Zusammenhänge abzuleiten. Dadurch lässt sich beispielsweise die Ausfallswahrscheinlichkeit einzelner Komponenten reduzieren oder die Produktivität durch Verringerung ungeplanter Stillstände der Maschinen steigern.
Medizinische Bildverarbeitung, Modellierung und Simulation
Obwohl medizinische Bilddaten in der täglichen klinischen Routine in großen Mengen anfallen, ist eine Verwendung für automatische Analysemethoden oftmals schwierig, da entsprechende Zusatzinformationen fehlen. Die manuelle Erstellung ist sehr zeitaufwändig und öffentlich zugängliche Datensätze sind rar. Im Forschungsbereich MIMAS wird deswegen an automatischen Methoden geforscht, die eine rasche Erstellung dieser Zusatzinformationen ermöglichen.


Ontologie-basierte Dateninfrastruktur
CALUMMA ist eine neue Generation von Data-Management-Software, die Datenkomplexität, Schnittstellenvielfalt und Visualisierung mit Bedienerfreundlichkeit vereinbart. Domänen-ExpertInnen werden hier von der Datenmodellierung hinweg, über die Integration und Validierung ihrer Daten sowie bei deren Verarbeitung und Auswertung unterstützt. Durch die Generizität des kompletten Systems kann die Anwendung auf unterschiedliche Szenarien und Daten angepasst werden.
Intelligente Twitter Analyse
Das Untersuchen der Prämisse, dass positive Emotionen in Tweets über aktiennotierte Unternehmen mit deren Aktienkursentwicklung in Zusammenhang stehen, stand in diesem Projekt im Fokus. Während des Betrachtungszeitraumes von vier Monaten wurde eine nachweisbare Korrelation zwischen Aktienkursen und Emotionen in den Tweets festgestellt. Diese Erkenntnisse konnten u.a. durch den Einsatz von Sentimentanalysen sowie Deep-Neural-Networks gewonnen werden.

Intelligente Weiche
Im Forschungsprojekt iTPP 4.0 wurden gemeinsam mit der voestalpine Signaling Zeltweg GmbH grundlagennahe Erkenntnisse entwickelt, die ein digitales Zustandsabbild einer Weiche für den Eisenbahnverkehr ermöglichen sollen. Dieses soll zukünftige Abnützung, Verschleiß oder Fehler der Weiche zu jedem Zeitpunkt zuverlässig prognostizieren können. Dazu leiten Machine Learning Algorithmen selbstlernend aus Daten von Eisenbahninfrastruktur-Sensoren Entscheidungen zu geplanten Wartungen ab.