Wie Big Data dabei helfen kann, das Risikomanagement zu optimieren

Wie können Big-Data-Technologien Finanzinstitute dabei unterstützen, Risiken zu managen, während das Risikomanagement immer engeren Anforderungen und Regularien unterliegt? Mit dieser Frage beschäftigen wir uns heute und stellen euch Vorteile und Anwendungen von Big Data im Risikomanagement von Banken und Sparkassen vor.

zum Artikel gehen

Risikomanagement in Scrum

Laut dem Standish Group Chaos Report aus dem Jahr 2015, einer Umfrage, die sich mit dem Erfolg und Misserfolg von IT-Projekten beschäftigt, konnten nur 36% der Projekte erfolgreich abgeschlossen werden, 45% der Projekte konnten nicht in der geplanten Zeit

zum Artikel gehen

NetAddedValue: Wie viel Aufwand darf meine Digitalisierung verursachen?

Die Prozessdigitalisierung bietet Unternehmen die Möglichkeit, ihre Prozesse zu optimieren und effizienter zu gestalten. Durch die Digitalisierung von manuellen oder papierbasierten Prozessen können Fehler reduziert, Arbeitsabläufe beschleunigt und Daten

zum Artikel gehen

Das Potenzial von Big Data nutzen dank Data Lakes: Architekturen und das Problem der Data Discovery

Das Zeitalter der Digitalisierung hat zu einem beispiellosen Datenwachstum geführt und die strategische Bedeutung von Daten war noch nie so offensichtlich wie heute. Um diese immense Datenflut effizient zu verwalten und bestmöglich zu nutzen, sind Data La

zum Artikel gehen

Agilität trifft auf Data Science: Erfolgversprechende Ansätze für DS-Projekte

Agilität und Data Science haben eines gemeinsam: Beide Disziplinen haben in den letzten Jahren stark an Bedeutung gewonnen. Der Einsatz agiler Methoden und Frameworks kann für Unternehmen ein entscheidender Erfolgsfaktor sein. In diesem und den kommenden

zum Artikel gehen

Datenmanagement im Laufe der Zeit: Von der Warehouse- zur Lakehouse-Architektur – Teil 2

Im ersten Teil dieses Blog-Beitrags haben wir uns mit den Grundlagen von Data Warehouses und Data Lakes beschäftigt, um ihre Vorteile und Grenzen zu verstehen. In diesem Teil geht es um die Entwicklung hin zu einer hybriden Lösung - dem Data Lakehouse. Wi

zum Artikel gehen