Data Prep ...Prozess Entwicklung...

3D Konstruktionsdaten sind heute Standard im Unternehmen. In der Unternehmensdigitalisierung bedeuten sie aber in ihrer Komplexität eine echte Herausforderung! Der digitale Zwilling in einer komplett zeichnungsfreien Konstruktion als Single Source of Truth (SSOT) ist noch lange kein Standard. Der digitale Nutzen von Konstruktionsdaten steigt rasant. Design, Entwicklung, Produktion, Vertrieb, Marketing, Service: nahezu alle Unternehmensbereiche können von der Verwendung profitieren. Virtuelle Inbetriebnahme, Schulung und Lernen in AR/VR oder der 3D Konfigurator zur Verkaufsunterstützung sind nur einige Anwendungsbeispiele auf dem Weg ein Unternehmen zukunftssicher zu gestalten. Ohne echtem Datenbereitstellungsprozess sind kostenintensive Mehrfachaufwände in den verschiedenen Ausspielungskanälen nicht zu vermeiden und kritische Timelines nicht zu halten. Die Möglichkeiten werden schlicht nicht genutzt. Als Spezialist in der Datenübernahme für verschiedenste Anwendungen kann ich die unterschiedlichen Anforderungen sehr gut beurteilen. Der Weg zu einem konfigurierbaren 150% Mastermodell mit neutralem Material Library für die jeweils relevanten Ausgabekanäle ist sehr komplex und vielschichtig. Hier sammle ich seit vielen Jahren sowohl umfangreiche praktische Projekterfahrung, unterstütze aber auch beratend.

zum Artikel gehen

Data Prep ...Material Library...

Aufbau eines neutralen Material Library als Grundbestandteil eines funktionierenden Data Prep Prozesses. Aufgaben in Stichpunkten wie Oberflächenerfassung, Nomenklatur, Software Neutralität, Colormanagement, Realtime, etc. benötigen umfangreiche Erfahrung

zum Artikel gehen

How to ingest MQTT data from VerneMQ into your Data Lake using IoT Core

This post explains how you can ingest data from a MQTT broker such as VerneMQ into your data lake via IoT Core and Kinesis Data Firehose. We’ll set up a data processing pipeline from start to finish in Terraform.

zum Artikel gehen

Reliable Data Streaming on AWS

Reliable Data Streaming on AWS We should agree that in our digital world streaming and especially data streaming becomes more and more important if it isn’t already. Besides performance/throughput and security for a data streaming system reliability

zum Artikel gehen

NetApp DataSense on AWS

Over the last years, demands and expectations on data security have increased dramatically. The main drivers are local data privacy regulations like the EU-GDPR, which imply awareness of sensitive data and an overview of potential risks. Amazon has offere

zum Artikel gehen

Glue Crawlers dont correctly recognize Ion data - heres how you fix that

Amazon Ion is one of the data serialization formats you can use when exporting data from DynamoDB to S3. Recently, I tried to select data from one of these exports with Athena after using a Glue Crawler to create the schema and table. It didn’t work

zum Artikel gehen