Branchenweit erstes Verfahren zur Ermittlung der Datengesundheit

Talend Data Fabric ermittelt Verlässlichkeit von Daten und schafft somit mehr Vertrauen in datenbasierte Geschäftsentscheidungen.

Talend,  Anbieter im Bereich der Datenintegration und Datenintegrität, stellt ein umfangreiches Update der Talend Data Fabric vor, einer zentralen Plattform, die vollständige, bereinigte und zuverlässige Daten in Echtzeit liefert. Der Schwerpunkt der neuen Version liegt auf erweiterten Funktionen zur Ermittlung des Talend Trust Score. Mit diesem Verfahren bewerten Organisationen die Zuverlässigkeit und Relevanz ihrer Daten. Mit dem Update präsentiert Talend die branchenweit erste Lösung, die Vitalfaktoren von Daten ermittelt. Gleichzeitig erhalten Unternehmen intelligente Diagnosen und Lösungsvorschläge, wenn es Probleme bei der Datenintegrität in Multi-Cloud-, Hybrid- und On-Premises-Umgebungen gibt. Talend Trust Score hilft Unternehmen, ihren Daten zu vertrauen, sodass sie schneller Entscheidungen treffen können, mit denen sie ihre Umsätze steigern, Innovationen vorantreiben und Risiken reduzieren.

Die durch Talend Trust Score bewerteten Daten werden katalogisiert, optimiert und für die Verwendung aufbereitet. Dadurch können sie helfen, Migrationen in die Cloud zu beschleunigen und den Betrieb von Unternehmen am Laufen zu halten, die Arbeit mit Daten und ihre Analyse zu verbessern, betriebliche Anwendungsfälle zu optimieren sowie die Anforderungen von Data Governance-Initiativen zu erfüllen. Talend Trust Score ist Bestandteil von Talend Data Fabric und bietet folgende Neuerungen:

  • Vertrauen in Daten auf den ersten Blick: Mit Talend Trust Score werden alle Datensätze automatisch kategorisiert, um Organisationen ein vollständiges Bild über den Zustand ihrer Daten zu ermöglichen, bevor sie diese für Business-Entscheidungen verwenden. Es können Datensätze in Multi-Cloud-, On-Premises- und Hybridumgebungen bewertet werden, dies schließt die Angebote branchenführender Unternehmen für Cloud Data Warehouses und Data Lakes ein.
  • Nachvollziehbares Vertrauen: Der Trust Score legt die Parameter offen, die zur Berechnung des Vertrauensfaktors der Daten genutzt werden und ermöglicht es so Organisationen nachzuvollziehen, wie die Daten bewertet wurden. Diese Parameter sind: Gültigkeit, Verbreitung, Vollständigkeit, Auffindbarkeit und Nutzung. Zudem löst Talend Data Fabric automatisch Datenprobleme, indem es anhand von semantischem Verständnis die geeigneten Änderungsvorschläge empfiehlt.
  • Integration von künstlicher Intelligenz (KI) und menschlichem Fachwissen: Talend Trust Score vereint das Optimum aus fortschrittlicher KI und menschlicher Expertise, um die Daten in einen Kontext zu setzen und einen vollständigen Einblick in Qualität und Gesundheit von Daten vermitteln.

»Ohne Frage ist Vertrauen in Daten ein Muss, wenn es um Entscheidungen geht, die sich direkt auf das Wohlbefinden der Mitarbeiter und die Sicherheit auswirken«, sagt Charles Link, Director of Data and Analytics bei Coventa. »Wir verwalten in Echtzeit eine Datenversorgungskette von mehr als 40 Standorten. Deshalb sind automatisch aufbereitete und zuverlässige Daten für unseren täglichen Betrieb unverzichtbar. Talend Data Fabric mit Talend Trust Score bietet uns eine leicht zugängliche und vollständige Datenplattform, der wir vertrauen können.«

Heute sind ganze Industriezweige auf Daten angewiesen, um ihr Wachstum voranzutreiben. Zwar sagen viele Unternehmen, dass sie datengetrieben arbeiten möchten, in der Realität haben sie aber eine als unsicher zu bezeichnende Datengesundheit«, so Stewart Bond, Research Director, Data Integration and Data Intelligence Software bei IDC. »Unternehmen, die versuchen herauszufinden, ob Daten veraltet, unzuverlässig, ungenau oder limitiert sind, verlieren Zeit bei der Entscheidungsfindung, wodurch sie Einnahmen verlieren können. Vertrauenswürdige Daten sind heute mehr denn je entscheidend für den Erfolg. Talend Data Trust Score wurde entwickelt, um Unternehmen das Vertrauen in ihre Daten zu geben, das sie benötigen, um schnelle und fundierte Entscheidungen zu treffen.«

Talend Trust Score ist Bestandteil von Talend Data Fabric, einer zentralen Plattform für Datenintegration und Datenintegrität, die alle Aspekte der Arbeit mit Daten für die Analyse und die Nutzung vereinfacht und so wichtige Geschäftsprozesse vorantreibt. Talend Data Fabric umfasst eine Reihe von Anwendungen, mit denen Unternehmensdaten vollständig, bereinigt und rechtskonform aufbereitet und allen Mitarbeitern nach Bedarf zur Verfügung gestellt werden können.

»Durch Talend Trust Score können Unternehmen mit Daten arbeiten, denen sie vertrauen, und er verbessert die Belastbarkeit und Genauigkeit von Entscheidungsfindungen in Echtzeit dramatisch«, sagt Ciaran Dynes, SVP Products bei Talend. »Mit dieser Veröffentlichung bekräftigt Talend erneut sein Engagement, Unternehmen das Maß an Datenintegrität zu ermöglichen, das sie benötigen, um auf dem heutigen datengesteuerten Markt wettbewerbsfähig zu bleiben.«

Die neuen Funktionen zur Ermittlung des Talend Trust Score innerhalb von Talend Data Fabric werden ab dem vierten Quartal verfügbar sein. Weitere Informationen sowie die Möglichkeit, den Public Trust Assessor von Talend zu testen, sind hier verfügbar. Mit dem kostenlosen Tool können einige der Fähigkeiten des Trust Score mit beliebigen Datensätzen getestet werden.

 

239 Artikel zu „Datenqualität“

Digital-Asset-Management-Projekt: Klare Verantwortlichkeiten und ein Fokus auf die Datenqualität

  Wer ein DAM einführen möchte, muss zahlreiche Interessen und Ansichten zusammenführen. Für ein erfolgreiches DAM-Projekt ist es nicht nur wichtig, das richtige Tool in Zusammenarbeit mit einem erfahrenen Partner auszuwählen. Die Qualität der Assets und die Akzeptanz der User entscheiden am Ende, ob das DAM-Projekt ein Erfolg wird oder nicht. Vielen Unternehmen stehen bei…

Achillesferse Datenqualität

10 Fragen und Antworten rund um Data Quality und Stammdatenmanagement. Die Achillesferse für eine effiziente Digitalisierung liegt nicht in der Technik. Der entscheidende Schwachpunkt sind die Daten. Schleicht sich im digitalisierten Prozess eine Null zu viel ein oder fehlen wichtige Angaben, hat der gesunde Menschenverstand keine Chance mehr einzugreifen. Diese Schwäche lässt sich nur mit…

Nachhaltiges Datenqualitätsmanagement – einfacher als gedacht

In langfristig genutzte Wertobjekte wie eine Maschine, ein Fahrzeug oder ein Gebäude  investieren wir regelmäßig, um ihre Qualität und Funktionalität zu erhalten. Ohne permanente Wartung ist der schnelle Wertverlust absehbar. Das gilt auch für die Daten in Unternehmen und Organisationen. Vor allem die Stammdaten sind »langlebige Wertobjekte«, die permanent gepflegt werden müssen.

Wie hohe Datenqualität die elektronische Rechnungsverarbeitung befeuert

Als Unternehmen ist es immer gut, Freiräume zu schaffen, um sich auf komplexe Sachverhalte sowie auf die eigenen Stärken fokussieren zu können. Das gelingt oft besser, wenn administrative Tätigkeiten wie die Rechnungserfassung und -prüfung an externe Dienstleister ausgelagert werden. Kein Wunder, dass Outsourcing in Deutschland nach wie vor gefragt ist: Laut einer aktuellen Axxcon-Studie [1]…

BI-Trends 2019: Business Intelligence braucht ausreichende Datenqualität

Top-Thema ist weiterhin Stammdaten- und Datenqualitätsmanagement, gefolgt von Data Discovery, Self-Service Business Intelligence und Data Governance.   Der Markt für Business Intelligence (BI) und Datenmanagement unterliegt einem ständigen Wandel. Neue Trends haben besonders starken Einfluss auf die Art und Weise, wie Unternehmen arbeiten, interagieren, kommunizieren, kollaborieren und sich selbst wirtschaftlich nachhaltig aufstellen. Der BARC BI…

Digitalisierung im Rechnungswesen führt zu höherer Datenqualität und schnellerem Reporting

Bei Unternehmen, die im Rechnungswesen auf digitale Lösungen setzen, verbessern sich häufig Datenqualität und -konsistenz. Zudem erhöht sich meist die Schnelligkeit im Reporting. Überraschend wenige Unternehmen setzen derzeitig im Rechnungswesen schon auf Cloud-Lösungen. Das sind wesentliche Erkenntnisse aus einer gemeinsamen Umfrage von KPMG und der Ludwig-Maximilians-Universität München unter knapp 150 deutschen Unternehmen zur Digitalisierung im…

Studie: Hohe Datenqualität beschleunigt Applikationsentwicklung

Schlechte Brauchbarkeit von Testdaten verzögert Veröffentlichung von Software. Jedes siebte Release ist fehlerhaft. Die internationale Studie »State of Test Data Management« kommt zu dem Ergebnis, dass eine hohe Datenqualität essenziell für eine schnelle Anwendungsentwicklung ist. Die Befragung von Delphix zeigt auch: Unternehmen wollen mehr Daten für eine größere Anzahl an Teams bereitstellen. Das führt in…

Hohe Stammdatenqualität kritischer Erfolgsfaktor für digitale Geschäftsmodelle

Unternehmen drohen an der digitalen Transformation zu scheitern. Zahlreiche Unternehmen in Deutschland sind aktuell für die Herausforderungen der digitalen Transformation nicht in ausreichendem Maße gerüstet. Nur etwa jedes siebte Unternehmen sieht sich bei dem dafür wichtigen Fundament Stammdatenmanagement gut aufgestellt. 85 Prozent stufen sich hier als »mittelmäßig« oder gar als »schlecht« ein. Zu diesem Ergebnis…

Ohne hohe Stammdatenqualität keine erfolgreiche digitale Transformation

Datenqualität nimmt großen Einfluss auf Digitalisierungserfolg. Bei Strukturen und Prozessen zur Verwaltung der Stammdaten besteht sehr hoher Optimierungsbedarf. Fachbereiche dürfen Verantwortung für Stammdaten insbesondere bei Digitalisierungsprojekten nicht an IT abgeben. Ist wirkungsvolles Stammdatenmanagement eine oftmals unterschätzte Herausforderung für die moderne Unternehmensführung? Dieser Frage ist das Marktforschungs- und Beratungsunternehmen Lünendonk in der aktuellen Studie »Revival der…

CRM und die Datenqualität – Erfolgsfaktor für Vertrieb und Marketing

Für eine umfassende Kundenbetreuung muss man seine Kunden genau kennen – die vorhandenen Informationen bilden die Basis für kundenorientiertes Handeln. Doch was ist wichtig und wie sieht eine fundierte Datenbasis aus? Wie pflege ich sie und welche Vorteile bietet sie mir konkret in der täglichen Arbeit mit Kundendaten?

Fünf Best Practices für eine bessere Datenqualität

Ohne eine optimale Datenqualität kommt es zu Abweichungen oder Fehlern in zentralen Geschäftsprozessen und strategische Big-Data-Analytics-Projekte sind zum Scheitern verurteilt. Eine Korrektur lässt sich nur durch ein systematisches und im idealen Fall unternehmensweites Vorgehen erzielen. Ziel einer Qualitätssteigerung ist es, die relevanten Daten aus den unterschiedlichen Quellen möglichst effizient zur Optimierung von Entscheidungs- und Geschäftsprozessen…

Kontextbasierte Datenanalyse – Datenqualität: Erfolgsfaktor in der Digitalwirtschaft

Kontextbasierte Datenanalyse

Same-Day Delivery ist ein aktueller Trend im E-Commerce. Amazon bietet seit einiger Zeit in zehn US-Großstädten die Zustellung von Online-Bestellungen noch am gleichen Tag an. Es ist nur eine Frage der Zeit, bis der Trend auch in Europa ankommt. Doch zum Erfolg wird die Blitzlieferung nur mit hoher Datenqualität, aber in vielen Unternehmen mangelt es daran.

Daten sammeln mit System: Das Software-Tool MIOvantage ermöglicht eine effiziente Datenqualitätsanalyse

Noch vor wenigen Jahren galt das Sammeln von möglichst vielen Daten als zentraler Erfolgsfaktor. Inzwischen ist ein weiterer Faktor hinzugekommen: Sondierungseffizienz. Die Fähigkeit, große Datenmengen schnell und systematisch sondieren und analysieren zu können, ist heute mindestens ebenso wichtig wie der Zugang zu den Daten selbst. Mit dem Software-Tool MIOvantage steht Unternehmen jetzt ein sehr leistungsfähiges Werkzeug für das schnelle Inspizieren von Rohdaten bzw. für die Kontextstrukturierung von Massendaten zur Verfügung.

Fünf Hürden auf dem Weg zu einer erfolgreichen Data Governance

An einer umfassenden Data-Governance-Strategie führt heute kaum noch ein Weg vorbei – da sind sich die meisten modernen Unternehmen einig. Dass viele von ihnen aber noch weit von der tatsächlichen Umsetzung entfernt sind, belegt jetzt eine Dataversity-Studie aus dem Jahr 2020. Nur zwölf Prozent der befragten Unternehmen gaben hier an, eine entsprechende Strategie bereits vollständig…

Privileged Access Management: Worauf man bei einer zukunftsfähigen PAM-Lösung achten sollte

Bevor es Privileged Access Management (PAM) gab, konnte man leicht den Eindruck gewinnen, dass praktisch jeder die Möglichkeit hatte auf privilegierte Konten zuzugreifen. Dabei wurde kaum darauf geachtet, wer wann auf was zugreift und welche Aktivitäten mit den betreffenden Zugriffsberechtigungen verbunden sind. Mit der steigenden Zahl von Datenschutzverletzungen und hinreichend komplexen Compliance-Vorgaben wurde schnell klar,…

Fünf Maßnahmen zum Schutz vor Social-Engineering-Attacken

Social Engineering gehört aktuell zu den zentralen Bedrohungen für die IT-Sicherheit. Die kürzliche Attacke auf Twitter hat es erneut deutlich gezeigt. Sicherheitsexperte CyberArk nennt fünf einfache Maßnahmen, die die Social-Engineering-Gefahr deutlich reduzieren. Die Hackerattacke auf Twitter, von der unter anderem Präsidentschaftskandidat Joe Biden, Ex-Präsident Barack Obama oder Amazon-Chef Jeff Bezos betroffen waren, zählt zu den…

Digitalisierung im Baugewerbe: Wo Aktenberge schrumpfen, wächst die Produktivität

Nicht nur städtebauliche Großprojekte dauern in Deutschland mitunter länger als geplant. Auch kleinere Bauvorhaben verzögern sich durch wandelnde Anforderungen im Projektverlauf und das aufwändige Datenhandling. Die Einführung digitaler Prozesse kann die Produktivität deutlich erhöhen: Bewährt haben sich hier moderne Dokumentenmanagementlösungen. »Sie lassen nicht nur Aktenberge auf Taschenformat schrumpfen und erleichtern Projektsteuerung und Dokumentation selbst hochkomplexer…

Die digitale Transformation erfordert Mut zum Umdenken

Der Bitkom erklärt in seinem aktuellen Positionspapier: »Digitalisierung erfordert Haltung!« Diesen Weckruf begrüßt Carsten Rust von Pegasystems. Seiner Meinung nach ist es notwendiger als jemals zuvor, Unternehmen wachzurütteln und die Diskussion rund um das Thema Digitalisierung anzufachen. Denn deutsche Unternehmen investieren immer noch zu zögerlich in notwendige Veränderungen.   Eine Studie des Bitkom belegt diese…