{"id":63006,"date":"2020-10-12T00:00:00","date_gmt":"2020-10-12T04:00:00","guid":{"rendered":"https:\/\/dataladder.com\/die-angst-vor-doppelten-daten-ein-leitfaden-zur-datendeduplizierung\/"},"modified":"2022-04-14T11:11:02","modified_gmt":"2022-04-14T11:11:02","slug":"die-angst-vor-doppelten-daten-ein-leitfaden-zur-datendeduplizierung","status":"publish","type":"post","link":"https:\/\/dataladder.com\/de\/die-angst-vor-doppelten-daten-ein-leitfaden-zur-datendeduplizierung\/","title":{"rendered":"Die Angst vor doppelten Daten &#8211; Ein Leitfaden zur Datendeduplizierung"},"content":{"rendered":"<p>Doppelte Daten sind ein ernsthaftes Problem, das den Einblick in ein Unternehmen beeintr\u00e4chtigt, teuren Speicherplatz verschlingt, Kundeninformationen durcheinander bringt und das Unternehmen zu fehlerhaften Entscheidungen verleitet. IT-Manager, Datenanalysten und Gesch\u00e4ftsanwender sind sich der Duplikate bewusst &#8211; sie haben jedes Mal damit zu tun, wenn sie Daten f\u00fcr ein Projekt extrahieren, aber eine unternehmensweite Auswirkung ist erst dann zu sp\u00fcren, wenn doppelte und unsaubere Daten die Ursache f\u00fcr eine ins Stocken geratene oder gescheiterte Gesch\u00e4ftsinitiative sind.<\/p>\n<p>Der Prozess der Entfernung von Duplikaten wird als Datendeduplizierung bezeichnet, und das Ziel besteht darin, <em>zu verhindern, dass sich ein Problem mit doppelten Daten <\/em>zu einer<strong> Krise entwickelt. <\/strong><\/p>\n<p>In diesem Leitfaden behandle ich Themen wie:<\/p>\n<ul>\n<li>Die wahre Bedeutung von Datenduplikaten und deren Typen<\/li>\n<li>Einige h\u00e4ufige Ursachen f\u00fcr doppelte Datens\u00e4tze<\/li>\n<li>Herausforderungen bei der Bereinigung\/Entfernung von Duplikaten<\/li>\n<li>Was ist Datendeduplizierung und wie funktioniert sie?<\/li>\n<li>Gibt es eine einfachere M\u00f6glichkeit, Daten zu dedizieren?<\/li>\n<li>Wie DataMatch Enterprise hilft<\/li>\n<\/ul>\n<p>Fangen wir gleich damit an.<\/p>\n<h2>Doppelte Daten, ihre Arten und Gr\u00fcnde f\u00fcr ihr Auftreten<\/h2>\n<p>Die einfache Definition: Eine Kopie eines Originaldatensatzes ist ein Duplikat. Wenn das der Fall w\u00e4re, w\u00e4re die Aufl\u00f6sung von Duplikaten nie ein Problem gewesen.<\/p>\n<p>Doppelte Daten sind viel komplexer, als wir uns vorstellen k\u00f6nnen. Im Folgenden finden Sie einige Arten und relevante Beispiele, die Ihnen helfen, das Ausma\u00df von Problemen mit doppelten Daten zu verstehen.<\/p>\n<h3>Typ 1: Exakte Duplikate in derselben Quelle<\/h3>\n<p>Dies ist auf Fehler bei der Dateneingabe zur\u00fcckzuf\u00fchren, z. B. durch Kopieren\/Einf\u00fcgen von Informationen aus einer Quelle in eine andere. Wenn Sie beispielsweise Informationen aus einem Marketing-Tool eines Drittanbieters in das CRM-System kopieren, kann es sein, dass Sie dieselben Informationen doppelt erfassen. Exakte Duplikate sind leicht zu erkennen.<\/p>\n<p><strong>Beispiel: <\/strong><\/p>\n<p><strong>CRM-Datensatz Zeile 1 und Zeile 5 enthalten Duplikate, wobei der letzte Datensatz einen zus\u00e4tzlichen Buchstaben im Vornamen enth\u00e4lt.<\/strong><\/p>\n<p><img class=\"aligncenter wp-image-57001 size-large\" src=\"https:\/\/dataladder.com\/wp-content\/uploads\/2020\/10\/DL-_Table-1-1024x266.png\" alt=\"\" width=\"1024\" height=\"266\" srcset=\"https:\/\/dataladder.com\/wp-content\/uploads\/2020\/10\/DL-_Table-1-1024x266.png 1024w, https:\/\/dataladder.com\/wp-content\/uploads\/2020\/10\/DL-_Table-1-300x78.png 300w, https:\/\/dataladder.com\/wp-content\/uploads\/2020\/10\/DL-_Table-1-768x199.png 768w, https:\/\/dataladder.com\/wp-content\/uploads\/2020\/10\/DL-_Table-1-1536x398.png 1536w, https:\/\/dataladder.com\/wp-content\/uploads\/2020\/10\/DL-_Table-1.png 1804w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><\/p>\n<p>Beachten Sie, dass die letzte Zeile ebenfalls einen versehentlichen Tippfehler enth\u00e4lt. Der Vorname lautet <strong>Mary S<\/strong>., statt Mary.<\/p>\n<h3>Typ 2: Exakte Duplikate in mehreren Quellen<\/h3>\n<p>Die Datensicherung ist h\u00e4ufig die Hauptursache f\u00fcr exakte Duplikate in mehreren Quellen. Unternehmen sind oft nicht gewillt, Daten zu l\u00f6schen, weshalb sie dazu neigen, Listen in verschiedenen Formaten und Quellen zu speichern. Die lokalen Ordner des Unternehmens k\u00f6nnen beispielsweise eine veraltete Excel-Tabelle mit Datens\u00e4tzen enthalten, die erstellt wurden, als das Unternehmen versuchte, eine Datenquelle vom ERP zu einem CRM zu migrieren. Im Laufe der Zeit verursachen die Kopien dieser Daten erhebliche Probleme mit dem Plattenspeicher und der Systemleistung. Einer der wichtigsten Beweggr\u00fcnde f\u00fcr IT-Anwender, Daten zu dedizieren, ist die Freigabe von Speicherplatz!<\/p>\n<p><strong>Beispiel: <\/strong><\/p>\n<p><strong>Exakte Duplikate in CRM und Unternehmensdatenbank. Beachten Sie, dass sich die Struktur der Datenbank von derjenigen des CRM unterscheidet. Wenn Daten vom CRM in die Datenbank verschoben werden, k\u00f6nnen diese Probleme auftreten, was zu ungenauen und doppelten Daten f\u00fchrt, die schwer zu erkennen sind. <\/strong><\/p>\n<p><strong><u>CRM-Daten: <\/u><\/strong><\/p>\n<p><img class=\"aligncenter wp-image-57001 size-large\" src=\"https:\/\/dataladder.com\/wp-content\/uploads\/2020\/10\/DL-_Table-1-1024x266.png\" alt=\"\" width=\"1024\" height=\"266\" srcset=\"https:\/\/dataladder.com\/wp-content\/uploads\/2020\/10\/DL-_Table-1-1024x266.png 1024w, https:\/\/dataladder.com\/wp-content\/uploads\/2020\/10\/DL-_Table-1-300x78.png 300w, https:\/\/dataladder.com\/wp-content\/uploads\/2020\/10\/DL-_Table-1-768x199.png 768w, https:\/\/dataladder.com\/wp-content\/uploads\/2020\/10\/DL-_Table-1-1536x398.png 1536w, https:\/\/dataladder.com\/wp-content\/uploads\/2020\/10\/DL-_Table-1.png 1804w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><\/p>\n<p><strong><u>Unternehmensdatenbank: <\/u><\/strong><\/p>\n<p><img class=\"aligncenter wp-image-57017 size-large\" src=\"https:\/\/dataladder.com\/wp-content\/uploads\/2020\/10\/DL-_Table-2-1024x261.png\" alt=\"\" width=\"1024\" height=\"261\" srcset=\"https:\/\/dataladder.com\/wp-content\/uploads\/2020\/10\/DL-_Table-2-1024x261.png 1024w, https:\/\/dataladder.com\/wp-content\/uploads\/2020\/10\/DL-_Table-2-300x76.png 300w, https:\/\/dataladder.com\/wp-content\/uploads\/2020\/10\/DL-_Table-2-768x195.png 768w, https:\/\/dataladder.com\/wp-content\/uploads\/2020\/10\/DL-_Table-2-1536x391.png 1536w, https:\/\/dataladder.com\/wp-content\/uploads\/2020\/10\/DL-_Table-2.png 1804w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><\/p>\n<h3>Typ 3: Duplikate mit variierenden Informationen in mehreren Quellen<\/h3>\n<p>In diesem Fall werden unterschiedliche Informationen desselben Benutzers in mehreren Quellen gespeichert. Dies geschieht, wenn die Entit\u00e4t aufgrund einer neuen E-Mail-ID, einer neuen Adresse oder einer neuen Berufsbezeichnung als neuer Eintrag erfasst wird.<\/p>\n<p><strong>Beispiel: <\/strong><\/p>\n<p><strong>Nehmen wir das obige Beispiel mit aktualisierten Informationen. <\/strong><\/p>\n<p><strong><u>CRM-Daten:<\/u><\/strong><\/p>\n<p><img class=\"aligncenter wp-image-57005 size-large\" src=\"https:\/\/dataladder.com\/wp-content\/uploads\/2020\/10\/DL-_Table-3-1024x273.png\" alt=\"\" width=\"1024\" height=\"273\" srcset=\"https:\/\/dataladder.com\/wp-content\/uploads\/2020\/10\/DL-_Table-3-1024x273.png 1024w, https:\/\/dataladder.com\/wp-content\/uploads\/2020\/10\/DL-_Table-3-300x80.png 300w, https:\/\/dataladder.com\/wp-content\/uploads\/2020\/10\/DL-_Table-3-768x205.png 768w, https:\/\/dataladder.com\/wp-content\/uploads\/2020\/10\/DL-_Table-3-1536x410.png 1536w, https:\/\/dataladder.com\/wp-content\/uploads\/2020\/10\/DL-_Table-3-2048x547.png 2048w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><\/p>\n<p><img class=\"aligncenter wp-image-57009 size-large\" src=\"https:\/\/dataladder.com\/wp-content\/uploads\/2020\/10\/DL-_Table-4-1024x242.png\" alt=\"\" width=\"1024\" height=\"242\" srcset=\"https:\/\/dataladder.com\/wp-content\/uploads\/2020\/10\/DL-_Table-4-1024x242.png 1024w, https:\/\/dataladder.com\/wp-content\/uploads\/2020\/10\/DL-_Table-4-300x71.png 300w, https:\/\/dataladder.com\/wp-content\/uploads\/2020\/10\/DL-_Table-4-768x182.png 768w, https:\/\/dataladder.com\/wp-content\/uploads\/2020\/10\/DL-_Table-4-1536x363.png 1536w, https:\/\/dataladder.com\/wp-content\/uploads\/2020\/10\/DL-_Table-4-2048x484.png 2048w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><\/p>\n<p>Im ersten Fall k\u00f6nnte es sich bei Maria um eine alte Kundin handeln, deren Daten in der Datenbank des Unternehmens gespeichert, aber nie aktualisiert wurden. Im CRM sind die Informationen neu. Angenommen, das Unternehmen m\u00f6chte seine Datenbank aktualisieren, dann ist der Datensatz von Frau Mary Sue ein Duplikat. Wenn Unternehmen \u00fcber mehrere unterschiedliche Datenquellen verf\u00fcgen und jede dieser Quellen Informationen auf unterschiedliche Weise speichert, kommt es h\u00e4ufig zu Duplikaten dieser Art.<\/p>\n<h3>Typ 4: Nicht exakte Duplikate<\/h3>\n<p>Dies ist das h\u00e4ufigste Problem und auch das am schwierigsten zu l\u00f6sende. Dies ist der Fall, wenn die Informationen eines Unternehmens auf mehrere Arten geschrieben werden.<\/p>\n<p>Angenommen, der vollst\u00e4ndige Name von Mary Sue lautet Mary Susan Sue, so werden ihre Daten in mehreren Datens\u00e4tzen eingegeben.<\/p>\n<p><strong>CRM: <\/strong>Mary J. Sue<\/p>\n<p><strong>Marketingunterlagen: <\/strong>Mary Jane<\/p>\n<p><strong>Versehentliches Eintippen einer Abk\u00fcrzung durch einen Handelsvertreter in einem Abteilungsdatensatz: <\/strong>MJ Sue.<\/p>\n<p>Nehmen wir einmal an, Mary Jane Sue ist \u00c4rztin. In einigen Datens\u00e4tzen wird ihr Titel Frau, in anderen Frau Dr. lauten. Wenn die Dateneingabevorschriften der Organisation nur Frau\/Frau\/Herr zulassen, kann ihr Titel Frau Dr. nicht hinzugef\u00fcgt werden!<\/p>\n<p>Was w\u00e4re, wenn sie innerhalb von zwei Jahren zweimal ihre Telefonnummer, E-Mail-Adresse oder ihren Arbeitsplatz gewechselt hat? Und jedes Mal, wenn sie mit dem Unternehmen Gesch\u00e4fte macht, wird sie als neuer Kunde registriert.<\/p>\n<h2>Ursachen f\u00fcr Duplikate<\/h2>\n<p>Duplikate wie Typ 3 und 4 sind mit exakten <a href=\"https:\/\/dataladder.com\/de\/datenabgleichssoftware-als-best-in-class-mit-96-match-genauigkeit-bewertet\/\">Datenabgleichstechniken<\/a>, die darauf angewiesen sind, dass die Felder exakte Werte haben, nicht leicht zu erkennen. Selbst wenn Sie eine Strategie zur Datendeduplizierung haben, werden Duplikate auftreten.<\/p>\n<p>Hier sind einige Gr\u00fcnde daf\u00fcr:<\/p>\n<p><strong>\u00dcberschneidungen aufgrund von Fusionen und \u00dcbernahmen <\/strong><\/p>\n<p>Wenn Unternehmen <a href=\"https:\/\/dataladder.com\/de\/merge-purge-software-integrierte-und-benutzerdefinierte-ueberlebensregeln-verwenden\/\">Daten<\/a> aus mehreren Quellen <a href=\"https:\/\/dataladder.com\/de\/merge-purge-software-integrierte-und-benutzerdefinierte-ueberlebensregeln-verwenden\/\">zusammenf\u00fchren<\/a>, um eine umfangreiche Migration durchzuf\u00fchren, wird das Ausma\u00df der Duplizierung gef\u00e4hrlich kompliziert. Die Datenstruktur der beiden Unternehmen kann sich unterscheiden, auch wenn sie dieselben Kundeninformationen haben.<\/p>\n<p>Ein Microsoft-Nutzer ist zum Beispiel auch ein LinkedIn-Nutzer, und beide Plattformen k\u00f6nnen fast die gleichen individuellen Daten haben. Daher k\u00f6nnen Duplikate auf einer tieferen Ebene auftreten, wenn die Unternehmen ihre Daten ohne eine solide Datenqualit\u00e4tsstrategie zusammenf\u00fchren, die <a href=\"https:\/\/dataladder.com\/de\/ein-kurzleitfaden-fuer-datenaufbereitungssoftware-loesungen-und-bewaehrte-verfahren\/\">Datenaufbereitung<\/a>, <a href=\"https:\/\/dataladder.com\/de\/datenbereinigungssoftware-schnelles-und-kostenguenstiges-crm-datenbereinigungstool\/\">Datenbereinigung<\/a>, Datenkonsolidierung und Datendeduplizierung umfasst.<\/p>\n<p><strong>Schlechte Dateneingabeprozesse und fehlende Data Governance <\/strong><\/p>\n<p>Unternehmen, die keine strengen Data-Governance-Richtlinien einf\u00fchren oder keine strategischen Datenqualit\u00e4tssysteme einsetzen, haben oft schmutzige, doppelte Daten.<\/p>\n<p>Es ist nicht ungew\u00f6hnlich, dass mehrere Mitglieder eines Teams auf das CRM zugreifen und Daten nach Belieben eingeben\/bearbeiten\/anpassen. Das bedeutet, dass es keine Rechenschaftspflicht oder R\u00fcckverfolgbarkeit gibt, keinen Hinweis darauf, wer f\u00fcr die korrekte Dateneingabe verantwortlich ist, und keine Richtlinien f\u00fcr die korrekte Dateneingabe.<\/p>\n<p>All dies f\u00fchrt zu Problemen wie doppelten oder mehrfachen Eintr\u00e4gen f\u00fcr einen einzigen Datensatz, die keine Genauigkeit garantieren. Wenn die Daten f\u00fcr Einblicke oder Berichte verwendet werden sollen, muss sich die verantwortliche Person den Kopf zerbrechen, um aus all den Daten einen Sinn zu machen. Schlechte Praktiken bei der Dateneingabe haben schwerwiegende Auswirkungen auf nachgelagerte Anwendungen, die sich auf die Ineffizienz auswirken und auch die Hauptursache f\u00fcr Konflikte zwischen Abteilungen sind.<\/p>\n<p><strong>Daten von Drittanbietern und Integrationen mit Partnerportalen <\/strong><\/p>\n<p>Daten von Drittanbietern, z. B. von Partnerportalen, Netzwerken oder Communities, oder auch von Website-Registrierungsformularen f\u00fchren zu einer erheblichen Anzahl von Duplikaten. Oftmals k\u00f6nnen Personen, die ein Formular ausf\u00fcllen, mehrere E-Mail-IDs oder Telefonnummern verwenden, was zu mehreren Eintr\u00e4gen einer Person f\u00fchrt. Andererseits k\u00f6nnen externe Daten eine andere Version derselben Entit\u00e4t enthalten, aber dieselben Informationen werden in den bestehenden Datens\u00e4tzen nicht aktualisiert und stattdessen wird ein neuer Datensatz erstellt. W\u00e4hrend dies zu diesem Zeitpunkt kein Problem zu sein scheint, f\u00fchrt es sp\u00e4ter zu verzerrten Analysen.<\/p>\n<p>So kann ein Unternehmen beispielsweise glauben, mit einer Kampagne 100 Leads gewonnen zu haben. Da die Eintr\u00e4ge jedoch dupliziert wurden, handelt es sich m\u00f6glicherweise nur um 60 g\u00fcltige Leads, w\u00e4hrend die restlichen 40 entweder unvollst\u00e4ndig, dupliziert oder ungenau sind.<\/p>\n<p><strong>Angenommen, jede Spur ist $100 x 40 = $4K wert. <\/strong><\/p>\n<p><strong>Angenommen, die Kosten f\u00fcr jedes Blei betragen 50 $ x 40 = 2K<\/strong><\/p>\n<p><strong>Verlust: $6k insgesamt! <\/strong><\/p>\n<p><strong>Software-Bugs und Systemfehler <\/strong><\/p>\n<p>Software-Bugs und Verwaltungs- oder Systemfehler im CRM und in den damit verbundenen Anwendungen k\u00f6nnen zu Tausenden von doppelten Datens\u00e4tzen f\u00fchren. Dies kommt h\u00e4ufig bei System- oder Datenmigrationen vor und kann zwar behoben werden, stellt aber eine ernsthafte Herausforderung f\u00fcr die Datenqualit\u00e4t dar.<\/p>\n<p>Jede Datenquelle enth\u00e4lt einen gewissen Anteil an doppelten Daten. Experten halten bis zu 5 % Doppelungen f\u00fcr tolerierbar. Alles, was dar\u00fcber hinausgeht, stellt eine Gefahr f\u00fcr nachgelagerte Anwendungen dar. Berichte werden irref\u00fchrend. Die Kunden sind ver\u00e4rgert. Nutzer und Mitarbeiter werden frustriert. Dem CIO zufolge k\u00f6nnen &#8222;Systeme mit <a href=\"https:\/\/www.cio.com\/article\/2382113\/how-to-solve-crm-data-deduplication-dilemmas.html\" rel=\"nofollow\">25 % doppelten Datens\u00e4tzen<\/a> <strong>Karrieren gef\u00e4hrden <\/strong>&#8220; <strong>. <\/strong><\/p>\n<p><strong>Laut Natik Ameen, Marketingexperte bei <a href=\"https:\/\/www.canzmarketing.com\/\" rel=\"nofollow\">Canz Marketing<\/a>, sind doppelte Daten im CRM des Unternehmens auf eine Reihe von Gr\u00fcnden zur\u00fcckzuf\u00fchren.<\/strong><em>von menschlichem Versagen bis hin zu Kunden, die zu unterschiedlichen Zeitpunkten leicht abweichende Informationen in die Unternehmensdatenbank eingeben. Ein Verbraucher gibt beispielsweise auf einem Formular seinen Namen als Jonathan Smith und auf dem anderen als Jon Smith an. Die Herausforderung wird durch eine wachsende Datenbank noch versch\u00e4rft. F\u00fcr Administratoren wird es immer schwieriger, den \u00dcberblick \u00fcber die DB zu behalten und die relevanten Daten zu erfassen. Es wird immer schwieriger, sicherzustellen, dass die DB der Organisation korrekt bleibt.<\/em>&#8218;.<\/p>\n<p>Sie ben\u00f6tigen eine Strategie zur Datendeduplizierung, um das Problem der doppelten Daten zu l\u00f6sen.<\/p>\n<h2>Was ist Daten-Deduplizierung und wie funktioniert sie?<\/h2>\n<p>Bei der Datendeduplizierung werden Duplikate verglichen, abgeglichen und entfernt, um einen konsolidierten Datensatz zu erstellen. Die Deduplizierung von Daten erfolgt in drei Schritten:<\/p>\n<p><strong>Vergleich und Abgleich: <\/strong>Verschiedene Listen und Datens\u00e4tze werden verglichen und abgeglichen, um exakte und nicht exakte Duplikate zu erkennen. So wird beispielsweise eine CRM-Liste mit einer internen Datenbankliste abgeglichen, um sicherzustellen, dass die gleichen Datens\u00e4tze nicht zweimal in die zentrale Datenbank hochgeladen werden.<\/p>\n<p><strong>Behandlung veralteter Datens\u00e4tze: <\/strong>Veraltete doppelte Datens\u00e4tze werden entweder mit neuen Informationen aktualisiert oder entfernt. In anderen F\u00e4llen werden Daten konsolidiert (wenn ein Datensatz Handles f\u00fcr soziale Medien enth\u00e4lt, der andere aber nicht) und neue Regeln oder Spalten erstellt, um diese zus\u00e4tzlichen Informationen zu speichern.<\/p>\n<p><strong>Erstellen konsolidierter Datens\u00e4tze: <\/strong>Nach dem Entfernen von Duplikaten wird ein konsolidierter Datensatz mit sauberen, aufbereiteten Daten erstellt, der als &#8222;goldener Datensatz&#8220; verwendet werden kann, auf dessen Grundlage bestehende Datens\u00e4tze nachgebildet werden k\u00f6nnen.<\/p>\n<p>Tools wie Excel eignen sich hervorragend zum Entfernen von exakten Duplikaten innerhalb derselben Datenquelle, versagen jedoch bei der Identifizierung \u00e4hnlicher Duplikate.<\/p>\n<p>Wie Sie exakte Duplikate in Excel entfernen k\u00f6nnen, erfahren Sie in dieser Anleitung:<\/p>\n<p><strong><a href=\"https:\/\/www.excel-easy.com\/examples\/remove-duplicates.html\" rel=\"nofollow\">https:\/\/www.excel-easy.com\/examples\/remove-duplicates.html<\/a> <\/strong><\/p>\n<p>Um Duplikate in Python zu entfernen, k\u00f6nnen Sie die Dedupe Library verwenden, um Datens\u00e4tze in Datens\u00e4tzen zu finden, die zur gleichen Entit\u00e4t geh\u00f6ren. Hier finden Sie einen hervorragenden Leitfaden zum Deduplizieren von Daten mit Python:<\/p>\n<p><strong><a href=\"https:\/\/recordlinkage.readthedocs.io\/en\/latest\/notebooks\/data_deduplication.html\" rel=\"nofollow\">https:\/\/recordlinkage.readthedocs.io\/en\/latest\/notebooks\/data_deduplication.html<\/a> <\/strong><\/p>\n<h2>Gibt es eine einfachere M\u00f6glichkeit, Daten zu deduplizieren?<\/h2>\n<p>Python ist zwar leistungsstark, aber zeitaufw\u00e4ndig.<\/p>\n<p>Um beispielsweise einen einfachen Datensatz zwischen zwei Quellen abzugleichen, m\u00fcssen Sie Module laden oder importieren, Datensatzpaare bilden (was an sich schon ein zeitaufw\u00e4ndiger Prozess ist) und dann einen Code zum Vergleich von Datens\u00e4tzen auf Attributsebene erstellen. Sie m\u00fcssen dann jede Instanz des Vergleichs manuell \u00fcberpr\u00fcfen, um festzustellen, welcher Datensatz zu derselben Person geh\u00f6rt.<\/p>\n<p>Dieser Prozess muss f\u00fcr jede neue Anforderung auf Attributsebene ge\u00e4ndert und wiederholt werden.<\/p>\n<p>Wenn Sie als Datenanalyst f\u00fcr die Daten eines Unternehmens verantwortlich sind, k\u00f6nnen Sie <strong>sich <\/strong>nicht <strong>monatelang Zeit nehmen, um Daten abzuziehen. <\/strong><\/p>\n<p>Sie k\u00f6nnen auch nicht riskieren, Daten zu verlieren, was eine reale M\u00f6glichkeit ist, wenn Sie versuchen, verschiedene Codes zu testen, um die richtige \u00dcbereinstimmung zu finden.<\/p>\n<p>Eric McGee, Senior Network Engineer bei <a href=\"https:\/\/www.trgdatacenters.com\/\" rel=\"nofollow\">TRG DataCenters<\/a>, sieht das gr\u00f6\u00dfte Problem beim Bereinigen\/L\u00f6schen von Daten darin, dass bei der Verschlankung von Datenfeldern Daten verloren gehen k\u00f6nnen. Er ist au\u00dferdem der Meinung, dass auf Unternehmensebene die Genauigkeit des Datenabgleichs sehr wichtig werden kann, da sonst die gesamte Praxis wichtige Daten gef\u00e4hrden k\u00f6nnte.<\/p>\n<p>Ein einfacherer Weg, auf den sich jedoch nicht viele Systemingenieure einlassen wollen, ist die Verwendung eines <a href=\"https:\/\/dataladder.com\/de\/datendeduplizierungssoftware-verwenden-sie-integrierte-und-benutzerdefinierte-regeln-fuer-die-crm-deduplizierung\/\">Tools zur Datendeduplizierung<\/a>, insbesondere wenn es nicht Teil ihrer Datenverwaltungsplattform ist. Das Problem ist, dass die meisten Datenverwaltungsplattformen nicht \u00fcber robuste <a href=\"https:\/\/dataladder.com\/de\/8-vorteile-des-datenabgleichs-mit-denen-sie-ihr-geschaeft-ausbauen-koennen\/\">Datenabgleichsfunktionen<\/a> verf\u00fcgen, die den Benutzern bei der Ermittlung von Duplikaten helfen k\u00f6nnen. Analysten und Ingenieure m\u00fcssen die Daten schlie\u00dflich manuell deduplizieren, was eine erhebliche Zeitverschwendung darstellt.<\/p>\n<p>Die besten Tools zur Datendeduplizierung nutzen fortschrittliche <a href=\"https:\/\/dataladder.com\/de\/fuzzy-matching-101-bereinigung-und-verknuepfung-ungeordneter-daten\/\">Fuzzy-Matching-Algorithmen<\/a> und propriet\u00e4re Algorithmen, um Daten auf einer tieferen Ebene abzugleichen &#8211; eine F\u00e4higkeit, die nicht alle Datenmanagementl\u00f6sungen bieten. Aus diesem Grund bevorzugen die meisten Unternehmen und Fortune-500-Kunden, mit denen wir zusammengearbeitet haben, die Verwendung eines Tools wie <a href=\"https:\/\/dataladder.com\/de\/produkte\/datamatch-enterprise-bewertetes-datenqualitaetsmanagementprodukt-nr-1\/\"><br \/>\n<strong>DataMatch Enterprise<\/strong><br \/>\n<\/a> in Verbindung mit ihren Datenmanagement-Plattformen.<\/p>\n<p>Aufgrund seiner einfachen Integrationsf\u00e4higkeit und seiner leistungsstarken Fuzzy-Matching-Algorithmen ist DataMatch Enterprise f\u00fcr die meisten Unternehmen ein bevorzugtes Werkzeug zur Deduktion von Daten innerhalb ihrer Datenbankplattform.<\/p>\n<p>Wenn Sie mehr \u00fcber die Unternehmen erfahren m\u00f6chten, denen wir bei der Datendeduplizierung geholfen haben, besuchen Sie unsere Fallstudien.<\/p>\n<p>Sehen Sie zum Beispiel, wie wir mit der <a href=\"https:\/\/content.dataladder.com\/Bell-Bank-CS.pdf\">Bell Bank<\/a> zusammengearbeitet haben, um Duplikate zu entfernen und Kundendaten aus verschiedenen Quellen zu konsolidieren.<\/p>\n<p>Oder wie <a href=\"https:\/\/content.dataladder.com\/Cleveland-Brothers-Engineering-CS.pdf\">Cleveland Brothers<\/a>, ein globales Einzelhandelsunternehmen, durch die Verwaltung mehrerer Kundenlisten mit DataMatch Enterprise Zeit sparte.<\/p>\n<table style=\"height: 383px; width: 87.8612%; border-collapse: collapse;\">\n<tbody>\n<tr>\n<td style=\"width: 308px;\">\n<p><figure id=\"attachment_56509\" aria-describedby=\"caption-attachment-56509\" style=\"width: 300px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/content.dataladder.com\/Bell-Bank-CS.pdf\"><img class=\"wp-image-56509 size-medium\" src=\"https:\/\/dataladder.com\/wp-content\/uploads\/2020\/10\/DL_Bell-Bank-Case-Study-300x300.png\" alt=\"Bell Bank Case Study\" width=\"300\" height=\"300\" srcset=\"https:\/\/dataladder.com\/wp-content\/uploads\/2020\/10\/DL_Bell-Bank-Case-Study-300x300.png 300w, https:\/\/dataladder.com\/wp-content\/uploads\/2020\/10\/DL_Bell-Bank-Case-Study-150x150.png 150w, https:\/\/dataladder.com\/wp-content\/uploads\/2020\/10\/DL_Bell-Bank-Case-Study.png 760w\" sizes=\"(max-width: 300px) 100vw, 300px\" \/><\/a><figcaption id=\"caption-attachment-56509\" class=\"wp-caption-text\">Fallstudie Bell Bank<\/figcaption><\/figure><\/td>\n<td style=\"width: 308px;\">\n<p><figure id=\"attachment_56889\" aria-describedby=\"caption-attachment-56889\" style=\"width: 300px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/content.dataladder.com\/Cleveland-Brothers-Engineering-CS.pdf\"><img class=\"wp-image-56889 size-medium\" src=\"https:\/\/dataladder.com\/wp-content\/uploads\/2020\/10\/DL_Cleveland-Brothers-Case-Study-300x300.png\" alt=\"Cleveland Case Study\" width=\"300\" height=\"300\" srcset=\"https:\/\/dataladder.com\/wp-content\/uploads\/2020\/10\/DL_Cleveland-Brothers-Case-Study-300x300.png 300w, https:\/\/dataladder.com\/wp-content\/uploads\/2020\/10\/DL_Cleveland-Brothers-Case-Study-150x150.png 150w, https:\/\/dataladder.com\/wp-content\/uploads\/2020\/10\/DL_Cleveland-Brothers-Case-Study.png 760w\" sizes=\"(max-width: 300px) 100vw, 300px\" \/><\/a><figcaption id=\"caption-attachment-56889\" class=\"wp-caption-text\">Fallstudie Cleveland<\/figcaption><\/figure><\/td>\n<\/tr>\n<\/tbody>\n<\/table>\n<h2>Schlussfolgerung &#8211; Entwicklung eines methodischen Ansatzes zur Datendeduplizierung<\/h2>\n<p>In dem Ma\u00dfe, in dem sich die Art der Daten weiterentwickelt, wird auch die Komplexit\u00e4t von Qualit\u00e4tsfragen zunehmen. Duplikate sind mit manuellen Methoden nur schwer zu bew\u00e4ltigen. Die Nachfrage nach Echtzeit-Einblicken wird es unpraktisch machen, wochenlang an einem perfekten Code zu arbeiten. Daher ist es f\u00fcr Unternehmen unerl\u00e4sslich, ihr Arsenal an Datenqualit\u00e4tstools und Verwaltungsplattformen st\u00e4ndig zu aktualisieren, um die Genauigkeit und Integrit\u00e4t der Daten sicherzustellen.<\/p>\n\n","protected":false},"excerpt":{"rendered":"<p>Doppelte Daten sind ein ernsthaftes Problem, das den Einblick in ein Unternehmen beeintr\u00e4chtigt, teuren Speicherplatz verschlingt, Kundeninformationen durcheinander bringt und das Unternehmen zu fehlerhaften Entscheidungen verleitet. IT-Manager, Datenanalysten und Gesch\u00e4ftsanwender sind sich der Duplikate bewusst &#8211; sie haben jedes Mal damit zu tun, wenn sie Daten f\u00fcr ein Projekt extrahieren, aber eine unternehmensweite Auswirkung ist [&hellip;]<\/p>\n","protected":false},"author":9,"featured_media":58357,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_lmt_disableupdate":"","_lmt_disable":"","_links_to":"","_links_to_target":""},"categories":[1245],"tags":[684,685,683,679,682,681],"acf":[],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v19.9 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Die Angst vor doppelten Daten - Ein Leitfaden zur Datendeduplizierung - Data Ladder<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/dataladder.com\/de\/die-angst-vor-doppelten-daten-ein-leitfaden-zur-datendeduplizierung\/\" \/>\n<meta property=\"og:locale\" content=\"de_DE\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Die Angst vor doppelten Daten - Ein Leitfaden zur Datendeduplizierung - Data Ladder\" \/>\n<meta property=\"og:description\" content=\"Doppelte Daten sind ein ernsthaftes Problem, das den Einblick in ein Unternehmen beeintr\u00e4chtigt, teuren Speicherplatz verschlingt, Kundeninformationen durcheinander bringt und das Unternehmen zu fehlerhaften Entscheidungen verleitet. IT-Manager, Datenanalysten und Gesch\u00e4ftsanwender sind sich der Duplikate bewusst &#8211; sie haben jedes Mal damit zu tun, wenn sie Daten f\u00fcr ein Projekt extrahieren, aber eine unternehmensweite Auswirkung ist [&hellip;]\" \/>\n<meta property=\"og:url\" content=\"https:\/\/dataladder.com\/de\/die-angst-vor-doppelten-daten-ein-leitfaden-zur-datendeduplizierung\/\" \/>\n<meta property=\"og:site_name\" content=\"Data Ladder\" \/>\n<meta property=\"article:publisher\" content=\"https:\/\/web.facebook.com\/DataLadderSoftware\" \/>\n<meta property=\"article:published_time\" content=\"2020-10-12T04:00:00+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2022-04-14T11:11:02+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/dataladder.com\/wp-content\/uploads\/2021\/09\/0.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1201\" \/>\n\t<meta property=\"og:image:height\" content=\"1201\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"lbarrera\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Verfasst von\" \/>\n\t<meta name=\"twitter:data1\" content=\"lbarrera\" \/>\n\t<meta name=\"twitter:label2\" content=\"Gesch\u00e4tzte Lesezeit\" \/>\n\t<meta name=\"twitter:data2\" content=\"11 Minuten\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/dataladder.com\/de\/die-angst-vor-doppelten-daten-ein-leitfaden-zur-datendeduplizierung\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/dataladder.com\/de\/die-angst-vor-doppelten-daten-ein-leitfaden-zur-datendeduplizierung\/\"},\"author\":{\"name\":\"lbarrera\",\"@id\":\"https:\/\/dataladder.com\/de\/#\/schema\/person\/6cc3d6b3c83c611546541b5eb2d1e21b\"},\"headline\":\"Die Angst vor doppelten Daten &#8211; Ein Leitfaden zur Datendeduplizierung\",\"datePublished\":\"2020-10-12T04:00:00+00:00\",\"dateModified\":\"2022-04-14T11:11:02+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/dataladder.com\/de\/die-angst-vor-doppelten-daten-ein-leitfaden-zur-datendeduplizierung\/\"},\"wordCount\":2209,\"publisher\":{\"@id\":\"https:\/\/dataladder.com\/de\/#organization\"},\"keywords\":[\"Daten abziehen\",\"Daten duplizieren\",\"Datenvervielf\u00e4ltigung\",\"Fragen der Datenqualit\u00e4t\",\"schlechte Daten\",\"Verschmutzte Daten\"],\"articleSection\":[\"Verwaltung der Datenqualit\u00e4t\"],\"inLanguage\":\"de-DE\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/dataladder.com\/de\/die-angst-vor-doppelten-daten-ein-leitfaden-zur-datendeduplizierung\/\",\"url\":\"https:\/\/dataladder.com\/de\/die-angst-vor-doppelten-daten-ein-leitfaden-zur-datendeduplizierung\/\",\"name\":\"Die Angst vor doppelten Daten - Ein Leitfaden zur Datendeduplizierung - Data Ladder\",\"isPartOf\":{\"@id\":\"https:\/\/dataladder.com\/de\/#website\"},\"datePublished\":\"2020-10-12T04:00:00+00:00\",\"dateModified\":\"2022-04-14T11:11:02+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/dataladder.com\/de\/die-angst-vor-doppelten-daten-ein-leitfaden-zur-datendeduplizierung\/#breadcrumb\"},\"inLanguage\":\"de-DE\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/dataladder.com\/de\/die-angst-vor-doppelten-daten-ein-leitfaden-zur-datendeduplizierung\/\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/dataladder.com\/de\/die-angst-vor-doppelten-daten-ein-leitfaden-zur-datendeduplizierung\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/dataladder.com\/de\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Die Angst vor doppelten Daten &#8211; Ein Leitfaden zur Datendeduplizierung\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/dataladder.com\/de\/#website\",\"url\":\"https:\/\/dataladder.com\/de\/\",\"name\":\"Data Ladder\",\"description\":\"Enterprise Data Profiling, Cleansing, and Matching\",\"publisher\":{\"@id\":\"https:\/\/dataladder.com\/de\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/dataladder.com\/de\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"de-DE\"},{\"@type\":\"Organization\",\"@id\":\"https:\/\/dataladder.com\/de\/#organization\",\"name\":\"Data Ladder\",\"url\":\"https:\/\/dataladder.com\/de\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de-DE\",\"@id\":\"https:\/\/dataladder.com\/de\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/dataladder.com\/wp-content\/uploads\/2018\/06\/DL-Logo-Ball-30.png\",\"contentUrl\":\"https:\/\/dataladder.com\/wp-content\/uploads\/2018\/06\/DL-Logo-Ball-30.png\",\"width\":413,\"height\":408,\"caption\":\"Data Ladder\"},\"image\":{\"@id\":\"https:\/\/dataladder.com\/de\/#\/schema\/logo\/image\/\"},\"sameAs\":[\"https:\/\/www.linkedin.com\/company\/dataladder-llc\/\",\"https:\/\/web.facebook.com\/DataLadderSoftware\"]},{\"@type\":\"Person\",\"@id\":\"https:\/\/dataladder.com\/de\/#\/schema\/person\/6cc3d6b3c83c611546541b5eb2d1e21b\",\"name\":\"lbarrera\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de-DE\",\"@id\":\"https:\/\/dataladder.com\/de\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/5198cb4dd374e7d879a15a9cf20299b3?s=96&d=mm&r=g\",\"contentUrl\":\"https:\/\/secure.gravatar.com\/avatar\/5198cb4dd374e7d879a15a9cf20299b3?s=96&d=mm&r=g\",\"caption\":\"lbarrera\"},\"url\":\"https:\/\/dataladder.com\/de\/author\/lbarrera\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Die Angst vor doppelten Daten - Ein Leitfaden zur Datendeduplizierung - Data Ladder","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/dataladder.com\/de\/die-angst-vor-doppelten-daten-ein-leitfaden-zur-datendeduplizierung\/","og_locale":"de_DE","og_type":"article","og_title":"Die Angst vor doppelten Daten - Ein Leitfaden zur Datendeduplizierung - Data Ladder","og_description":"Doppelte Daten sind ein ernsthaftes Problem, das den Einblick in ein Unternehmen beeintr\u00e4chtigt, teuren Speicherplatz verschlingt, Kundeninformationen durcheinander bringt und das Unternehmen zu fehlerhaften Entscheidungen verleitet. IT-Manager, Datenanalysten und Gesch\u00e4ftsanwender sind sich der Duplikate bewusst &#8211; sie haben jedes Mal damit zu tun, wenn sie Daten f\u00fcr ein Projekt extrahieren, aber eine unternehmensweite Auswirkung ist [&hellip;]","og_url":"https:\/\/dataladder.com\/de\/die-angst-vor-doppelten-daten-ein-leitfaden-zur-datendeduplizierung\/","og_site_name":"Data Ladder","article_publisher":"https:\/\/web.facebook.com\/DataLadderSoftware","article_published_time":"2020-10-12T04:00:00+00:00","article_modified_time":"2022-04-14T11:11:02+00:00","og_image":[{"width":1201,"height":1201,"url":"https:\/\/dataladder.com\/wp-content\/uploads\/2021\/09\/0.jpg","type":"image\/jpeg"}],"author":"lbarrera","twitter_card":"summary_large_image","twitter_misc":{"Verfasst von":"lbarrera","Gesch\u00e4tzte Lesezeit":"11 Minuten"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/dataladder.com\/de\/die-angst-vor-doppelten-daten-ein-leitfaden-zur-datendeduplizierung\/#article","isPartOf":{"@id":"https:\/\/dataladder.com\/de\/die-angst-vor-doppelten-daten-ein-leitfaden-zur-datendeduplizierung\/"},"author":{"name":"lbarrera","@id":"https:\/\/dataladder.com\/de\/#\/schema\/person\/6cc3d6b3c83c611546541b5eb2d1e21b"},"headline":"Die Angst vor doppelten Daten &#8211; Ein Leitfaden zur Datendeduplizierung","datePublished":"2020-10-12T04:00:00+00:00","dateModified":"2022-04-14T11:11:02+00:00","mainEntityOfPage":{"@id":"https:\/\/dataladder.com\/de\/die-angst-vor-doppelten-daten-ein-leitfaden-zur-datendeduplizierung\/"},"wordCount":2209,"publisher":{"@id":"https:\/\/dataladder.com\/de\/#organization"},"keywords":["Daten abziehen","Daten duplizieren","Datenvervielf\u00e4ltigung","Fragen der Datenqualit\u00e4t","schlechte Daten","Verschmutzte Daten"],"articleSection":["Verwaltung der Datenqualit\u00e4t"],"inLanguage":"de-DE"},{"@type":"WebPage","@id":"https:\/\/dataladder.com\/de\/die-angst-vor-doppelten-daten-ein-leitfaden-zur-datendeduplizierung\/","url":"https:\/\/dataladder.com\/de\/die-angst-vor-doppelten-daten-ein-leitfaden-zur-datendeduplizierung\/","name":"Die Angst vor doppelten Daten - Ein Leitfaden zur Datendeduplizierung - Data Ladder","isPartOf":{"@id":"https:\/\/dataladder.com\/de\/#website"},"datePublished":"2020-10-12T04:00:00+00:00","dateModified":"2022-04-14T11:11:02+00:00","breadcrumb":{"@id":"https:\/\/dataladder.com\/de\/die-angst-vor-doppelten-daten-ein-leitfaden-zur-datendeduplizierung\/#breadcrumb"},"inLanguage":"de-DE","potentialAction":[{"@type":"ReadAction","target":["https:\/\/dataladder.com\/de\/die-angst-vor-doppelten-daten-ein-leitfaden-zur-datendeduplizierung\/"]}]},{"@type":"BreadcrumbList","@id":"https:\/\/dataladder.com\/de\/die-angst-vor-doppelten-daten-ein-leitfaden-zur-datendeduplizierung\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/dataladder.com\/de\/"},{"@type":"ListItem","position":2,"name":"Die Angst vor doppelten Daten &#8211; Ein Leitfaden zur Datendeduplizierung"}]},{"@type":"WebSite","@id":"https:\/\/dataladder.com\/de\/#website","url":"https:\/\/dataladder.com\/de\/","name":"Data Ladder","description":"Enterprise Data Profiling, Cleansing, and Matching","publisher":{"@id":"https:\/\/dataladder.com\/de\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/dataladder.com\/de\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"de-DE"},{"@type":"Organization","@id":"https:\/\/dataladder.com\/de\/#organization","name":"Data Ladder","url":"https:\/\/dataladder.com\/de\/","logo":{"@type":"ImageObject","inLanguage":"de-DE","@id":"https:\/\/dataladder.com\/de\/#\/schema\/logo\/image\/","url":"https:\/\/dataladder.com\/wp-content\/uploads\/2018\/06\/DL-Logo-Ball-30.png","contentUrl":"https:\/\/dataladder.com\/wp-content\/uploads\/2018\/06\/DL-Logo-Ball-30.png","width":413,"height":408,"caption":"Data Ladder"},"image":{"@id":"https:\/\/dataladder.com\/de\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/www.linkedin.com\/company\/dataladder-llc\/","https:\/\/web.facebook.com\/DataLadderSoftware"]},{"@type":"Person","@id":"https:\/\/dataladder.com\/de\/#\/schema\/person\/6cc3d6b3c83c611546541b5eb2d1e21b","name":"lbarrera","image":{"@type":"ImageObject","inLanguage":"de-DE","@id":"https:\/\/dataladder.com\/de\/#\/schema\/person\/image\/","url":"https:\/\/secure.gravatar.com\/avatar\/5198cb4dd374e7d879a15a9cf20299b3?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/5198cb4dd374e7d879a15a9cf20299b3?s=96&d=mm&r=g","caption":"lbarrera"},"url":"https:\/\/dataladder.com\/de\/author\/lbarrera\/"}]}},"modified_by":null,"_links":{"self":[{"href":"https:\/\/dataladder.com\/de\/wp-json\/wp\/v2\/posts\/63006"}],"collection":[{"href":"https:\/\/dataladder.com\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/dataladder.com\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/dataladder.com\/de\/wp-json\/wp\/v2\/users\/9"}],"replies":[{"embeddable":true,"href":"https:\/\/dataladder.com\/de\/wp-json\/wp\/v2\/comments?post=63006"}],"version-history":[{"count":2,"href":"https:\/\/dataladder.com\/de\/wp-json\/wp\/v2\/posts\/63006\/revisions"}],"predecessor-version":[{"id":66884,"href":"https:\/\/dataladder.com\/de\/wp-json\/wp\/v2\/posts\/63006\/revisions\/66884"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/dataladder.com\/de\/wp-json\/wp\/v2\/media\/58357"}],"wp:attachment":[{"href":"https:\/\/dataladder.com\/de\/wp-json\/wp\/v2\/media?parent=63006"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/dataladder.com\/de\/wp-json\/wp\/v2\/categories?post=63006"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/dataladder.com\/de\/wp-json\/wp\/v2\/tags?post=63006"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}