Kapitel 1. Achte auf die semantische Lücke
Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com
Unsere Zustimmung oder Nichtzustimmung beruht manchmal auf einem Missverständnis.
Mokokoma Mokhonoana
In der Ära des Big-Data- und KI-Rummels gelten Daten als Goldmine, die auf Organisationen und Unternehmen wartet, die ihr Gold finden und fördern wollen. Ob du das nun Data Science, Data Analytics, Business Intelligence oder etwas anderes nennst, du kannst nicht leugnen, dass die Investitionen in Daten erheblich gestiegen sind und die Nachfrage nach Datenexperten (Ingenieure, Analysten, Wissenschaftler usw.) in die Höhe geschnellt ist.
Schaffen es diese Profis, Gold zu finden? Nun, nicht immer. Manchmal entpuppt sich der große Datenozean, den ein Unternehmen zu haben behauptet, als kleiner Teich. In anderen Fällen sind die Daten zwar da, aber sie enthalten kein Gold, oder zumindest nicht die Art von Gold, die das Unternehmen nutzen kann. Oft ist es auch so, dass sowohl Daten als auch Gold vorhanden sind, aber die Infrastruktur oder Technologie, die für die Gewinnung des Goldes benötigt wird, noch nicht verfügbar oder ausgereift genug ist. Es kann aber auch sein, dass Datenexperten alles haben, was sie sich wünschen (eine Fülle von richtigen Daten, Gold, das gefunden werden muss, und modernste Technologie) und trotzdem fehlschlagen. Der Grund dafür? Die semantische Lücke zwischen dem Datenangebot und der Datenverwertung.
Lass mich das erklären. Als Datenexperten arbeiten viele von uns hauptsächlich auf der Seite der Datenbereitstellung: Wir sammeln und generieren Daten, wir repräsentieren, integrieren, speichern und machen sie durch Datenmodelle zugänglich und bereiten sie für die Nutzung und Verwertung vor. Andere von uns arbeiten hauptsächlich auf der Seite der Datennutzung: Wir nutzen Daten, um prädiktive, deskriptive oder andere Arten von Analyselösungen zu erstellen und KI-Anwendungen zu entwickeln und zu betreiben. Und viele von uns tragen beide Hüte. Wir haben jedoch alle die gleiche Aufgabe: aus Daten einen Nutzen zu ziehen.
Diese Aufgabe wird oft durch das gefährdet, was ich als semantische Lücke bezeichne - eine Situation, die entsteht, wenn die Datenmodelle der Angebotsseite von der Verwertungsseite missverstanden und missbraucht werden und/oder wenn die Datenanforderungen der Verwertungsseite von der Angebotsseite missverstanden werden. In beiden Fällen wird das Problem durch eine unzureichende oder problematische Modellierung der Semantik der Daten verursacht. Dieses Buch soll Praktikern beider Seiten helfen, besser mit semantischen Datenmodellen zu arbeiten und die semantische Lücke zu verkleinern (wenn nicht sogar zu schließen).
Was ist semantische Datenmodellierung?
Die Semantik ist die Lehre von der Bedeutung. Sie befasst sich mit der Beziehung zwischen den Zeichen, die Menschen verwenden, wenn sie mit der Welt interagieren (Wörter, Sätze, Zeichen und Symbole), und den Dingen in dieser Welt, die diese Zeichen bezeichnen (Einheiten, Konzepte, Ideen). Ziel ist es, ein gemeinsames Verständnis für die Bedeutung der Dinge zu schaffen, damit sich die Menschen trotz unterschiedlicher Erfahrungen oder Sichtweisen verstehen. In der Informatik hilft die Semantik Computersystemen dabei, die Bedeutung der Menschen und der von ihnen produzierten Daten genauer zu interpretieren und effizienter und produktiver mit anderen Computersystemen zusammenzuarbeiten.
In diesem Sinne kann die semantische Datenmodellierung als die Entwicklung von Beschreibungen und Darstellungen von Daten definiert werden, deren Bedeutung sowohl für Menschen als auch für Computersysteme eindeutig, genau und allgemein verständlich ist. Diese Definition umfasst eine breite Palette von Datenartefakten, darunter Metadatenschemata, kontrollierte Vokabulare, Taxonomien, Ontologien, Wissensgraphen, Entity-Relationship-Modelle (E-R), Eigenschaftsgraphen und andere konzeptionelle Modelle für die Datendarstellung.
In Abbildung 1-1 siehst du zum Beispiel einen Teil der SNOMED CT Standard Ontologie, ein semantisches Modell, das die Bedeutung zentraler medizinischer Begriffe (wie klinische Befunde, Symptome, Diagnosen, medizinische Verfahren und andere) beschreibt, indem es sie in Konzepten zusammenfasst, sie mit Synonymen und Definitionen versieht und sie durch hierarchische und andere Arten von Beziehungen zueinander in Beziehung setzt [1].
In ähnlicher Weise zeigt Abbildung 1-2 (einen Teil) des Schemas der European Skills, Competences, Qualifications and Occupations (ESCO) Klassifikation, einem mehrsprachigen semantischen Modell, das Konzepte über Berufe, Fähigkeiten und Qualifikationen für den Arbeitsmarktbereich der Europäischen Union definiert und miteinander in Beziehung setzt [2].
Im Allgemeinen ist es nicht einfach, die notwendigen und ausreichenden Kriterien für ein semantisches Datenmodell eindeutig zu definieren, und es gibt in der Datengemeinschaft mehrere Debatten darüber [3] [4]. Ähnlich schwierig und umstritten kann es sein, das genaue Wesen und die definierenden Merkmale bestimmter Arten von semantischen Datenmodellen klar zu definieren (z. B. was genau ist ein Wissensgraph, was ist eine Ontologie und worin bestehen die Unterschiede) [5] [6].
In diesem Buch werde ich mich nicht auf solche Debatten einlassen. Stattdessen werde ich den Begriff semantisches Modell für jede Datendarstellung verwenden, deren Ziel es ist, die Bedeutung von Daten explizit zu machen und von Menschen und Maschinen gemeinsam zu verstehen.
Was ich zumindest für die Zwecke dieses Buches nicht als semantische Modelle bezeichnen werde, sind maschinelle Lernmodelle. Der Grund dafür ist, dass ihr Ziel nicht die Explizitheit von Bedeutung ist. Semantische Modelle bestehen aus symbolischen Darstellungen von Wissen und Denkverhalten, während maschinelle Lernmodelle aus latenten Darstellungen auf der subsymbolischen Ebene bestehen, die keine offensichtliche menschliche Interpretation haben. Letztere zeichnen sich dadurch aus, dass sie Wissen erfassen, das nicht eindeutig ist (z. B. statistische Regelmäßigkeiten und Ähnlichkeiten), während erstere diskrete Fakten erfassen und präzise Identitäten festhalten. Ein maschinelles Lernmodell könnte zum Beispiel die typischen Merkmale lernen, die eine Katze von einem Hund unterscheiden können, wäre aber nicht in der Lage, die Tatsache zu erfassen, dass Leika ein sowjetischer Hund war, der ins All flog.
Das bedeutet nicht, dass semantische Modellierung von Natur aus ein besserer oder schlechterer Ansatz für die Arbeit mit Daten ist als maschinelles Lernen; es bedeutet lediglich, dass die beiden Ansätze unterschiedlich sind. Und genau wegen dieser Unterschiede sollten sie als komplementäre Ansätze für KI und Data Science betrachtet werden und nicht als konkurrierende Ansätze.
Maschinelles Lernen kann dabei helfen, die Entwicklung von semantischen Modellen zu automatisieren, und semantische Modellierung kann die Entwicklung von maschinellen Lernmodellen beschleunigen und verbessern. In diesem Buch geht es zwar in erster Linie um semantische Modellierung, aber es erforscht und unterstützt diese Synergie, indem es zeigt, wie semantische Modellierer Methoden und Werkzeuge des maschinellen Lernens und Praktiker des maschinellen Lernens sinnvoll nutzen können.
Warum ein semantisches Datenmodell entwickeln und verwenden?
Ontologien, Wissensgraphen und andere Arten von semantischen Modellen gibt es schon seit mehreren Jahrzehnten; ihre Beliebtheit hat jedoch vor allem in den letzten Jahren zugenommen . So kündigte Google 2012 an, dass "ihr Wissensgraph die Suche nach Dingen, nicht nach Zeichenketten" [7] ermöglicht und Gartner nahm Wissensgraphen in seinen Hype Cycle 2018 für neue Technologien auf [8]. Neben Google entwickeln und nutzen derzeit viele bekannte Unternehmen wie Amazon [9], LinkedIn [10], Thomson Reuters [11], BBC und IBM [12] semantische Datenmodelle für ihre Produkte und Dienstleistungen.
Ein Grund, warum ein Unternehmen in ein semantisches Datenmodell investieren sollte, ist die Verbesserung der Funktionalität seiner KI- und Data Science-Anwendungen und -Dienste. Auch wenn solche Anwendungen heutzutage (zu Recht) auf maschinellem Lernen und statistischen Techniken basieren, gibt es eine Reihe von Aufgaben, für die der Zugriff auf explizites symbolisches Wissen notwendig und nützlich sein kann.
Ein Beispiel dafür ist Watson, das berühmte Frage-Antwort-System von IBM, das 2011 in der beliebten Quizshow Jeopardy! gegen menschliche Champions antrat und den ersten Platz mit 1 Million Dollar gewann [13]. Die Entwickler von Watson berichten, dass das System zwar hauptsächlich unstrukturierte Informationen analysierte, um die Antworten auf die Fragen zu finden, dass aber einige seiner Komponenten Wissensdatenbanken und Ontologien nutzten, um bestimmte Wissens- und Schlussfolgerungsaufgaben zu lösen [14].
Eine dieser Herausforderungen bestand darin, dass Watson aufgrund der Tatsache, dass viele Fragen zeitliche oder räumliche Beziehungen ausdrückten, feststellen musste, ob die Kandidatenantworten für eine bestimmte Frage zeitlich mit ihr vereinbar waren oder dieselbe räumliche Beziehung enthielten wie die in der Frage gestellte. Um Antworten auszuschließen, die mit der Frage unvereinbar waren (z. B. Personen auszuschließen, wenn nach Ländern gefragt wurde), musste das System wissen, welche Typen sich gegenseitig ausschließen (z. B. dass eine Person nicht auch ein Land sein kann). Diese Art von Wissen wurde Watson über semantische Datenmodelle zur Verfügung gestellt.
Ein weiterer wichtiger Grund, warum Unternehmen ein semantisches Modell benötigen, ist die Standardisierung und Angleichung der Bedeutung von typischerweise heterogenen und in Silos verwalteten Daten, um sie mit Kontext zu versehen und sie besser auffindbar, interoperabel und für Analysen und andere Zwecke nutzbar zu machen [15].
Thomson Reuters, ein Unternehmen für Nachrichten- und Informationsdienste, hat zum Beispiel 2017 einen Wissensgraphen eingeführt, der Daten über Organisationen, Personen, Finanzinstrumente, Kurse, Geschäfte und andere Unternehmen aus mehr als 20.000 verschiedenen Quellen (Inhaltsanalysten, Inhaltspartner und Nachrichtenquellen) integriert [16]. Der Graph sollte Datenermittlungs- und Analysedienste ermöglichen, mit denen die Kunden des Unternehmens die benötigten Daten und Informationen schneller und zuverlässiger zusammenstellen können.
Wenn du ein semantisches Datenmodell für ein bestimmtes Anwendungsszenario erstellst, ist es in jedem Fall sehr wichtig, dass das Modell den Nutzern die Aspekte der Datenbedeutung effektiv vermittelt, die für die effektive Interpretation und Nutzung in diesem Szenario wichtig sind. Wenn das nicht der Fall ist, besteht ein erhebliches Risiko, dass dein Modell nicht oder, noch schlimmer, falsch und mit unerwünschten Folgen genutzt wird. Umgekehrt musst du, wenn du für ein bestimmtes Anwendungsszenario ein semantisches Modell verwendest, das du nicht selbst entwickelt hast, unbedingt sicherstellen, dass die Semantik seiner Daten derjenigen entspricht, die dein Szenario tatsächlich benötigt. Wenn das nicht der Fall ist, kann das unerwünschte Folgen haben. Sehen wir uns an, warum.
Schlechte semantische Modellierung
Um zu sehen, wie problematisch ein semantisches Modell sein kann, sehen wir uns die ESCO-Klassifizierung in Abbildung 1-2 genauer an. Dieses Modell wurde 2017 von der Europäischen Kommission nach sechsjähriger Entwicklungszeit mit dem Ziel veröffentlicht, standardisiertes konzeptionelles Wissen über Berufe, Fähigkeiten und Qualifikationen bereitzustellen, das von Datenwissenschaftlern und Softwareentwicklern für die folgenden Zwecke genutzt werden kann:
-
Semantische Analyse von Arbeitsmarktdaten (Lebensläufe, Stellenangebote, Bildungsprogramme usw.) auf konsistente, standardisierte und allgemein verständliche Weise und in allen Sprachen.
-
Entwickle eine intelligente Software, die Arbeitssuchende und Arbeitsanbieter automatisch zusammenbringt.
-
Ableitung von Arbeitsmarktanalysen, die Arbeitssuchenden, Arbeitgebern, Regierungen und politischen Entscheidungsträgern verwertbare Erkenntnisse liefern können (z. B. ein Land, das den künftigen Qualifikationsbedarf in einer bestimmten Branche vorhersagt und seine Bildungspolitik entsprechend anpasst).
Um dieses Ziel zu erreichen, bietet die ESCO mehrere semantische "Goodies". Zum Beispiel identifiziert und gruppiert es alle Begriffe, die sich auf denselben Beruf, dieselbe Fähigkeit oder dasselbe Qualifikationskonzept beziehen können. Das ist ein sehr nützliches Wissen, denn es kann genutzt werden, um offene Stellen für denselben Beruf zu identifizieren, auch wenn dieser auf viele verschiedene Arten ausgedrückt werden kann. Ebenso nützlich ist das Wissen, das das Modell über die Fähigkeiten liefert, die für einen bestimmten Beruf am wichtigsten sind (siehe essential_for
und optional_for
in Abbildung 1-2). Dieses Wissen kann z. B. von Bildungsanbietern genutzt werden, um Lücken in der Nachfrage und im Angebot bestimmter Fähigkeiten auf dem Markt zu erkennen und ihre Lehrpläne entsprechend zu aktualisieren. Tabelle 1-1 zeigt einige Beispiele für wichtige Fähigkeiten in drei Berufen.
Beruf | Wesentliche Fähigkeiten |
---|---|
Datenwissenschaftler/in |
Data Mining, Datenmodelle, Informationskategorisierung, Informationsextraktion, analytische Online-Verarbeitung, Abfragesprachen, Ressource Description Framework Query Language, Statistik, visuelle Präsentationstechniken |
Wissensingenieur |
Business Intelligence, Geschäftsprozessmodellierung, Datenbankentwicklungstools, Informationsextraktion, Verarbeitung natürlicher Sprache, Prinzipien der künstlichen Intelligenz, Resource Description Framework Query Language, Systementwicklungslebenszyklus, Systemtheorie, Aufgabenalgorithmisierung, Webprogrammierung |
Betreuer der Dateneingabe |
LDAP, LINQ, MDX, N1QL, SPARQL, XQuery, Unternehmensrichtlinien, Datenbank, Dokumentationsarten, Informationsvertraulichkeit, Abfragesprachen, Resource Description Framework Query Language |
Die Modellierer des letztgenannten Wissens in ESCO sind in eine der vielen semantischen Modellierungsfallen getappt, die ich in diesem Buch beschreibe, nämlich subjektives Wissen als objektiv darzustellen und die Nutzer des Modells nicht angemessen über die Unbestimmtheit zu informieren.
Hier ist das Problem: Wenn du hundert verschiedene Fachleute fragst, welche Fähigkeiten für ihren Beruf am wichtigsten sind, wirst du höchstwahrscheinlich hundert verschiedene Antworten erhalten. Noch schlimmer ist es, wenn du versuchst, zwischen wesentlichen und optionalen Fähigkeiten zu unterscheiden, wie es die ESCO tut, dann solltest du dich auf viele Diskussionen und Meinungsverschiedenheiten einstellen. Wirf einfach einen Blick auf Tabelle 1-1 und sieh nach, bei wie vielen wesentlichen Fähigkeiten du zustimmst.
Das Problem ist, dass der Begriff der Unverzichtbarkeit einer Fähigkeit für einen Beruf (in den meisten Fällen) vage ist, d.h. es fehlen klare Anwendungskriterien, die die unverzichtbaren von den nicht unverzichtbaren Fähigkeiten klar unterscheiden. Und ohne solche Kriterien ist es falsch (und potenziell schädlich), die Beziehung essential_for
als objektiv und in allen Kontexten gültig darzustellen.
Stell dir zum Beispiel vor, du entwickelst eine Berufsberatungssoftware, die den Berufswunsch einer Person (z.B. Datenwissenschaftler/in) aufnimmt und ihr sagt, welche Fähigkeiten sie erwerben und/oder verbessern muss, um einen Job in diesem Beruf zu finden. Zu diesem Zweck könntest du direkt die Daten von ESCO nutzen und deinen Nutzern z. B. sagen, dass sie Webprogrammierung lernen müssen, um Wissensingenieure zu werden. Das mag in manchen Kontexten tatsächlich der Fall sein, aber hältst du es für sinnvoll, dies als unumstößliche Tatsache darzustellen, die in allen Kontexten gilt?
Um ESCO gegenüber fair zu sein: Ähnliche Probleme treten in vielen semantischen Datenmodellen auf. Und um den Datenmodellierern gegenüber fair zu sein: Die semantische Modellierung ist schwierig, denn die menschliche Sprache und Wahrnehmung ist voller Mehrdeutigkeit, Vagheit, Ungenauigkeit und anderer Phänomene, die die formale und allgemein akzeptierte Darstellung der Datensemantik zu einer ziemlich schwierigen Aufgabe machen.
In der Praxis besteht die größte Herausforderung beim Aufbau eines guten semantischen Modells darin, das richtige Maß an semantischer Aussagekraft und Klarheit zu finden, das für die Nutzer und Anwendungen von Vorteil ist, ohne dass die Entwicklungs- und Wartungskosten zu hoch sind. Meiner Erfahrung nach neigen Softwareentwickler und Dateningenieure bei der Erstellung von Datenmodellen dazu, die Bedeutung zu wenig zu spezifizieren, während Ontologen, Linguisten und Domänenexperten dazu neigen, sie zu stark zu spezifizieren und über semantische Unterscheidungen zu debattieren, für die sich die Nutzer des Modells vielleicht gar nicht interessieren.Die Aufgabe eines semantischen Modellierers besteht darin, das richtige Gleichgewicht zwischen Bedeutungsexplizitheit und Austauschbarkeit zu finden, das seine Daten, Domänen, Anwendungen und Nutzer brauchen. Diese Aufgabe ist von Fallstricken und Dilemmas bedroht.
Vermeiden von Fallstricken
Ein Fallstrick in der semantischen Modellierung ist eine Situation, in der die Ersteller des Modells eine Entscheidung oder Handlung treffen, die in Bezug auf die Semantik der Daten, die Anforderungen des Modells oder andere Aspekte des Entwicklungsprozesses des Modells eindeutig falsch ist und zu unerwünschten Konsequenzen führt, wenn das Modell verwendet wird. Ein Fallstrick kann auch das Unterlassen einer Handlung sein, die zur Vermeidung solcher Folgen notwendig ist. Das bedeutet aber nicht, dass ein Fallstrick nicht ein Fehler ist, den wir nach Möglichkeit vermeiden sollten. Die oben beschriebene Nichtbehandlung von Unklarheiten durch ESCO mag auf den ersten Blick kein großes Problem sein, aber es ist unbestreitbar ein Risiko, dessen Folgen noch abzuwarten sind.
Wenn man in eine Falle tappt, liegt das nicht immer an der Inkompetenz oder Unerfahrenheit des Modellierers. Häufiger als wir zugeben möchten, tragen die akademischen und industriellen Gemeinschaften, die semantische Modellierungssprachen, -methoden und -werkzeuge entwickeln, auf mindestens drei Arten zu diesem Problem bei:
-
Wir verwenden widersprüchliche oder sogar völlig falsche Terminologie, wenn wir die semantische Modellierung beschreiben und lehren
-
Wir ignorieren einige der Fallstricke oder tun sie als nicht existent oder unbedeutend ab
-
Wir tappen selbst in diese Fallen und produzieren Technologie, Literatur und tatsächliche Modelle, die sie enthalten
Um zu sehen, wie dies tatsächlich geschieht, betrachte die folgenden zwei Auszüge aus zwei verschiedenen semantischen Modellierungsressourcen:
"...OWL-Klassen werden als Mengen interpretiert, die Individuen enthalten... Das Wort Konzept wird manchmal anstelle von Klasse verwendet. Klassen sind eine konkrete Darstellung von Konzepten..."
"Ein [SKOS]-Konzept kann als Idee oder Begriff betrachtet werden; eine Gedankeneinheit...die Konzepte eines Thesaurus oder Klassifikationsschemas werden im SKOS-Datenmodell als Individuen modelliert..."
Der erste Auszug findet sich in einem beliebten Tutorial über Protégé [17], einem Tool, mit dem du semantische Modelle gemäß der Ontology Web Language (OWL) [18] erstellen kannst. Der zweite Auszug stammt aus der Spezifikation des Simple Knowledge Organization System (SKOS) [19], einer Empfehlung des World Wide Web Consortium (W3C), die für die Darstellung von Thesauri, Klassifikationsschemata, Taxonomien und anderen Arten von strukturierten kontrollierten Vokabularen entwickelt wurde.
Ausgehend von diesen Definitionen, was verstehst du unter einem Konzept in einem semantischen Modell? Ist es eine Menge von Dingen, wie es das Protégé-Tutorial vorschlägt, oder eine Gedankeneinheit, wie es SKOS behauptet? Und was solltest du tun, wenn du ein Konzept in OWL modellieren musst, das nicht wirklich eine Menge von Dingen ist? Sollte man es trotzdem zu einer Klasse machen? Wie wir im weiteren Verlauf des Buches sehen werden, ist die Antwort, dass die SKOS-Definition genauer und nützlicher ist und dass die Behauptung "Konzept = Klasse" des OWL-Tutorials bestenfalls irreführend ist und zu mehreren semantischen Modellierungsfehlern führt, die wir im weiteren Verlauf des Buches sehen werden.
Mein Ziel in diesem Buch ist es jedenfalls nicht, Menschen und Gemeinschaften die Schuld für schlechte Ratschläge zur semantischen Modellierung zu geben, sondern dir dabei zu helfen, dich in dieser nicht ganz so glatten Landschaft zurechtzufinden und dir zu zeigen, wie du Fallstricke erkennst und vermeidest, sowohl als Modellersteller als auch als Nutzer.
Dilemmas überwinden
Im Gegensatz zu einem Fallstrick ist ein semantisches Modellierungsdilemma eine Situation, in der die Ersteller des Modells zwischen verschiedenen Handlungsoptionen wählen müssen, von denen jede ihre eigenen Vor- und Nachteile hat und für die es keinen klaren Entscheidungsprozess und keine klaren Kriterien gibt, die anzuwenden sind.
Betrachten wir als Beispiel die Optionen, die die Entwickler von ESCO haben, um die vage essential_for
Beziehung zwischen Berufen und Fähigkeiten zu behandeln. Eine Möglichkeit ist, die Beziehung als "vage" zu kennzeichnen, damit die Nutzer wissen, was sie erwarten können. Eine andere Möglichkeit besteht darin, verschiedene Versionen der Beziehung zu erstellen, die auf unterschiedliche Kontexte anwendbar sind (z. B. verschiedene Länder, Branchen, Nutzergruppen usw.), damit die potenziellen Unstimmigkeiten geringer sind. Dies ist jedoch kostspieliger und schwieriger zu bewerkstelligen. Was würdest du der ESCO also raten zu tun?
In diesem Buch beschreibe ich mehrere Dilemmas, die mit der Entwicklung und Nutzung eines semantischen Modells zusammenhängen, aber ich werde dir keine endgültige und "fachmännische" Lösung für sie geben, weil es so etwas einfach nicht gibt. Um ein semantisches Modellierungsdilemma anzugehen, musst du es wie ein Entscheidungsproblem behandeln, d.h. du musst die alternativen Optionen formulieren und einen Weg finden, sie aus einer Machbarkeits-, Kosten-Nutzen-, strategischen oder anderen Perspektive zu bewerten, die für deine Ziele und deinen Kontext sinnvoll ist. Dazu zeige ich dir, wie du jedes Dilemma als Entscheidungsproblem formulierst und nach welchen Informationen du suchen solltest, um eine Entscheidung zu treffen.
Get Semantische Modellierung für Daten now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.