[{"@context":"http:\/\/schema.org\/","@type":"BlogPosting","@id":"https:\/\/wiki.edu.vn\/wiki15\/2020\/12\/25\/wissensextraktion-wikipedia\/#BlogPosting","mainEntityOfPage":"https:\/\/wiki.edu.vn\/wiki15\/2020\/12\/25\/wissensextraktion-wikipedia\/","headline":"Wissensextraktion – Wikipedia","name":"Wissensextraktion – Wikipedia","description":"before-content-x4 Wissensextraktion ist die Schaffung von Wissen aus strukturierten (relationale Datenbanken, XML) und unstrukturierten (Text, Dokumente, Bilder) Quellen. Das resultierende","datePublished":"2020-12-25","dateModified":"2020-12-25","author":{"@type":"Person","@id":"https:\/\/wiki.edu.vn\/wiki15\/author\/lordneo\/#Person","name":"lordneo","url":"https:\/\/wiki.edu.vn\/wiki15\/author\/lordneo\/","image":{"@type":"ImageObject","@id":"https:\/\/secure.gravatar.com\/avatar\/44a4cee54c4c053e967fe3e7d054edd4?s=96&d=mm&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/44a4cee54c4c053e967fe3e7d054edd4?s=96&d=mm&r=g","height":96,"width":96}},"publisher":{"@type":"Organization","name":"Enzyklop\u00e4die","logo":{"@type":"ImageObject","@id":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","url":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","width":600,"height":60}},"image":{"@type":"ImageObject","@id":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","url":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","width":100,"height":100},"url":"https:\/\/wiki.edu.vn\/wiki15\/2020\/12\/25\/wissensextraktion-wikipedia\/","wordCount":12834,"articleBody":" (adsbygoogle = window.adsbygoogle || []).push({});before-content-x4Wissensextraktion ist die Schaffung von Wissen aus strukturierten (relationale Datenbanken, XML) und unstrukturierten (Text, Dokumente, Bilder) Quellen. Das resultierende Wissen muss in einem maschinenlesbaren und maschineninterpretierbaren Format vorliegen und Wissen auf eine Weise darstellen, die das Ableiten erleichtert. Obwohl es methodisch der Informationsextraktion (NLP) und ETL (Data Warehouse) \u00e4hnlich ist, besteht das Hauptkriterium darin, dass das Extraktionsergebnis \u00fcber die Erstellung strukturierter Informationen oder die Umwandlung in ein relationales Schema hinausgeht. Es erfordert entweder die Wiederverwendung vorhandenen formalen Wissens (Wiederverwendung von Kennungen oder Ontologien) oder die Generierung eines Schemas basierend auf den Quelldaten. Die RDB2RDF W3C-Gruppe [1] standardisiert derzeit eine Sprache zum Extrahieren von Ressourcenbeschreibungs-Frameworks (RDF) aus relationalen Datenbanken. Ein weiteres beliebtes Beispiel f\u00fcr die Extraktion von Wissen ist die Umwandlung von Wikipedia in strukturierte Daten sowie die Zuordnung zu vorhandenem Wissen (siehe DBpedia und Freebase).Table of Contents\u00dcberblick[edit]Beispiele[edit]Entit\u00e4tsverkn\u00fcpfung[edit]Relationale Datenbanken zu RDF[edit]1: 1-Zuordnung von RDB-Tabellen \/ -Ansichten zu RDF-Entit\u00e4ten \/ -Attributen \/ -Werten[edit]Komplexe Zuordnungen relationaler Datenbanken zu RDF[edit]XML[edit]\u00dcbersicht \u00fcber Methoden \/ Werkzeuge[edit]Sprachliche Annotation \/ Verarbeitung nat\u00fcrlicher Sprache (NLP)[edit][edit][edit]Ontologielernen (OL)[edit]Semantische Annotation (SA)[edit]Werkzeuge[edit]Wissensentdeckung[edit]Eingabedaten[edit]Ausgabeformate[edit]Siehe auch[edit]Verweise[edit]\u00dcberblick[edit]Nach der Standardisierung von Wissensrepr\u00e4sentationssprachen wie RDF und OWL wurden in diesem Bereich zahlreiche Forschungsarbeiten durchgef\u00fchrt, insbesondere in Bezug auf die Umwandlung relationaler Datenbanken in RDF, Identit\u00e4tsaufl\u00f6sung, Wissensentdeckung und Ontologielernen. Der allgemeine Prozess verwendet traditionelle Methoden aus der Informationsextraktion und dem Extrahieren, Transformieren und Laden (ETL), die die Daten aus den Quellen in strukturierte Formate transformieren. Die folgenden Kriterien k\u00f6nnen verwendet werden, um Ans\u00e4tze in diesem Thema zu kategorisieren (einige von ihnen ber\u00fccksichtigen nur die Extraktion aus relationalen Datenbanken):[2]QuelleWelche Datenquellen werden behandelt: Text, relationale Datenbanken, XML, CSVExpositionWie wird das extrahierte Wissen explizit gemacht (Ontologiedatei, semantische Datenbank)? Wie k\u00f6nnen Sie es abfragen?SynchronisationWird der Wissensextraktionsprozess einmal ausgef\u00fchrt, um einen Speicherauszug zu erstellen, oder wird das Ergebnis mit der Quelle synchronisiert? Statisch oder dynamisch. Werden \u00c4nderungen am Ergebnis zur\u00fcckgeschrieben (bidirektional)Wiederverwendung von VokabelnDas Tool kann vorhandene Vokabulare in der Extraktion wiederverwenden. Beispielsweise kann die Tabellenspalte ‘firstName’ auf foaf: firstName abgebildet werden. Einige automatische Ans\u00e4tze sind nicht in der Lage, Vokabeln abzubilden.AutomatisierungDer Grad, in dem die Extraktion unterst\u00fctzt \/ automatisiert wird. Manuell, GUI, halbautomatisch, automatisch.Ben\u00f6tigt eine Domain-OntologieF\u00fcr die Zuordnung ist eine bereits vorhandene Ontologie erforderlich. Es wird also entweder ein Mapping erstellt oder ein Schema aus der Quelle gelernt (Ontologielernen).Beispiele[edit]Entit\u00e4tsverkn\u00fcpfung[edit]DBpedia Spotlight, OpenCalais, L\u00f6wenzahn dataTXT, die Zemanta API, Extractiv und PoolParty Extractor Analysieren Sie freien Text \u00fcber die Erkennung benannter Entit\u00e4ten und unterscheiden Sie die Kandidaten dann \u00fcber die Namensaufl\u00f6sung und verkn\u00fcpfen Sie die gefundenen Entit\u00e4ten mit dem DBpedia-Wissensrepository[3] ((L\u00f6wenzahn dataTXT Demo oder DBpedia Spotlight Web-Demo oder PoolParty Extractor Demo).Pr\u00e4sident Obama am Mittwoch angerufen Kongress Verl\u00e4ngerung einer Steuerverg\u00fcnstigung f\u00fcr Studenten, die im Konjunkturpaket des letzten Jahres enthalten waren, mit der Begr\u00fcndung, dass die Politik gro\u00dfz\u00fcgigere Unterst\u00fctzung bietet. Da Pr\u00e4sident Obama mit einer DBpedia LinkedData-Ressource verkn\u00fcpft ist, k\u00f6nnen weitere Informationen automatisch abgerufen werden, und ein Semantic Reasoner kann beispielsweise schlie\u00dfen, dass die erw\u00e4hnte Entit\u00e4t vom Typ ist Person (mit FOAF (Software)) und vom Typ Pr\u00e4sidenten der Vereinigten Staaten (mit YAGO). Gegenbeispiele: Methoden, die nur Entit\u00e4ten erkennen oder auf Wikipedia-Artikel und andere Ziele verlinken, die keinen weiteren Abruf strukturierter Daten und formalen Wissens erm\u00f6glichen.Relationale Datenbanken zu RDF[edit]Triplify, D2R Server, Ultrawrapund Virtuoso RDF-Ansichten sind Tools, die relationale Datenbanken in RDF umwandeln. W\u00e4hrend dieses Prozesses k\u00f6nnen vorhandene Vokabulare und Ontologien w\u00e4hrend des Konvertierungsprozesses wiederverwendet werden. Bei der Transformation einer typischen relationalen Tabelle mit dem Namen Benutzereine Spalte (zName) oder eine Aggregation von Spalten (zVorname und Familienname, Nachname) muss den URI der erstellten Entit\u00e4t angeben. Normalerweise wird der Prim\u00e4rschl\u00fcssel verwendet. Jede zweite Spalte kann als Beziehung zu dieser Entit\u00e4t extrahiert werden.[4] Dann werden Eigenschaften mit formal definierter Semantik verwendet (und wiederverwendet), um die Informationen zu interpretieren. Beispiel: Eine Spalte in einer Benutzertabelle wird aufgerufen verheiratet mit kann als symmetrische Beziehung und eine Spalte definiert werden Startseite kann in eine Eigenschaft aus dem FOAF-Wortschatz umgewandelt werden foaf: homepageund qualifiziert es somit als inverse funktionale Eigenschaft. Dann jeder Eintrag der Nutzer Tabelle kann zu einer Instanz der Klasse gemacht werden Foaf: Person (Ontologie Bev\u00f6lkerung). Zus\u00e4tzlich k\u00f6nnte Dom\u00e4nenwissen (in Form einer Ontologie) aus dem erstellt werden status_id, entweder durch manuell erstellte Regeln (wenn status_id ist 2, der Eintrag geh\u00f6rt zur Klasse Lehrer) oder nach (halb) automatisierten Methoden (Ontologielernen). Hier ist eine Beispieltransformation: :Peter :marriedTo :Mary . :marriedTo a owl:SymmetricProperty . :Peter foaf:homepage . :Peter a foaf:Person . :Peter a :Student . :Claus a :Teacher .1: 1-Zuordnung von RDB-Tabellen \/ -Ansichten zu RDF-Entit\u00e4ten \/ -Attributen \/ -Werten[edit]Beim Erstellen einer RDB-Darstellung einer Problemdom\u00e4ne ist der Ausgangspunkt h\u00e4ufig ein Entity-Relationship-Diagramm (ERD). In der Regel wird jede Entit\u00e4t als Datenbanktabelle dargestellt, jedes Attribut der Entit\u00e4t wird zu einer Spalte in dieser Tabelle, und Beziehungen zwischen Entit\u00e4ten werden durch Fremdschl\u00fcssel angegeben. Jede Tabelle definiert normalerweise eine bestimmte Entit\u00e4tsklasse, jede Spalte eines ihrer Attribute. Jede Zeile in der Tabelle beschreibt eine Entit\u00e4tsinstanz, die durch einen Prim\u00e4rschl\u00fcssel eindeutig identifiziert wird. Die Tabellenzeilen beschreiben zusammen einen Entit\u00e4tssatz. In einer \u00e4quivalenten RDF-Darstellung desselben Entit\u00e4tssatzes:Jede Spalte in der Tabelle ist ein Attribut (dh ein Pr\u00e4dikat).Jeder Spaltenwert ist ein Attributwert (dh Objekt).Jeder Zeilenschl\u00fcssel repr\u00e4sentiert eine Entit\u00e4ts-ID (dh einen Betreff).Jede Zeile repr\u00e4sentiert eine Entit\u00e4tsinstanzJede Zeile (Entit\u00e4tsinstanz) wird in RDF durch eine Sammlung von Tripeln mit einem gemeinsamen Betreff (Entit\u00e4ts-ID) dargestellt.Um eine \u00e4quivalente Ansicht basierend auf der RDF-Semantik zu rendern, w\u00e4re der grundlegende Zuordnungsalgorithmus wie folgt:Erstellen Sie f\u00fcr jede Tabelle eine RDFS-KlasseKonvertieren Sie alle Prim\u00e4rschl\u00fcssel und Fremdschl\u00fcssel in IRIsWeisen Sie jeder Spalte ein Pr\u00e4dikat-IRI zuWeisen Sie jeder Zeile ein Pr\u00e4dikat vom Typ rdf: zu und verkn\u00fcpfen Sie es mit einer der Tabelle entsprechenden IRI der RDFS-KlasseErstellen Sie f\u00fcr jede Spalte, die weder Teil eines Prim\u00e4r- noch eines Fremdschl\u00fcssels ist, ein Tripel, das den Prim\u00e4rschl\u00fcssel-IRI als Subjekt, den Spalten-IRI als Pr\u00e4dikat und den Spaltenwert als Objekt enth\u00e4lt.Eine fr\u00fche Erw\u00e4hnung dieser grundlegenden oder direkten Abbildung findet sich in Tim Berners-Lees Vergleich des ER-Modells mit dem RDF-Modell.[4] Komplexe Zuordnungen relationaler Datenbanken zu RDF[edit]Die oben erw\u00e4hnte 1: 1-Zuordnung macht die Altdaten auf einfache Weise als RDF verf\u00fcgbar. Zus\u00e4tzliche Verfeinerungen k\u00f6nnen eingesetzt werden, um die N\u00fctzlichkeit der RDF-Ausgabe in Bezug auf die angegebenen Anwendungsf\u00e4lle zu verbessern. Normalerweise gehen Informationen w\u00e4hrend der Transformation eines Entity-Relationship-Diagramms (ERD) in relationale Tabellen verloren (Details finden Sie in der nicht \u00fcbereinstimmenden objektrelationalen Impedanz) und m\u00fcssen r\u00fcckentwickelt werden. Aus konzeptioneller Sicht k\u00f6nnen Extraktionsans\u00e4tze aus zwei Richtungen kommen. Die erste Richtung versucht, ein OWL-Schema aus dem angegebenen Datenbankschema zu extrahieren oder zu lernen. Fr\u00fche Ans\u00e4tze verwendeten eine feste Anzahl manuell erstellter Zuordnungsregeln, um die 1: 1-Zuordnung zu verfeinern.[5][6][7] Ausgefeiltere Methoden verwenden Heuristiken oder Lernalgorithmen, um schematische Informationen zu induzieren (Methoden \u00fcberschneiden sich mit dem Lernen in der Ontologie). W\u00e4hrend einige Ans\u00e4tze versuchen, die Informationen aus der Struktur zu extrahieren, die dem SQL-Schema inh\u00e4rent ist[8] (zB Fremdschl\u00fcssel analysieren), andere analysieren den Inhalt und die Werte in den Tabellen, um konzeptionelle Hierarchien zu erstellen[9] (zB Spalten mit wenigen Werten sind Kandidaten, um Kategorien zu werden). Die zweite Richtung versucht, das Schema und seinen Inhalt einer bereits vorhandenen Dom\u00e4nenontologie zuzuordnen (siehe auch: Ausrichtung der Ontologie). Oft existiert jedoch keine geeignete Domain-Ontologie und muss zuerst erstellt werden.XML[edit]Da XML als Baum strukturiert ist, k\u00f6nnen alle Daten einfach in RDF dargestellt werden, das als Diagramm strukturiert ist. XML2RDF ist ein Beispiel f\u00fcr einen Ansatz, der leere RDF-Knoten verwendet und XML-Elemente und -Attribute in RDF-Eigenschaften umwandelt. Das Thema ist jedoch komplexer als bei relationalen Datenbanken. In einer relationalen Tabelle ist der Prim\u00e4rschl\u00fcssel ein idealer Kandidat, um Gegenstand der extrahierten Tripel zu werden. Ein XML-Element kann jedoch – je nach Kontext – als Subjekt, Pr\u00e4dikat oder Objekt eines Tripels transformiert werden. XSLT kann als Standardtransformationssprache verwendet werden, um XML manuell in RDF zu konvertieren.\u00dcbersicht \u00fcber Methoden \/ Werkzeuge[edit]NameDatenquelleDatenausstellungDatensynchronisationMapping-SpracheWiederverwendung des WortschatzesMapping-Automat.Anf. Domain-OntologieVerwendet GUIEine direkte Zuordnung relationaler Daten zu RDFRelationale DatenSPARQL \/ ETLdynamischN \/ AfalschautomatischfalschfalschCSV2RDF4LODCSVETLstatischRDFwahrHandbuchfalschfalschCoNLL-RDFTSV, CoNLLSPARQL \/ RDF-Streamstatischkeinerwahrautomatisch (dom\u00e4nenspezifisch, f\u00fcr Anwendungsf\u00e4lle in der Sprachtechnologie, beh\u00e4lt die Beziehungen zwischen Zeilen bei)falschfalschConvert2RDFBegrenzte TextdateiETLstatischRDF \/ DAMLwahrHandbuchfalschwahrD2R ServerRDBSPARQLbidirektionalD2R KartewahrHandbuchfalschfalschDartGridRDBeigene AbfragesprachedynamischVisuelles WerkzeugwahrHandbuchfalschwahrDataMasterRDBETLstatischpropriet\u00e4rwahrHandbuchwahrwahrRDF-Erweiterung von Google RefineCSV, XMLETLstatischkeinerhalbautomatischfalschwahrKrextorXMLETLstatischxsltwahrHandbuchwahrfalschMAPONTORDBETLstatischpropriet\u00e4rwahrHandbuchwahrfalschMETAmorphosenRDBETLstatischpropriet\u00e4re XML-basierte Mapping-SprachewahrHandbuchfalschwahrMappingMasterCSVETLstatischMappingMasterwahrGUIfalschwahrODEMapsterRDBETLstatischpropriet\u00e4rwahrHandbuchwahrwahrOntoWiki CSV Importer Plug-In – DataCube & TabularCSVETLstatischDer RDF Data Cube VocaublarywahrhalbautomatischfalschwahrPoolparty Extraktor (PPX)XML, TextLinkedDatadynamischRDF (SKOS)wahrhalbautomatischwahrfalschRDBToOntoRDBETLstatischkeinerfalschAutomatisch hat der Benutzer au\u00dferdem die M\u00f6glichkeit, die Ergebnisse zu optimierenfalschwahrRDF 123CSVETLstatischfalschfalschHandbuchfalschwahrRDOTERDBETLstatischSQLwahrHandbuchwahrwahrRelational.OWLRDBETLstatischkeinerfalschautomatischfalschfalschT2LDCSVETLstatischfalschfalschautomatischfalschfalschDas RDF Data Cube-VokabularMehrdimensionale statistische Daten in TabellenkalkulationenDatenw\u00fcrfel-WortschatzwahrHandbuchfalschTopBraid KomponistCSVETLstatischSKOSfalschhalbautomatischfalschwahrVerdreifachenRDBLinkedDatadynamischSQLwahrHandbuchfalschfalschUltrawrapRDBSPARQL \/ ETLdynamischR2RMLwahrhalbautomatischfalschwahrVirtuose RDF-AnsichtenRDBSPARQLdynamischMeta-Schema-SprachewahrhalbautomatischfalschwahrVirtuoser Schwammstrukturierte und halbstrukturierte DatenquellenSPARQLdynamischVirtuose PL & XSLTwahrhalbautomatischfalschfalschVis-a-VisRDBRDQLdynamischSQLwahrHandbuchwahrwahrXLWrap: Tabellenkalkulation zu RDFCSVETLstatischTriG-SyntaxwahrHandbuchfalschfalschXML zu RDFXMLETLstatischfalschfalschautomatischfalschfalschDer gr\u00f6\u00dfte Teil der Informationen ist in Gesch\u00e4ftsdokumenten enthalten (ca. 80%)[10]) ist in nat\u00fcrlicher Sprache codiert und daher unstrukturiert. Da unstrukturierte Daten eher eine Herausforderung f\u00fcr die Wissensextraktion darstellen, sind komplexere Methoden erforderlich, die im Vergleich zu strukturierten Daten im Allgemeinen schlechtere Ergebnisse liefern. Das Potenzial f\u00fcr einen massiven Erwerb von extrahiertem Wissen sollte jedoch die erh\u00f6hte Komplexit\u00e4t und die verringerte Qualit\u00e4t der Extraktion kompensieren. Unter nat\u00fcrlichen Sprachquellen werden im Folgenden Informationsquellen verstanden, bei denen die Daten unstrukturiert als Klartext angegeben werden. Wenn der angegebene Text zus\u00e4tzlich in ein Markup-Dokument (z. B. ein HTML-Dokument) eingebettet ist, entfernen die genannten Systeme die Markup-Elemente normalerweise automatisch.Sprachliche Annotation \/ Verarbeitung nat\u00fcrlicher Sprache (NLP)[edit]Als Vorverarbeitungsschritt zur Wissensextraktion kann es erforderlich sein, sprachliche Anmerkungen mit einem oder mehreren NLP-Tools durchzuf\u00fchren. Einzelne Module in einem NLP-Workflow bauen normalerweise auf werkzeugspezifischen Formaten f\u00fcr die Eingabe und Ausgabe auf. Im Rahmen der Wissensextraktion wurden jedoch strukturierte Formate f\u00fcr die Darstellung sprachlicher Anmerkungen angewendet.Typische NLP-Aufgaben, die f\u00fcr die Wissensextraktion relevant sind, umfassen:POS-Tagging (Part-of-Speech)Lemmatisierung (LEMMA) oder Stemming (STEM)Wortsinn-Disambiguierung (WSD, im Zusammenhang mit der semantischen Annotation unten)Erkennung benannter Entit\u00e4ten (NER, siehe auch IE unten)syntaktisches Parsen, wobei h\u00e4ufig syntaktische Abh\u00e4ngigkeiten (DEP) verwendet werdenFlaches syntaktisches Parsing (CHUNK): Wenn die Leistung ein Problem darstellt, f\u00fchrt das Chunking zu einer schnellen Extraktion von nominalen und anderen PhrasenAnapheraufl\u00f6sung (siehe Koreferenzaufl\u00f6sung im IE unten, aber hier als Aufgabe gesehen, Verkn\u00fcpfungen zwischen textuellen Erw\u00e4hnungen und nicht zwischen der Erw\u00e4hnung einer Entit\u00e4t und einer abstrakten Darstellung der Entit\u00e4t herzustellen)semantische Rollenbeschriftung (SRL, bezogen auf die Beziehungsextraktion; nicht zu verwechseln mit semantischer Annotation wie unten beschrieben)Diskursanalyse (Beziehungen zwischen verschiedenen S\u00e4tzen, die in realen Anwendungen selten verwendet werden)In NLP werden solche Daten typischerweise in TSV-Formaten (CSV-Formate mit TAB als Trennzeichen) dargestellt, die h\u00e4ufig als CoNLL-Formate bezeichnet werden. F\u00fcr Workflows zur Wissensextraktion wurden RDF-Ansichten zu solchen Daten gem\u00e4\u00df den folgenden Community-Standards erstellt:NLP Interchange Format (NIF, f\u00fcr viele h\u00e4ufige Arten von Anmerkungen)[11][12]Web Annotation (WA, h\u00e4ufig f\u00fcr die Verkn\u00fcpfung von Entit\u00e4ten verwendet)[13]CoNLL-RDF (f\u00fcr Anmerkungen, die urspr\u00fcnglich in TSV-Formaten dargestellt wurden)[14][15]Andere plattformspezifische Formate umfassenLAPPS Interchange Format (LIF, verwendet im LAPPS Grid)[16][17]NLP Annotation Format (NAF, verwendet im NewsReader-Workflow-Management-System)[18][19][edit]Traditionelle Informationsextraktion [20] ist eine Technologie der Verarbeitung nat\u00fcrlicher Sprache, die Informationen aus typischen Texten nat\u00fcrlicher Sprache extrahiert und diese in geeigneter Weise strukturiert. Die Arten der zu identifizierenden Informationen m\u00fcssen vor Beginn des Prozesses in einem Modell angegeben werden, weshalb der gesamte Prozess der traditionellen Informationsextraktion dom\u00e4nenabh\u00e4ngig ist. Der IE ist in die folgenden f\u00fcnf Unteraufgaben unterteilt.Die Aufgabe der Erkennung benannter Entit\u00e4ten besteht darin, alle in einem Text enthaltenen benannten Entit\u00e4ten zu erkennen und zu kategorisieren (Zuordnung einer benannten Entit\u00e4t zu einer vordefinierten Kategorie). Dies funktioniert durch Anwendung grammatikalischer Methoden oder statistischer Modelle.Die Koreferenzaufl\u00f6sung identifiziert \u00e4quivalente Entit\u00e4ten, die von NER innerhalb eines Textes erkannt wurden. Es gibt zwei relevante Arten von \u00c4quivalenzbeziehungen. Die erste bezieht sich auf die Beziehung zwischen zwei verschiedenen vertretenen Entit\u00e4ten (z. B. IBM Europe und IBM) und die zweite auf die Beziehung zwischen einer Entit\u00e4t und ihren anaphorischen Referenzen (z. B. it und IBM). Beide Arten k\u00f6nnen durch Koreferenzaufl\u00f6sung erkannt werden.W\u00e4hrend der Erstellung von Vorlagenelementen identifiziert das IE-System beschreibende Eigenschaften von Entit\u00e4ten, die von NER und CO erkannt werden. Diese Eigenschaften entsprechen gew\u00f6hnlichen Eigenschaften wie Rot oder Gro\u00df.Die Erstellung von Vorlagenbeziehungen identifiziert Beziehungen, die zwischen den Vorlagenelementen bestehen. Es kann verschiedene Arten von Beziehungen geben, z. B. “Works-for” oder “Location-In”, mit der Einschr\u00e4nkung, dass sowohl Dom\u00e4ne als auch Bereich Entit\u00e4ten entsprechen.In dem Vorlagenszenario werden Produktionsereignisse, die im Text beschrieben werden, in Bezug auf die von NER und CO erkannten Entit\u00e4ten und die von TR identifizierten Beziehungen identifiziert und strukturiert.[edit]Ontologiebasierte Informationsextraktion [10] ist ein Teilfeld der Informationsextraktion, mit dem mindestens eine Ontologie verwendet wird, um den Prozess der Informationsextraktion aus Text in nat\u00fcrlicher Sprache zu steuern. Das OBIE-System verwendet Methoden der traditionellen Informationsextraktion, um Konzepte, Instanzen und Beziehungen der verwendeten Ontologien im Text zu identifizieren, die nach dem Prozess zu einer Ontologie strukturiert werden. Somit bilden die Eingabe-Ontologien das Modell der zu extrahierenden Informationen.Ontologielernen (OL)[edit]Das Lernen von Ontologien ist die automatische oder halbautomatische Erstellung von Ontologien, einschlie\u00dflich des Extrahierens der Begriffe der entsprechenden Dom\u00e4ne aus Text in nat\u00fcrlicher Sprache. Da das manuelle Erstellen von Ontologien \u00e4u\u00dferst arbeitsintensiv und zeitaufw\u00e4ndig ist, besteht eine gro\u00dfe Motivation, den Prozess zu automatisieren.Semantische Annotation (SA)[edit]W\u00e4hrend der semantischen Annotation[21] Text in nat\u00fcrlicher Sprache wird durch Metadaten (h\u00e4ufig in RDFa dargestellt) erg\u00e4nzt, die die Semantik der enthaltenen Begriffe maschinenverst\u00e4ndlich machen sollen. Bei diesem im Allgemeinen halbautomatischen Prozess wird Wissen in dem Sinne extrahiert, dass eine Verbindung zwischen lexikalischen Begriffen und beispielsweise Konzepten aus Ontologien hergestellt wird. Auf diese Weise wird Wissen gewonnen, welche Bedeutung eines Begriffs im verarbeiteten Kontext beabsichtigt war, und daher basiert die Bedeutung des Textes auf maschinenlesbaren Daten mit der F\u00e4higkeit, Schlussfolgerungen zu ziehen. Die semantische Annotation ist normalerweise in die folgenden zwei Unteraufgaben unterteilt.TerminologieextraktionEntit\u00e4tsverkn\u00fcpfungAuf der Ebene der Terminologieextraktion werden lexikalische Begriffe aus dem Text extrahiert. Zu diesem Zweck bestimmt ein Tokenizer zun\u00e4chst die Wortgrenzen und l\u00f6st Abk\u00fcrzungen. Anschlie\u00dfend werden Begriffe aus dem Text, die einem Konzept entsprechen, mit Hilfe eines dom\u00e4nenspezifischen Lexikons extrahiert, um diese bei der Entit\u00e4tsverkn\u00fcpfung zu verkn\u00fcpfen.In der Entit\u00e4tsverkn\u00fcpfung [22] Es wird eine Verbindung zwischen den aus dem Quelltext extrahierten lexikalischen Begriffen und den Konzepten aus einer Ontologie oder Wissensbasis wie DBpedia hergestellt. Dazu werden Kandidatenkonzepte mit Hilfe eines Lexikons entsprechend den verschiedenen Bedeutungen eines Begriffs erkannt. Schlie\u00dflich wird der Kontext der Begriffe analysiert, um die am besten geeignete Begriffskl\u00e4rung zu ermitteln und den Begriff dem richtigen Konzept zuzuordnen.Beachten Sie, dass “semantische Annotation” im Kontext der Wissensextraktion nicht mit semantischem Parsing im Sinne der Verarbeitung nat\u00fcrlicher Sprache (auch als “semantische Annotation” bezeichnet) zu verwechseln ist: Semantisches Parsing zielt auf eine vollst\u00e4ndige, maschinenlesbare Darstellung der nat\u00fcrlichen Sprache ab W\u00e4hrend semantische Annotationen im Sinne der Wissensextraktion nur einen sehr elementaren Aspekt davon ansprechen.Werkzeuge[edit]Die folgenden Kriterien k\u00f6nnen verwendet werden, um Werkzeuge zu kategorisieren, die Wissen aus Text in nat\u00fcrlicher Sprache extrahieren.QuelleWelche Eingabeformate k\u00f6nnen vom Tool verarbeitet werden (zB Klartext, HTML oder PDF)?ZugriffsparadigmaKann das Tool die Datenquelle abfragen oder ben\u00f6tigt es einen vollst\u00e4ndigen Speicherauszug f\u00fcr den Extraktionsprozess?DatensynchronisationIst das Ergebnis des Extraktionsprozesses mit der Quelle synchronisiert?Verwendet die Ausgabe-OntologieVerkn\u00fcpft das Tool das Ergebnis mit einer Ontologie?Mapping-AutomatisierungWie automatisiert ist der Extraktionsprozess (manuell, halbautomatisch oder automatisch)?Ben\u00f6tigt OntologieBen\u00f6tigt das Tool eine Ontologie f\u00fcr die Extraktion?Verwendet GUIBietet das Tool eine grafische Benutzeroberfl\u00e4che?AnsatzWelcher Ansatz (IE, OBIE, OL oder SA) wird vom Tool verwendet?Extrahierte Entit\u00e4tenWelche Arten von Entit\u00e4ten (z. B. benannte Entit\u00e4ten, Konzepte oder Beziehungen) k\u00f6nnen vom Tool extrahiert werden?Angewandte TechnikenWelche Techniken werden angewendet (zB NLP, statistische Methoden, Clustering oder maschinelles Lernen)?AusgabemodellWelches Modell wird verwendet, um das Ergebnis des Tools darzustellen (z. B. RDF oder OWL)?Unterst\u00fctzte DomainsWelche Bereiche werden unterst\u00fctzt (zB Wirtschaft oder Biologie)?Unterst\u00fctzte SprachenWelche Sprachen k\u00f6nnen verarbeitet werden (zB Englisch oder Deutsch)?In der folgenden Tabelle sind einige Tools f\u00fcr die Wissensextraktion aus nat\u00fcrlichen Sprachquellen aufgef\u00fchrt.NameQuelleZugriffsparadigmaDatensynchronisationVerwendet die Ausgabe-OntologieMapping-AutomatisierungBen\u00f6tigt OntologieVerwendet GUIAnsatzExtrahierte Entit\u00e4tenAngewandte TechnikenAusgabemodellUnterst\u00fctzte DomainsUnterst\u00fctzte Sprachen[1] [23]Klartext, HTML, XML, SGMLDumpNeinJaautomatischJaJaIEbenannte Entit\u00e4ten, Beziehungen, EreignisseSprachregelnpropriet\u00e4rdom\u00e4nenunabh\u00e4ngigEnglisch, Spanisch, Arabisch, Chinesisch, IndonesischAlchemyAPI [24]Klartext, HTMLautomatischJaSAmehrsprachigANNIE [25]KlartextDumpJaJaIEFinite-State-AlgorithmenmehrsprachigASIUM [26]KlartextDumphalbautomatischJaOLKonzepte, KonzepthierarchieNLP, ClusteringErsch\u00f6pfende ersch\u00f6pfende Extraktion [27]automatischIEbenannte Entit\u00e4ten, Beziehungen, EreignisseNLPL\u00f6wenzahn APIKlartext, HTML, URLSICH AUSRUHENNeinNeinautomatischNeinJaSAbenannte Entit\u00e4ten, Konzeptestatistische MethodenJSONdom\u00e4nenunabh\u00e4ngigmehrsprachigDBpedia Spotlight [28]Klartext, HTMLDump, SPARQLJaJaautomatischNeinJaSAAnmerkung zu jedem Wort, Anmerkung zu Nicht-Stoppw\u00f6rternNLP, statistische Methoden, maschinelles LernenRDFadom\u00e4nenunabh\u00e4ngigEnglischEntityClassifier.euKlartext, HTMLDumpJaJaautomatischNeinJaIE, OL, SAAnmerkung zu jedem Wort, Anmerkung zu Nicht-Stoppw\u00f6rternregelbasierte GrammatikXMLdom\u00e4nenunabh\u00e4ngigEnglisch, Deutsch, Niederl\u00e4ndischFred [29]KlartextDump, REST-APIJaJaautomatischNeinJaIE, OL, SA, Ontologie-Entwurfsmuster, Rahmensemantik(Mehr-) Wort-NIF- oder EarMark-Annotation, Pr\u00e4dikate, Instanzen, Kompositionssemantik, Konzepttaxonomien, Rahmen, semantische Rollen, periphrastische Beziehungen, Ereignisse, Modalit\u00e4t, Zeitform, Entit\u00e4tsverkn\u00fcpfung, Ereignisverkn\u00fcpfung, StimmungNLP, maschinelles Lernen, heuristische RegelnRDF \/ OWLdom\u00e4nenunabh\u00e4ngigEnglisch, andere Sprachen per \u00dcbersetzungiDocument [30]HTML, PDF, DOCSPARQLJaJaOBIEInstanzen, EigenschaftswerteNLPpers\u00f6nliche AngelegenheitNetOwl Extractor [31]Klartext, HTML, XML, SGML, PDF, MS OfficeDumpNeinJaAutomatischJaJaIEbenannte Entit\u00e4ten, Beziehungen, EreignisseNLPXML, JSON, RDF-OWL, anderemehrere Dom\u00e4nenEnglisch, Arabisch Chinesisch (vereinfacht und traditionell), Franz\u00f6sisch, Koreanisch, Persisch (Persisch und Dari), Russisch, SpanischOntoGen [32]halbautomatischJaOLKonzepte, Konzepthierarchie, nicht taxonomische Beziehungen, InstanzenNLP, maschinelles Lernen, ClusteringOntoLearn [33]Klartext, HTMLDumpNeinJaautomatischJaNeinOLKonzepte, Konzepthierarchie, InstanzenNLP, statistische Methodenpropriet\u00e4rdom\u00e4nenunabh\u00e4ngigEnglischOntoLearn neu geladenKlartext, HTMLDumpNeinJaautomatischJaNeinOLKonzepte, Konzepthierarchie, InstanzenNLP, statistische Methodenpropriet\u00e4rdom\u00e4nenunabh\u00e4ngigEnglischOntoSyphon [34]HTML, PDF, DOCDump, SuchmaschinenabfragenNeinJaautomatischJaNeinOBIEKonzepte, Beziehungen, InstanzenNLP, statistische MethodenRDFdom\u00e4nenunabh\u00e4ngigEnglischaufX [35]KlartextDumpNeinJahalbautomatischJaNeinOBIEInstanzen, Datentyp-Eigenschaftswerteheuristische Methodenpropriet\u00e4rdom\u00e4nenunabh\u00e4ngigsprachunabh\u00e4ngigOpenCalaisKlartext, HTML, XMLDumpNeinJaautomatischJaNeinSAAnmerkung zu Entit\u00e4ten, Anmerkung zu Ereignissen, Anmerkung zu FaktenNLP, maschinelles LernenRDFdom\u00e4nenunabh\u00e4ngigEnglisch, Franz\u00f6sisch, SpanischPoolParty Extractor [36]Klartext, HTML, DOC, ODTDumpNeinJaautomatischJaJaOBIEbenannte Entit\u00e4ten, Konzepte, Beziehungen, Konzepte, die den Text kategorisieren, AnreicherungenNLP, maschinelles Lernen, statistische MethodenRDF, OWLdom\u00e4nenunabh\u00e4ngigEnglisch, Deutsch, Spanisch, Franz\u00f6sischRosokaKlartext, HTML, XML, SGML, PDF, MS OfficeDumpJaJaAutomatischNeinJaIEExtraktion benannter Entit\u00e4ten, Entit\u00e4tsaufl\u00f6sung, Beziehungsextraktion, Attribute, Konzepte, Multi-Vektor-Stimmungsanalyse, Geotagging, SprachidentifikationNLP, maschinelles LernenXML, JSON, POJO, RDFmehrere Dom\u00e4nenMehrsprachige 200+ SprachenSCOOBIEKlartext, HTMLDumpNeinJaautomatischNeinNeinOBIEInstanzen, Eigenschaftswerte, RDFS-TypenNLP, maschinelles LernenRDF, RDFadom\u00e4nenunabh\u00e4ngigEnglisch DeutschSemTag [37][38]HTMLDumpNeinJaautomatischJaNeinSAmaschinelles LernenDatenbankeintragdom\u00e4nenunabh\u00e4ngigsprachunabh\u00e4ngigSmart FIXKlartext, HTML, PDF, DOC, E-MailDumpJaNeinautomatischNeinJaOBIEbenannte Entit\u00e4tenNLP, maschinelles Lernenpropriet\u00e4rdom\u00e4nenunabh\u00e4ngigEnglisch, Deutsch, Franz\u00f6sisch, Niederl\u00e4ndisch, PolnischText2Onto [39]Klartext, HTML, PDFDumpJaNeinhalbautomatischJaJaOLKonzepte, Konzepthierarchie, nicht taxonomische Beziehungen, Instanzen, AxiomeNLP, statistische Methoden, maschinelles Lernen, regelbasierte MethodenEULEdeomain-unabh\u00e4ngigEnglisch, Deutsch, SpanischText-To-Onto [40]Klartext, HTML, PDF, PostScriptDumphalbautomatischJaJaOLKonzepte, Konzepthierarchie, nicht taxonomische Beziehungen, lexikalische Entit\u00e4ten, die sich auf Konzepte beziehen, lexikalische Entit\u00e4ten, die sich auf Beziehungen beziehenNLP, maschinelles Lernen, Clustering, statistische MethodenDeutscheThatNeedleKlartextDumpautomatischNeinKonzepte, Beziehungen, HierarchieNLP, propriet\u00e4rJSONmehrere Dom\u00e4nenEnglischDie Wiki-Maschine [41]Klartext, HTML, PDF, DOCDumpNeinJaautomatischJaJaSAAnmerkung zu Eigennamen, Anmerkung zu allgemeinen Substantivenmaschinelles LernenRDFadom\u00e4nenunabh\u00e4ngigEnglisch, Deutsch, Spanisch, Franz\u00f6sisch, Portugiesisch, Italienisch, RussischThingFinder [42]IEbenannte Entit\u00e4ten, Beziehungen, EreignissemehrsprachigWissensentdeckung[edit]Knowledge Discovery beschreibt den Prozess der automatischen Suche gro\u00dfer Datenmengen nach Mustern, die als Wissen betrachtet werden k\u00f6nnen \u00dcber die Daten.[43] Es wird oft beschrieben als ableiten Wissen aus den Eingabedaten. Die Wissensentdeckung wurde aus dem Bereich Data Mining heraus entwickelt und ist sowohl methodisch als auch terminologisch eng damit verbunden.[44]Der bekannteste Zweig des Data Mining ist die Wissenserkennung, auch als Wissenserkennung in Datenbanken (KDD) bekannt. Ebenso wie bei vielen anderen Formen der Wissensentdeckung werden Abstraktionen der Eingabedaten erstellt. Das Wissen durch den Prozess erhalten kann zus\u00e4tzlich werden Daten das kann f\u00fcr die weitere Verwendung und Entdeckung verwendet werden. Oft sind die Ergebnisse der Wissensentdeckung nicht umsetzbar, umsetzbare Wissensentdeckung, auch als dom\u00e4nengesteuertes Data Mining bekannt.[45] zielt darauf ab, umsetzbares Wissen und Erkenntnisse zu entdecken und zu liefern.Eine weitere vielversprechende Anwendung der Wissensentdeckung liegt im Bereich der Softwaremodernisierung, Schwachstellenerkennung und Compliance, bei der vorhandene Software-Artefakte verstanden werden. Dieser Prozess steht im Zusammenhang mit einem Konzept des Reverse Engineering. In der Regel wird das aus vorhandener Software gewonnene Wissen in Form von Modellen dargestellt, an die bei Bedarf spezifische Abfragen gestellt werden k\u00f6nnen. Eine Entit\u00e4tsbeziehung ist ein h\u00e4ufiges Format zur Darstellung von Wissen, das aus vorhandener Software gewonnen wurde. Die Object Management Group (OMG) hat die Spezifikation Knowledge Discovery Metamodel (KDM) entwickelt, die eine Ontologie f\u00fcr die Software-Assets und ihre Beziehungen definiert, um die Wissensermittlung in vorhandenem Code durchzuf\u00fchren. Die Entdeckung von Wissen aus vorhandenen Softwaresystemen, auch als Software Mining bezeichnet, ist eng mit dem Data Mining verbunden, da vorhandene Software-Artefakte einen enormen Wert f\u00fcr das Risikomanagement und den Gesch\u00e4ftswert enthalten, der f\u00fcr die Bewertung und Entwicklung von Softwaresystemen von entscheidender Bedeutung ist. Anstatt einzelne Datens\u00e4tze abzubauen, konzentriert sich das Software-Mining auf Metadaten wie Prozessabl\u00e4ufe (z. B. Datenfl\u00fcsse, Kontrollfl\u00fcsse und Anrufzuordnungen), Architektur, Datenbankschemata und Gesch\u00e4ftsregeln \/ -begriffe \/ -prozesse.Eingabedaten[edit]Ausgabeformate[edit]Siehe auch[edit]Verweise[edit]^ RDB2RDF-Arbeitsgruppe, Website: http:\/\/www.w3.org\/2001\/sw\/rdb2rdf\/, Charter: http:\/\/www.w3.org\/2009\/08\/rdb2rdf-charter, R2RML: Zuordnungssprache von RDB zu RDF: http:\/\/www.w3.org\/TR\/r2rml\/^ LOD2 EU Deliverable 3.1.1 Wissensextraktion aus strukturierten Quellen http:\/\/static.lod2.eu\/Deliverables\/deliverable-3.1.1.pdf Archiviert 2011-08-27 an der Wayback-Maschine^ “Leben in der verkn\u00fcpften Datenwolke”. www.opencalais.com. Archiviert von das Original am 24.11.2009. Abgerufen 2009-11-10. Wikipedia hat einen Linked Data-Zwilling namens DBpedia. DBpedia hat die gleichen strukturierten Informationen wie Wikipedia – jedoch in ein maschinenlesbares Format \u00fcbersetzt.^ ein b Tim Berners-Lee (1998), “Relationale Datenbanken im Semantic Web”. Abgerufen: 20. Februar 2011.^ Hu et al. (2007), “Discovering Simple Mappings zwischen relationalen Datenbankschemata und Ontologien”, In Proc. der 6. Internationalen Semantic Web Konferenz (ISWC 2007), 2. Asian Semantic Web Konferenz (ASWC 2007), LNCS 4825, Seiten 225-238, Busan, Korea, 11.-15. November 2007. http:\/\/citeseerx.ist.psu.edu\/viewdoc\/download?doi=10.1.1.97.6934&rep=rep1&type=pdf^ R. Ghawi und N. Cullot (2007), “Database-to-Ontology Mapping Generation for Semantic Interoperability”. Im dritten internationalen Workshop zur Datenbankinteroperabilit\u00e4t (InterDB 2007). http:\/\/le2i.cnrs.fr\/IMG\/publications\/InterDB07-Ghawi.pdf^ Li et al. (2005) “Eine halbautomatische Ontologieerfassungsmethode f\u00fcr das Semantic Web”, WAIM, Band 3739, Lecture Notes in Computer Science, Seite 209-220. Springer. doi:10.1007 \/ 11563952_19^ Tirmizi et al. (2008), “\u00dcbersetzen von SQL-Anwendungen in das Semantic Web”, Lecture Notes in Computer Science, Band 5181\/2008 (Datenbank- und Expertensystemanwendungen). http:\/\/citeseer.ist.psu.edu\/viewdoc\/download;jsessionid=15E8AB2A37BD06DAE59255A1AC3095F0?doi=10.1.1.140.3169&rep=rep1&type=pdf^ Farid Cerbah (2008). “Lernen hochstrukturierter semantischer Repositories aus relationalen Datenbanken”, The Semantic Web: Research and Applications, Band 5021, Lecture Notes in Computer Science, Springer, Berlin \/ Heidelberg http:\/\/www.tao-project.eu\/resources\/publications\/cerbah-learning-highly-structured-semantic-repositories-from-relational-databases.pdf Archiviert 2011-07-20 an der Wayback-Maschine^ ein b Wimalasuriya, Daya C.; Dou, Dejing (2010). “Ontologiebasierte Informationsextraktion: Eine Einf\u00fchrung und ein \u00dcberblick \u00fcber aktuelle Ans\u00e4tze”, Zeitschrift f\u00fcr Informationswissenschaft36 (3), p. 306 – 323, http:\/\/ix.cs.uoregon.edu\/~dou\/research\/papers\/jis09.pdf (abgerufen: 18.06.2012).^ “NLP Interchange Format (NIF) 2.0 – \u00dcbersicht und Dokumentation”. persistence.uni-leipzig.org. Abgerufen 2020-06-05.^ Hellmann, Sebastian; Lehmann, Jens; Auer, S\u00f6ren; Br\u00fcmmer, Martin (2013). Alani, Harith; Kagal, Lalana; Fokoue, Achille; Groth, Paul; Biemann, Chris; Parreira, Josiane Xavier; Aroyo, Lora; Noy, Natasha; Welty, Chris (Hrsg.). “Integration von NLP mithilfe verkn\u00fcpfter Daten”. Das Semantic Web – ISWC 2013. Vorlesungsunterlagen in Informatik. Berlin, Heidelberg: Springer. 7908: 98\u2013113. doi:10.1007 \/ 978-3-642-41338-4_7. ISBN 978-3-642-41338-4.^ Verspoor, Karin; Livingston, Kevin (Juli 2012). “Auf dem Weg zur Anpassung sprachlicher Annotationen an wissenschaftliche Annotationsformalismen im Semantic Web”. Proceedings of the Sixth Linguistic Annotation Workshop. Jeju, Republik Korea: Vereinigung f\u00fcr Computerlinguistik: 75\u201384.^ acoli-repo \/ conll-rdf, ACoLi, 2020-05-27abgerufen 2020-06-05^ Chiarcos, Christian; F\u00e4th, Christian (2017). Gracia, Jorge; Bond, Francis; McCrae, John P.; Buitelaar, Paul; Chiarcos, Christian; Hellmann, Sebastian (Hrsg.). “CoNLL-RDF: Verkn\u00fcpfte Korpora NLP-freundlich gemacht”. Sprache, Daten und Wissen. Vorlesungsunterlagen in Informatik. Cham: Springer International Publishing. 10318: 74\u201388. doi:10.1007 \/ 978-3-319-59888-8_6. ISBN 978-3-319-59888-8.^ Verhagen, Marc; Suderman, Keith; Wang, Di; Ide, Nancy; Shi, Chunqi; Wright, Jonathan; Pustejovsky, James (2016). Murakami, Yohei; Lin, Donghui (Hrsg.). “Das LAPPS-Austauschformat”. Weltweite Sprachdienstinfrastruktur. Vorlesungsunterlagen in Informatik. Cham: Springer International Publishing. 9442: 33\u201347. doi:10.1007 \/ 978-3-319-31468-6_3. ISBN 978-3-319-31468-6.^ “The Language Application Grid | Eine Webdienstplattform f\u00fcr die Entwicklung und Forschung der Verarbeitung nat\u00fcrlicher Sprache”. Abgerufen 2020-06-05.^ Newsreader \/ NAF, NewsReader, 2020-05-25abgerufen 2020-06-05^ Vossen, Piek; Agerri, Rodrigo; Aldabe, Itziar; Cybulska, Agata; van Erp, Marieke; Fokkens, Antske; Laparra, Egoitz; Minard, Anne-Lyse; Palmero Aprosio, Alessio; Rigau, deutsch; Rospocher, Marco (15.10.2016). “NewsReader: Verwenden von Wissensressourcen in einer mehrsprachigen Lesemaschine, um mehr Wissen aus massiven Nachrichtenstr\u00f6men zu generieren”. Wissensbasierte Systeme. 110: 60\u201385. doi:10.1016 \/ j.knosys.2016.07.013. ISSN 0950-7051.^ Cunningham, Hamish (2005). “Informationsextraktion, automatisch”, Enzyklop\u00e4die der Sprache und Linguistik, 2, p. 665 – 677, http:\/\/gate.ac.uk\/sale\/ell2\/ie\/main.pdf (abgerufen: 18.06.2012).^ Erdmann, M.; Maedche, Alexander; Schnurr, H.-P.; Staab, Steffen (2000). “Von der manuellen zur halbautomatischen semantischen Annotation: Informationen zu Ontologie-basierten Text Annotation Tools”, Verfahren der COLING, http:\/\/www.ida.liu.se\/ext\/epa\/cis\/2001\/002\/paper.pdf (abgerufen: 18.06.2012).^ Rao, Delip; McNamee, Paul; Dredze, Mark (2011). “Entity Linking: Extrahierte Entit\u00e4ten in einer Wissensdatenbank finden”, Extraktion und Zusammenfassung von Informationen aus mehreren Quellen und mehreren Sprachen, http:\/\/www.cs.jhu.edu\/~delip\/entity-linking.pdf[permanent dead link] (abgerufen: 18.06.2012).^ Rocket Software, Inc. (2012). “Technologie zum Extrahieren von Intelligenz aus Text”, http:\/\/www.rocketsoftware.com\/products\/aerotext Archiviert 2013-06-21 an der Wayback-Maschine (abgerufen: 18.06.2012).^ Orchestr8 (2012): “AlchemyAPI Overview”, http:\/\/www.alchemyapi.com\/api Archiviert 2016-05-13 an der Wayback-Maschine (abgerufen: 18.06.2012).^ Die Universit\u00e4t von Sheffield (2011). “ANNIE: ein fast neues Informationsextraktionssystem”, http:\/\/gate.ac.uk\/sale\/tao\/splitch6.html#chap:annie (abgerufen: 18.06.2012).^ ILP-Exzellenznetzwerk. “ASIUM (LRI)”, http:\/\/www-ai.ijs.si\/~ilpnet2\/systems\/asium.html (abgerufen: 18.06.2012).^ Attensity (2012). “Vollst\u00e4ndige Extraktion”, http:\/\/www.attensity.com\/products\/technology\/semantic-server\/exhaustive-extraction\/ Archiviert 2012-07-11 an der Wayback-Maschine (abgerufen: 18.06.2012).^ Mendes, Pablo N.; Jakob, Max; Garcia-S\u00edlva, Andr\u00e9s; Bizer; Christian (2011). “DBpedia Spotlight: Licht ins Netz der Dokumente bringen”, Vortr\u00e4ge der 7. Internationalen Konferenz \u00fcber semantische Systeme, p. 1 – 8, http:\/\/www.wiwiss.fu-berlin.de\/de\/institute\/pwo\/bizer\/research\/publications\/Mendes-Jakob-GarciaSilva-Bizer-DBpediaSpotlight-ISEM2011.pdf Archiviert 2012-04-05 an der Wayback-Maschine (abgerufen: 18.06.2012).^ Gangemi, Aldo; Presutti, Valentina; Reforgiato Recupero, Diego; Nuzzolese, Andrea Giovanni; Draicchio, Francesco; Mongiov\u00ec, Misael (2016). “Semantic Web Machine Reading mit FRED”, Semantic Web Journal, doi: 10.3233 \/ SW-160240, http:\/\/www.semantic-web-journal.net\/system\/files\/swj1379.pdf^ Adrian, Benjamin; Maus, Heiko; Dengel, Andreas (2009). “iDocument: Verwenden von Ontologien zum Extrahieren von Informationen aus Text”, http:\/\/www.dfki.uni-kl.de\/~maus\/dok\/AdrianMausDengel09.pdf (abgerufen: 18.06.2012).^ SRA International, Inc. (2012). “NetOwl Extractor”, http:\/\/www.sra.com\/netowl\/entity-extraction\/ Archiviert 2012-09-24 an der Wayback-Maschine (abgerufen: 18.06.2012).^ Fortuna, Blaz; Grobelnik, Marko; Mladenic, Dunja (2007). “OntoGen: Halbautomatischer Ontologie-Editor”, Tagungsband der Konferenz 2007 \u00fcber Human Interface, Teil 2, p. 309 – 318, http:\/\/analytics.ijs.si\/~blazf\/papers\/OntoGen2_HCII2007.pdf (abgerufen: 18.06.2012).^ Missikoff, Michele; Navigli, Roberto; Velardi, Paola (2002). “Integrierter Ansatz f\u00fcr das Lernen und Engineering von Web-Ontologie”, Computer35 (11), p. 60 – 63, http:\/\/wwwusers.di.uniroma1.it\/~velardi\/IEEE_C.pdf (abgerufen: 18.06.2012).^ McDowell, Luke K.; Cafarella, Michael (2006). “Ontologie-gesteuerte Informationsextraktion mit OntoSyphon”, Vortr\u00e4ge der 5. internationalen Konferenz \u00fcber das Semantic Web, p. 428 – 444, http:\/\/turing.cs.washington.edu\/papers\/iswc2006McDowell-final.pdf (abgerufen: 18.06.2012).^ Yildiz, Burcu; Miksch, Silvia (2007). “onX – Eine Methode zur Ontologie-gesteuerten Informationsextraktion”, Vortr\u00e4ge der internationalen Konferenz 2007 \u00fcber Computerwissenschaften und ihre Anwendungen, 3, p. 660 – 673, http:\/\/publik.tuwien.ac.at\/files\/pub-inf_4769.pdf (abgerufen: 18.06.2012).^ semanticweb.org (2011). “PoolParty Extractor”, http:\/\/semanticweb.org\/wiki\/PoolParty_Extractor Archiviert 2016-03-04 an der Wayback-Maschine (abgerufen: 18.06.2012).^ Dill, Stephen; Eiron, Nadav; Gibson, David; Gruhl, Daniel; Guha, R.; Jhingran, Anant; Kanungo, Tapas; Rajagopalan, Sridhar; Tomkins, Andrew; Tomlin, John A.; Zien, Jason Y. (2003). “SemTag und Sucher: Bootstraping des Semantic Web \u00fcber automatisierte semantische Annotation”, Vortr\u00e4ge der 12. internationalen Konferenz \u00fcber das World Wide Web, p. 178 – 186, http:\/\/www2003.org\/cdrom\/papers\/refereed\/p831\/p831-dill.html (abgerufen: 18.06.2012).^ Uren, Victoria; Cimiano, Philipp; Iria, Jos\u00e9; Handschuh, Siegfried; Vargas-Vera, Maria; Motta, Enrico; Ciravegna, Fabio (2006). “Semantische Annotation f\u00fcr das Wissensmanagement: Anforderungen und \u00dcberblick \u00fcber den Stand der Technik”, Web-Semantik: Wissenschaft, Dienste und Agenten im World Wide Web4 (1), p. 14 – 28, http:\/\/staffwww.dcs.shef.ac.uk\/people\/J.Iria\/iria_jws06.pdf[permanent dead link], (abgerufen: 18.06.2012).^ Cimiano, Philipp; V\u00f6lker, Johanna (2005). “Text2Onto – Ein Framework f\u00fcr Ontologie-Lernen und datengesteuerte \u00c4nderungserkennung”, Vortr\u00e4ge der 10. Internationalen Konferenz \u00fcber Anwendungen nat\u00fcrlicher Sprache auf Informationssysteme3513, p. 227 – 238, http:\/\/www.cimiano.de\/Publications\/2005\/nldb05\/nldb05.pdf (abgerufen: 18.06.2012).^ Maedche, Alexander; Volz, Raphael (2001). “Das Ontologie-Extraktions- und Wartungs-Framework Text-To-Onto”, Tagungsband der IEEE International Conference on Data Mining, http:\/\/users.csc.calpoly.edu\/~fkurfess\/Events\/DM-KM-01\/Volz.pdf (abgerufen: 18.06.2012).^ Maschinenverbindung. “Wir verbinden uns mit der Linked Open Data Cloud”, http:\/\/thewikimachine.fbk.eu\/html\/index.html Archiviert 2012-07-19 an der Wayback-Maschine (abgerufen: 18.06.2012).^ Inxight Federal Systems (2008). “Inxight ThingFinder und ThingFinder Professional”, http:\/\/inxightfedsys.com\/products\/sdks\/tf\/ Archiviert 2012-06-29 an der Wayback-Maschine (abgerufen: 18.06.2012).^ Frawley William. F. et al. (1992), “Knowledge Discovery in Databases: Ein \u00dcberblick”, AI Magazine (Band 13, Nr. 3), 57-70 (Online-Vollversion: http:\/\/www.aaai.org\/ojs\/index.php\/aimagazine\/article\/viewArticle\/1011 Archiviert 2016-03-04 an der Wayback-Maschine)^ Fayyad U. et al. (1996), “Vom Data Mining zur Wissensermittlung in Datenbanken”, AI Magazine (Band 17, Nr. 3), 37-54 (Online-Vollversion: http:\/\/www.aaai.org\/ojs\/index.php\/aimagazine\/article\/viewArticle\/1230 Archiviert 2016-05-04 an der Wayback-Maschine^ Cao, L. (2010). “Domaingesteuertes Data Mining: Herausforderungen und Perspektiven”. IEEE-Transaktionen zu Knowledge and Data Engineering. 22 (6): 755\u2013769. CiteSeerX 10.1.1.190.8427. doi:10.1109 \/ tkde.2010.32. S2CID 17904603. (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4"},{"@context":"http:\/\/schema.org\/","@type":"BreadcrumbList","itemListElement":[{"@type":"ListItem","position":1,"item":{"@id":"https:\/\/wiki.edu.vn\/wiki15\/#breadcrumbitem","name":"Enzyklop\u00e4die"}},{"@type":"ListItem","position":2,"item":{"@id":"https:\/\/wiki.edu.vn\/wiki15\/2020\/12\/25\/wissensextraktion-wikipedia\/#breadcrumbitem","name":"Wissensextraktion – Wikipedia"}}]}]