Machine Learning oder maschinelles Lernen ist nach Wikipedia die „künstliche“ Generierung von Wissen aus Erfahrung: Ein künstliches System lernt aus Beispielen und kann diese nach Beendigung der Lernphase verallgemeinern. Das heißt, es werden nicht einfach die Beispiele auswendig gelernt, sondern es „erkennt“ Muster und Gesetzmäßigkeiten in den Lerndaten.
Bei ORES wird maschinelles Lernen zum Beispiel eingesetzt, um Vandalismus aufzuspüren. Nachdem typische Muster von Vandalismus trainiert wurden, erkennt das System neuen Vandalismus mit sehr hoher Wahrscheinlichkeit und kann diesen (menschlichen) Administratoren anzeigen.
Zwei Teams bei HackHPI beschäftigten sich mit dem maschinellen Lernen oder der Datenanalyse bei Wikidata. In einem Projekt wurde eine Visualisierung zum “Bias” bei Inhalten (Artikel zu psychischen Störungen) angefertigt, um Unterschiede zwischen Sprachversionen aufzuzeigen.
Richtig überzeugt hat uns aber das Projekt eines Teams, das sich daran machte, “Show case items”, also besonders gut ausgearbeitete Wissensgegenstände in Wikidata aufzuspüren und zu evaluieren. Dabei wurden zunächst gut ausgearbeitete Datenobjekte wie das zu Douglas Adams maschinell untersucht, um Kriterien zu finden, die sie zu Vorzeigeobjekten machen.
Damit werden nicht nur Datenschätze in Wikidata aufgespürt, es entsteht auch ein Score als Metrik, um die “Vorzeigbarkeit” eines Wikidata-Items bewerten zu können.
Maschinelles Lernen ist zur Zeit ein besonders spannendes Thema, an dem intensiv geforscht wird. Die Ergebnisse dieser Forschung klingen nach Science Fiction, umgeben uns aber bereits heute – digitale Assistenten im Smartphone, die auf Zuruf Dinge im Internet recherchieren, sind bereits für viele menschen Alltag. Mit Wikidata als strukturierter Datenfundus über das Wissen der Welt steht eine Quelle für maschinelles Lernen zur Verfügung, die den Anspruch hat, Freies Wissen zu schaffen – für Maschinen und Menschen gleichermaßen.