Vor 20 Jahren war revolutionär, wie Wikipedia geschrieben wurde: Über das damals noch neue Internet arbeiteten Freiwillige an unzähligen Artikeln. Entstanden ist so ein zuverlässiges Nachschlagewerk der Superlative. Allein die englische Ausgabe würde gedruckt mehr als 2'800 Bände umfassen.
Das Potenzial des Computers ausschöpfen
So eindrücklich diese Zahlen sind: Wikipedia bleibt eine Sammlung von einzelnen Artikeln.
Zwar kann man in der digitalen Version nach Begriffen suchen, doch es gibt unzählige Fragen, die das Nachschlagewerk nicht beantworten kann. Zum Beispiel: Auf welchen Gemälden aus dem 17. Jahrhundert sind Holzblasinstrumente abgebildet?
Während Wikipedia aus einzelnen Artikeln – und somit aus Freitext besteht – ist Wikidata aus genormten Einträgen aufgebaut, die strengen Regeln folgen. Jeder Eintrag besteht aus zahlreichen einfachen Aussagen.
So wie der zu Johann Sebastian Bach: Zuerst wird festgehalten, dass es sich um einen Menschen handelt. Danach werden die Vornamen aufgezählt, gefolgt vom Geburtsdatum und dem Geburtsort Eisenach.
Ein Link führt zum Wikidata-Eintrag dieser Stadt, der auch aus zahlreichen Aussagen besteht: etwa zur geografischen Lage 50°58'29"N, 10°19'28"E oder genauen Angaben zur Einwohnerzahl.
Link zum Artikel
Für den Computer gemacht
Auf Menschen wirkt das staubtrocken. Maschinen aber finden dank dieser rigiden Struktur Antworten auf Fragen, die kein Nachschlagewerk liefern kann. So auch: Welchen Grossstädten der Welt steht eine Frau als Bürgermeisterin vor?
Die Antworten sind nur so zuverlässig wie die Daten in der Bank. Wie Wikipedia ist auch Wikidata für alle offen: Wer will, kann neue Objekte erfassen und mit bestehenden Angaben verlinken.
Bei einer Anfrage gibt es deshalb keine Garantie auf Vollständigkeit. Doch schon heute umfasst Wikidata mehr als 90 Millionen Einträge, ein Vielfaches der 6.2 Millionen Artikel in der englischsprachigen Wikipedia.
Zusammenarbeit mit den Profis
Neben interessierten Laien möchte Wikimedia vor allem auch mit Galerien, Bibliotheken, Archiven und Museen zusammenarbeiten. Das macht Sinn: Wenn alle grossen Museen der Welt ihre Bestände in der neuen Datenbank erfassen, hilft das nicht nur der Öffentlichkeit, sondern auch den Museen selbst, zum Beispiel beim Planen einer neuen Ausstellung.
Das New Yorker Metropolitan Museum of Art erfasst seit mehreren Jahren automatisiert Teile der Sammlung in der neuen Datenbank. Dabei hilft Bilderkennungssoftware bei der Beschreibung der Inhalte.
Schon heute kann man sich von Wikidata anzeigen lassen, wo auf der Welt welches Werk von Picasso zu finden ist.
Fragen ist (zu) kompliziert
Solche Fragen muss man in der Abfragesprache SPARQL formulieren – nicht nur für Laien eine grosse Hürde. SPARQL erinnert zwar auf den ersten Blick an die Sprache SQL, seit vier Jahrzehnten der Standard bei der Suche in konventionellen Datenbanken.
Doch um raffinierte Suchanfragen formulieren zu können, ist die Lernkurve bei SPARQL steil. Wikidata stellt darum dutzende Beispielfragen zur Verfügung, die man auf die eigenen Bedürfnisse anpassen kann. Auch eine vereinfachte Suche ist in Arbeit.
Gelingt das und wächst die Datensammlung so schnell wie in den letzten Jahren, so ist es gut möglich, dass in 20 Jahren der Nobody Wikidata dem Star Wikipedia den Rang ablaufen wird.