Blog-Eintrag vom Oktober, 2025

Dokumentation des vierten projektübergreifenden Agenturentreffens am 30.9. 2025 an der Deutschen Nationalbibliothek in Frankfurt am Main

Fast alle neuen Agenturen und Redaktionen waren zum 4. projektübergreifenden Agenturentreffen erschienen. Ziele des Treffens waren: Sich gegenseitig auf den aktuellen Stand der Entwicklungen zu bringen und zu Themen auszutauschen, die alle betreffen. Einen ganzen Tag lang berichteten die Teilnehmenden aus ihrer Praxis, diskutierten gemeinsam mögliche Lösungen von Problemen oder wie Ideen zusammen weiterentwickelt werden könnten und trafen Verabredungen für die künftige Zusammenarbeit. Mitarbeitende aus der GND-Zentrale brachten eigene Punkte ein und beteiligten sich intensiv an den Debatten. 

Als konzeptionelle Klammer diente das sog. CASA-Prinzip, das zum einen für eine Kultur des Vertrauens und des Teilens steht, und zum anderen die Teilnehmenden dazu einlädt, zu den Stichworten Challenged, Achieved, Sharing und Aiming aus ihrer Perspektive zu berichten. Daher war das Treffen nicht öffentlich, sondern beschränkte sich auf die in den neuen Agenturen und Redaktionen aktiv Mitarbeitenden und die Kolleg*innen aus der GND-Zentrale. Umso wichtiger ist die öffentlich geteilte Dokumentation des Treffens. Das Programm sah drei Runden vor: Check In, Barcamp und Plenum.

Dokumentationsrückblick

Erste Austausch-Runde

Alle Agenturen, Redaktionen und die GND-Zentrale hatten im Vorfeld Gelegenheit, sich zu den genannten Stichworten ihren Input zu überlegen und im Check In vorzutragen. Selbst neue Mitarbeitende konnten sich aufgrund der klaren Struktur gut in das Treffen einbringen. Es brauchte nur eine geringe Vorbereitungszeit und die alle betreffenden Themen wurden schnell offenbar.

Natürlich sind bei Teilnehmenden, die bereits seit Längerem im Netzwerk der GND arbeiten, die Perspektiven andere als bei denjenigen, die gerade im Aufbau oder noch in Planung sind. Dennoch kristallisierten sich klar Gemeinsamkeiten heraus. Ein Kernthema waren interne Workflows innerhalb der jeweiligen Agentur oder Redaktion. Wo diese noch konzipiert werden müssen, können die erfahrenen Agenturen beratend zur Seite stehen. So kann die Passung der inneren Workflows zu den Prozessen, die zwischen den etablierten Mitgliedern der GND-Kooperative bestehen, sichergestellt werden. Oft müssen jedoch die Konzepte noch umgesetzt und etabliert werden, ehe sie tatsächlich tragfähig sind und langfristig die Arbeit erleichtern. Die Prozesse innerhalb der GND-Kooperative waren ebenfalls Thema. Sehr deutlich wurde der Bedarf nach mehr Information und Transparenz sowie einer deutlichen Verkürzung der Prozesse. Das betrifft vor allem die Workflows bei Datenimporten und den Redaktionsprozess der GND-Regeln. Letzterer soll künftig transparenter und partizipativer werden, indem der funktionierende Releaseprozess für Redaktionsarbeiten an dem RDA-DACH-Standard in der STA-Dokumentationsplattform auch für die GND-Dokumentation übernommen werden soll. 

Alle Beteiligten hatten Erfolge zu feiern. Die einen hatten ihr erstes Testdatenset erfolgreich in die GND eingebracht – ein wichtiger Meilenstein im Gründungsprozess einer Agentur. Andere freuten sich, für ihren Kundenkreis regelmäßig Schulungen anbieten zu können und aus diesem Kreis mit neuen GND-Datensätzen zum Reichtum und Vielfalt der GND beizutragen. Mehrere legten Konzepte vor, wie ihre GND-Anwendenden über Templates oder Datenaustauschformate leichter in der GND mitarbeiten können. Diese Konzepte werden nach Möglichkeit in die Planung zum Aufbau des von der GND-Zentrale verantworteten, neuen GNDcommunityspace einfließen. Hier gilt es am Ball zu bleiben. 

Take-Aways aus der zweiten Runde

Die Themen, die alle betrafen, wurden in der zweiten Tageshälfte vertieft. Die Themen wurden in Barcamp-Manier aus dem Input des Check Ins durch die Abstimmung der Teilnehmenden identifiziert. An drei Tischen diskutierten die Teilnehmenden intensiv entlang der thematischen Linien  “Workflows und Organisation”, “Workflows und Daten” sowie “Neuer Workspace zur Datenedition – aka GNDcommunityspace”.

Zentrales Thema war der Bedarf an Schulungen für Anwendende, die keine bibliothekarische Vorbildung haben. Die Hoffnung ist groß, dass es mit der Veröffentlichung der GND-Dokumentation leichter wird, GND-Datensätze regelkonform zu erfassen. Diese enthält die bisherigen GND-Erfassungshilfen und -Leitfäden zur Erfassung in den gängigen Softwareprodukten in Bibliotheken (PICA, Aleph und Alma). Indem wir uns auf die GND-Dokumentation fokussieren, sollte das große Desiderat Schulung zur GND für Nicht-Bibliothekare besser adressiert werden können. Der Anspruch ist auf jeden Fall, dass die Regeln intuitiver, leichter verständlich und die notwendigen Informationen leichter zu finden sein sollen als in den vormaligen PDFs. Die jetzt vorliegende Dokumentation der GND-Regeln wird in den kommenden Monaten erweitert und soll mit dem Feedback der Nutzenden verbessert werden. Bereits jetzt ist es möglich, online Rückmeldung zu einzelnen Seiten der GND-Dokumentation zu geben. Geplant ist zudem, für die Nutzung der Dokumentation Online-Trainingsmaterial zu entwickeln, das den Einstieg für alle, die nicht tagtäglich GND Datensätze bearbeiten, erleichtern soll. 


Bild 1: Eindrücke aus der Bandbreite der geteilten Erfolge (Achieved):




Bild 2  Die Beiträge der Teilnehmenden im Check In zum Reinzoomen

Das zweite große Thema war eine verbesserte Dokumentation von Workflows. Das betrifft sowohl die generische Darstellung erwartbarer interner Workflows als auch die Darstellung, welche Anliegen über welche Workflows innerhalb der GND-Kooperative behandelt werden. Tatsächlich besteht hier noch ein Konzeptions- und Standardisierungsbedarf. Ein Thema, dem wir uns nur gemeinsam mit allen Beteiligten stellen können. 

Das betrifft auch den Workflow zu den Datenimporten. Hier braucht es nach Meinung der Anwesenden mehr Transparenz, um zu verstehen, warum Importe so iterativ und zeitintensiv sind. Die dünne personelle Ausstattung der Deutschen Nationalbibliothek, die die Hauptlast der Integration neuer Daten in das Produktivsystem der GND trägt, ist nur ein Teil der Erklärung. Der andere Teil betrifft die technischen Rahmenbedingungen: Aktuell können lediglich Daten im Format MARC 21 und MARCXML per Batch importiert werden. Zudem prüft die GND-Kooperative die Qualität der gelieferten Daten anhand von Stichproben vor dem Import in die produktive GND, da die Datenqualität der GND im Interesse aller Beteiligten liegt. Vielleicht wäre es sinnvoll – so eine Anregung aus dem Plenum – Datenimporte community-spezifisch zu clustern und in vereinbarten Sprints – nach der Scrum-Methode – zu importieren. Das böte allen Beteiligten den Vorteil, sich nicht über einen längeren Zeitraum immer wieder neu in eine Thematik einarbeiten zu müssen. Andererseits ist es unerlässlich, dass alle am Prozess Beteiligten innerhalb des vereinbarten Zeitraums dieser Aufgabe die notwendige Zeit widmen. Eine weitere Anregung bestand darin, bei zeitkritischen Themen, dies bereits in der Betreffzeile einer Email an Mitarbeitende der GND-Zentrale entsprechend zu vermerken und im Text zu erläutern. Das böte den Mitarbeitenden der DNB die Chance, in der Pipeline der Anfragen zu priorisieren.

Der im Check In von mehreren Beteiligten geäußerte Bedarf an weiteren Templates zur regelkonformen und zugleich niedrigschwelligen Erfassung neuer Normdatensätze, ob zu Sachbegriffen, zu Geografika oder Provenienzdaten, harmoniert mit dem Vorhaben der GND-Zentrale eine technische Plattform zur kollaborativen Aggregation von Normdaten anzubieten, den GNDcommunity(data)space (GNDcs). Die Arbeiten dazu haben erst vor Kurzem mit der Beauftragung eines Dienstleisters begonnen. Im GNDcs sollen registrierte Mitarbeitende unterschiedlicher Communities die Möglichkeit haben, Kandidaten für die GND zu editieren. Es soll künftig Templates geben, die vorgeben, welche Angaben benötigt werden, um regelkonform Entitäten in der GND zu identifizieren und zu disambiguieren. Die von den Agenturen und Redaktionen erwähnten eigenen Konzepte für die Erfassung bestimmter Entitätstypen fließen nach Möglichkeit in die Entwicklung des GNDcs mit ein. Die Datensätze im GNDcs erhalten einen Identifier, der, sollte er in das Produktivsystem der GND übernommen werden, in der GND gespeichert wird. Entscheidender Vorteil wäre, dass im GNDcs noch unvollständige Datensätze angelegt werden können und man miteinander an der Vervollständigung arbeiten kann. Sobald eine Agentur den Datensatz auf die Eignungskriterien der GND hin überprüft und bestätigt hat, kann der Kandidat übernommen werden. Ein weiteres geplantes Funktionsfeld ist die Möglichkeit, im GNDcs ergänzende Angaben zu bestehenden GND-Datensätzen zu machen, die später zwar über den GND-Explorer angezeigt werden, aber nicht zwingend in das Produktivsystem der GND übernommen werden müssen. Schließlich ist auch ein Funktionsbereich für Korrekturen von bestehenden GND-Datensätzen geplant, die von einer Redaktion vor der Übernahme in das Produktivsystem geprüft werden. Eine erste Beta-Version mit funktionsfähigen Teilbereichen der Anwendung wird für Anfang 2026 erwartet.

Die Logos der entsendenden Einrichtungen und Konsortien

Eine Anregung galt dem Angebot des Informations- und Lernmaterials, das unter anderem auf der GND-Website vorliegt. Hier würden kategorisierende Etiketten, wie “Einführung” und “Archive”, helfen, sich im Angebot schneller zu orientieren. Bei der anstehenden Überarbeitung der GND-Infothek soll diese Anregung aufgegriffen werden.

Schließlich noch ein Hinweis: Viele neue GND-Anwendende haben die meist nur gedruckt vorliegenden Nachschlagewerke, auf die die GND-Dokumentation regelmäßig Bezug nimmt, aus Kostengründen nicht zur Hand. Zudem erscheinen gerade Fachcommunities die in der Liste der Nachschlagewerke verzeichneten Titel als zu allgemein oder gar veraltet. Das heißt, für die Redaktion dieser Liste müsste der Prozess partizipativer und transparenter gestaltet werden. Dies könnte gegebenenfalls künftig im Rahmen des Releaseprozesses der Änderungen der GND-Dokumentation adressiert werden. Zuvor muss jedoch definiert werden, wer genau die Mitwirkenden, neben den Mitgliedern des GND-Ausschusses, in diesem Releaseprozess sein werden. 

Zum Schluss des langen Tages

Nachdem im Plenum die Ideen und Ergebnisse aus dem Barcamp zusammengetragen worden waren, galt es zum Schluss des langen Tages Bilanz zu ziehen und Verabredungen für die Zukunft zu treffen: Die Praxis der jährlich stattfindenden projektübergreifenden Agenturentreffen soll beibehalten werden. Und als Angebot der bereits im Dauerbetrieb agierenden neuen Agenturen – LEO-BW-Regional, Bauwerke und data4kulthura – soll ein “Jour Flexe” für alle Interessierten eingerichtet werden, um den lockeren Austausch kontinuierlich zwischen den vor Ort stattfindenden Agenturentreffen zu fördern. 

Bild 3 Die Mitarbeitenden aus den neuen Agenturen und Redaktionen sowie der GND-Zentrale in der Herbstsonne. Credit: A.Steckel (SUB), CC BY, 2025

Wenn ein hydraulischer Obstschüttler in der Apfel- oder Olivenernte zum Einsatz kommt, dann prasseln mit viel Krach die Früchte auf die Erde, Äste brechen und manch ein Apfel zerplatzt im Sturz. Wer das von Tracy Arndt in der Infrastruktur der Deutschen Nationalbibliothek (DNB) angepasste und implementierte Tool zum "Cherry-Picking" in der Gemeinsamen Normdatei (GND) zum Einsatz bringt, hört kaum das Schnurren des Computers und nicht ein Datensatz zerbricht. Tracy Arndt ist Bibliotheksinformatikerin und verantwortet in der DNB den Linked Data Service. Erst kürzlich wurde der so genannte SPARQL Endpunkt zur GND und den Titeldaten der DNB in einer Betaversion veröffentlicht. Sie hat mir im Interview erklärt, wie dieses Tool funktioniert und was für sie in diesem Kontext “Cherry-Picking” bedeutet. 


Zum Vergrößern auf das Bild klicken

Ein hydraulischer Obstschüttler in Aktion credit: Feucht Obsttechnik 

Barbara: Tracy, was genau ist ein SPARQL Endpunkt?

Tracy: Ein SPARQL Endpunkt ist ein Webdienst, über den mit der standardisierten Abfragesprache SPARQL auf strukturierte Metadaten im Format RDF zugegriffen werden kann – einem Modell, das Informationen als Tripel (Subjekt – Prädikat – Objekt) speichert und damit leicht von Maschinen verarbeitet werden kann. Anders gesagt, mit Hilfe einer SPARQL Abfrage kann ich über eine oder mehrere Datenquellen gleichzeitig nach Datensätzen suchen und das Ergebnis als Liste exportieren, die alle dieselben von mir definierten Kriterien erfüllen. Beispielsweise kann ich mir eine Sammlung erstellen lassen, aus der die Verteilung bestimmter Geburtsjahrgänge laut der Datenquelle in einem bestimmten Berufsbild hervorgeht. Aber auch alle Personen, die vor 1960 geboren wurden, als Auszug exportieren.

Für wen ist der Service? 

Im Prinzip können alle diesen Abfragedienst nutzen. Besonders relevant ist er vermutlich für Mitarbeitende in Bibliotheken, in der Forschung und im Kulturbereich. Gerade Entwickler*innen, die die Such-Ergebnisse in eine eigene Anwendung einbinden wollen, profitieren vom schnellen und maschinenfreundlichen SPARQL Service. Mit etwas Geschick können Laien, die die Ergebnisse ihrer facettierten Suche anstatt sie sich im Explorer nur anzeigen zu lassen, diese als Tabellenblatt oder im JSON-Format über den SPARQL Endpunkt exportieren. Diese Form der definierten Exports kommt dem englischen Ausdruck “cherry-picking” doch recht nah.

Wie sieht ein typischer Usecase aus?

Eine Person oder eine Anwendung, die aus den Datenquellen GND oder/und Titeldaten der DNB einen präzisen Teilbestand identifizieren möchte, dürfte das Gros der Nutzenden ausmachen. 

Gibt es eine Art “Übersetzungsdienst”, damit Menschen ohne Vorkenntnisse eine SPARQL Abfrage formulieren können? Oder verlässt man sich lieber auf einen KI-Chatbot? 

In einem ersten Schritt kann man sich an den Beispielen, die auf der Website angegeben sind, orientieren und daraus die eigene Abfrage ableiten. Im Netz gibt es viele Anleitungen für das Abfassen von SPARQL Abfragen. Zudem betreue ich aktuell ein studentisches Softwareprojekt an der HTWK Leipzig. Die Studierenden programmieren eine Anwendung, die natürlich-sprachige Anfragen an die GND in eine SPARQL Query übersetzen und dann die Antwort auch natürlich-sprachig wiedergeben. Also eine Art Chatbot. Wenn man beim formulieren von SPARQL Queries allgemein Unterstützung braucht, kann natürlich auch ein marktüblicher Chatbot helfen. Bei der Übernahme der Tipps muss man jedoch darauf achten, dass man das in der GND gängige Vokabular verwendet. Zum Beispiel die korrekten Bezeichnungen der Entitätstypen oder die in der GND verwendeten Eigenschaften. Entsprechend gilt das für die in den Titeldaten verwendeten Labels, damit diese bei der Suchabfrage des SPARQL Services gefunden werden. Der normale Chatbot wird hier nicht exakt den richtigen Code liefern, sondern im Zweifel eigene Bezeichnungen halluzinieren.

Gibt es eine Möglichkeit, mir Veränderungen der Ergebnisliste der Suchabfrage im Zeitverlauf anzeigen zu lassen? Wenn man beispielsweise regelmäßig mit derselben Suchanfrage den Dienst benutzt, kann ich dann Veränderungen im Zeitverlauf kenntlich machen? 

Weder in der GND noch in der Titeldatenbank werden Versionsverläufe in einer einfachen Modellierung abgebildet. Daher lassen sich derzeit Zeitverläufe nicht so gut über SPARQL Abfragen abbilden.

Zum Vergrößern auf das Bild klicken

Poster zum SPARQL Enpoint von Thomas Bauer und Tracy Arndt, DNB, CC BY, 2025

Der SPARQL Service greift sowohl auf die Daten der GND in Verbindung mit anderen Daten namentlich den DNB-Titeldaten zu. Kann ich die beiden Datenquellen auch getrennt adressieren? Also nur GND oder nur Titeldaten? Kann ich weitere Datenquellen inkludieren, beispielsweise Wikidata? Und wenn ja, wo finde ich hierfür eine Anleitung? 

Auf der Website des SPARQL Services ist die Auswahl vorprogrammiert entweder nur in der GND oder kombiniert mit den Titeldaten der DNB die Suchabfrage laufen zu lassen.  Siehe Screenshot.

Das tolle an dem Datenformat RDF ist, dass man Daten über URIs - also Links - untereinander referenzieren kann. Das bedeutet, dass wenn ein anderer Datensatz diese URI nachnutzt, kann ich an die Informationen kommen, die dahinter stehen. Am besten sieht man das an unseren Titeldaten. Dort ist beispielsweise der Autor eines Titels mit der GND verknüpft. Dort ist der Autor wiederum verknüpft mit einem Ort. So kann man eine Datenliste mit den entsprechenden Namen und Buchtiteln als Antwort auf die Frage bekommen: “Welche Bücher wurden von Berliner Autorinnen geschrieben?" 

Gibt es Informationen darüber, wie oft der Service genutzt wird? 

Ja, wir erfassen die Zugriffe. Diese werden nur über die IP Adressen geloggt, aber nicht von uns entschlüsselt. Uns interessiert hier mehr, was abgefragt wird und überhaupt nicht, wer die Abfrage stellt. Die Daten sind hinreichend anonymisiert, so dass man von einer DSGVO konformen Datenhaltung ausgehen kann.

Welche Rolle spielt die GND Ontologie?

Die GND Ontologie enthält die Beschreibung der Daten und wie sie miteinander in Beziehung stehen. Dort kann man sehen, welche Eigenschaften verwendet werden. Beispielsweise: preferredNameOfThePerson oder DateOfBirth. Daher spielt die GND Ontologie eine zentrale Rolle, da über die Ontologie die Strukturen des Wissensgraphen geformt werden. Bei den Titeldaten verwenden wir nach internationalen Standards für denselben Zweck externe Vokabulare.

Wie ist der Endpunkt technisch aufgebaut?

Über monatliche Datendumps aus unseren internen Daten werden RDF Daten erzeugt und anschließend mit der SPARQL Engine Qlever indexiert, um eine schnelle Suche darauf durchzuführen.

Gab es Schwierigkeiten bei der Konzeption und Implementierung?

Wir haben lange nach einer geeigneten Software gesucht, um einen SPARQL Endpunkt anbieten zu können. Aufgrund der Größe der Datendumps, insbesondere unserer Titeldaten, haben sich aber immer wieder Performance Probleme gezeigt. Der Service wäre zu langsam gewesen. Mit der SPARQL Engine Qlever tritt das jedoch nicht auf und wir können endlich einen performanten Endpunkt anbieten.

Wie oft werden die Daten, auf die der SPARQL Endpunkt zugreift, aktualisiert? 

Die GND Daten und Titeldaten, die für die SPARQL Abfragen genutzt werden, werden monatlich frisch hochgeladen.

Und zum Schluss wo finde ich mehr Information?

Ergänzend zur Website stellen wir weitere Informationen im DNB Wiki bereit und freuen uns über Feedback von den Nutzenden.

Das Gespräch führten Tracy Arndt und Barbara Fischer.

Zum Vergrößern auf das Bild klicken

Eine Anleitung für eine Suchabfrage über mehrere Datenquellen in Kombination, also eine federated Query, ist im Screenshot angerissenen Beispiel dargestellt.

Ein Online-Workshop der IG Archiv zur Erörterung des Bedarfs an Lernangeboten zur Arbeit mit der Gemeinsamen Normdatei (GND)

Die Dokumentation

Rund 80 Teilnehmende folgten der Einladung der Interessengruppe Archiv im Netzwerk der GND sich mit dem Thema “Wie lernt man Normdaten nutzen und schaffen?” aktiv auseinanderzusetzen. Der Workshop war öffentlich und fand am 19. September 2025 online statt. Die Teilnehmenden kamen aus allen Archivsparten und mit ganz unterschiedlichen Vorkenntnissen zum Thema Normdaten allgemein und der GND im Archiv im Besonderen. Den unterschiedlichen Voraussetzungen der Teilnehmenden wurde die Veranstaltung gerecht, indem sie einerseits bestehende, zum Teil einführende Handreichungen speziell für Archivmitarbeitende vorstellte, die die IG Archiv jüngst veröffentlicht hat:


Einsatz von GND-Normdaten im Archiv : archivische Relevanzkriterien

Die GND im Archiv : Handreichung zur Nutzung von Normdaten

Tipps & Tricks für die erfolgreiche Nutzung von Tools zum Einsatz der GND im Archiv

Version 1.0 (Januar 2025)

Version En 1.0 (June 2025)

Version 1.1 (August 2025)
 

Dazu auch der Vortrag von Dr. Stephanie Marra, Universitätsarchiv Dortmund

Zum Lesen klicken

Dazu auch der Vortrag von Dr. Johannes Haslauer, Staatsarchiv Bamberg

Zum Lesen klicken


Zum anderen bot der Vortrag von Barbara Fischer (DNB) zum derzeitigen Angebot von Informations- und Lehrmaterialien zur Nutzung und Mitarbeit in der GND einen Einstieg in die Diskussion zu den spezifischen Bedarfen der Community. 

Zum Lesen klicken

Letztlich zeigte die Diskussion, dass nach wie vor viele der bestehenden Angebote und Materialien noch nicht hinreichend bekannt sind. Dem will die IG Archiv künftig durch verstärkte Vermittlungsarbeit Rechnung tragen. Aufgeworfene Fragen und Bedarfe betrafen im Weiteren das Angebot an unterstützenden GND-Agenturen in der jeweiligen Region bzw. Archivsparte, die verbesserte Verankerung des Themas Normdaten zur Referenzierung transinstitutioneller Bestände in der Aus- und Fortbildung von Archivar*innen sowie schließlich die Anleitung zur integrierten Nutzung von Normdaten in unterschiedlichen Archiv-Informationssystemen. Thematisiert wurde ebenfalls die Methode der Vermittlung: Kurse mit Interaktionsmöglichkeiten für Lernende erscheinen vielfach attraktiver als Lernangebote zum Selbststudium. Insbesondere dem Thema “GND-Agentur”, Aufgaben und Einrichtung, wurde viel Bedeutung zugesprochen. Darauf soll eine künftige Veranstaltung der IG Archiv näher eingehen.

Veranstaltungshinweise zum Thema Schulung und Normdaten

Ergänzend und erweiternd noch die gesammelten Hinweise der Teilnehmenden zu passenden Veranstaltungen oder Material  und eine Sammlung von weiterführenden Links, die im Chat oder auf den Folien Erwähnung fanden:

Nützliche Links aus dem Chat und von den Folien:   


Ein Beitrag von Glagla-Dietz, Stephanie 



Am 29. September ist eine neue Version des GND Explorers produktiv genommen worden: 2.0.

Die höhere Zahl vor dem Punkt der Versionsnummer deutet schon an, dass es größere Änderungen gibt:


Externe GND-Nutzung

Label und Facette sind zwar bereits seit der letzten Version produktiv, doch kann die Funktion jetzt gerne beworben werden. Nicht nur die schnell verfügbaren Infos zur Wikimedia-Familie im Label „Externe GND-Nutzung“ sind komfortabel, sondern auch die weiterführenden Links zu Katalogen, die noch einige Zeit im Label „Identifikatoren“ zu finden sein werden.

Letztere Links sind sind um einen Link zum BEACONAggregator der LMU München ergänzt worden:

Neben der GND-URI, die ja zur Deutschen Nationalbibliografie führt, erlaubt besonders der Link zur OGND die zeitsparende Recherche nach zur GND-Entität gehörenden Titeldaten im K10plus, Gateway-Bayern und Österreichischer Nationalbibliothek. Mit der Ergänzung des Links zum BEACONAggregator sind nun alle Bibliotheksverbünde, die ZDB, FIDs und andere Fachbibliographien und Datenbanken direkt für die Weiterrecherche erreichbar. Beispiel Heinrich Heine:

https://prometheus.lmu.de/gnd/118548018. Siehe nebenstehenden Screenshot 1.


Dennoch ist dies erst der Anfang für externe Sichten. Das GND-Explorer-Team wird sich in den nächsten Wochen vor allem auf eine Erweiterung der Externen GND-Nutzung für eine GND-Community-Sicht konzentrieren.


Facetten

Für die neue Facette DDC-Notation wurden die DDC-Notationen jeweils auf der Ebene der DDC-Klassen zusammengefasst: siehe Screenshot 2. Diese Ansicht bekomme ich zum Beispiel, wenn ich mit der Anzeige aller Entitäten beginne: 

Zur Anzeige aller Entitäten in einer Trefferliste

Diese werden auch als Überordnung im Label DDC-Notationen genannt und können mittels eines  Suchlinks von einer einzelnen Entität recherchiert werden: Screenshot 3.

In der Facette Tonart können nur noch Musikwerke gefiltert werden, die mit einer Tonart verknüpft sind. Seit dem 2. September werden Tonarten möglichst mit dem jeweiligen Sachbegriff verknüpft, inzwischen sind mehr als 38.000 Musikwerke verknüpft. 


Auf der Startseite zum GND Explorer findet man noch viele weitere Tipps zur erweiterten Suche.


Katalogisierungssichten

Zwischen Faktenblatt und Ortsvisualisierung ist ein neuer Navigationspfad für Kompakt- und Katalogisierungsformate hinzugekommen:

In einem ersten Schritt sind die Formate Pica3 und Pica+ produktiv, in der nächsten Version folgt eine Kompaktansicht und später eine modifizierte MARC21-Ansicht. Screenshot 5.



Verbesserungsvorschläge (und natürlich entdeckte Fehler) sind, wie immer und jederzeit willkommen.


Für die ukrainische Version haben wir immer noch keinen neuen Übersetzer, um neue und geänderte Texte einzupflegen. Mehr und mehr Texte werden deshalb auf Deutsch und einige wenige auf Englisch angezeigt.



Viel Freude bei der Nutzung des GND Explorers wünscht

mit fröhlichen Grüßen
Ihr und Euer GND-Explorer-Team

 

Screenshot 1 Zeigt am Beispiel "Heinrich Heine" die Sammlung der LMU von Einrichtungen und Projekten, die GND in ihren Datensammlungen verwenden und dies über das BEACON Format mitteilen.

Screenshot 2 Die DDC Notation als Suchfacette im GND Explorer

Screenshot 3 Die interaktive DDC Notation im Faktenblatt einer Entität im GND Explorer

Screenshot 4 Die klassischen Tonarten als Suchfacette im GND Explorer


 


Screenshot 5 Katalogisierungsschichten