Memoire Projects

Zugang gestalten! – Konferenzbericht

Die „Zugang gestalten!“-Konferenz wurde in diesem Jahr, in ihrer mittlerweile 6. Auflage, im Museum für Gegenwartskunst im Hamburger Bahnhof (Berlin) veranstaltet. An dieser Stelle möchten wir über den Verlauf und die – unseres Erachtens – strittigen Punkte der Diskussionen berichten. Wie wir uns zu den Themen positionieren, haben wir an anderer Stelle dargelegt. Ausgerichtet wurde die Konferenz in einer Kooperation führender deutscher Kultur- und Gedächtnisinstitutionen, zu denen das Bundesarchiv, die Stiftung Preußischer Kulturbesitz, die Deutsche Digitale sowie Deutsche Nationalbibliothek, die Jüdischen Museen aus Frankfurt und Berlin, das ZKM Karlsruhe und schließlich Wikimedia Deutschland zählen.

img_1697

Die Konferenz widmete sich besonders zwei großen Problemkomplexen, die kulturelle Einrichtungen weltweit betreffen: das ist zum einen die Frage der langfristig sicheren Speicherung und Archivierung von Kulturgütern unterschiedlichster Art – die Frage der Nachhaltigkeit – und zum anderen die Reform des Urheberrechts. Es sind diese beiden Aspekte, die durch die ubiquitär ablaufende Digitalisierung für erhebliche Barrieren in der Kulturvermittlung sorgen. Das Schlagwort „Digitalisierung“ bezeichnet insgesamt ein multidisziplinäres Großprojekt, in dem eine Vielzahl von Spezialisten zusammengebracht werden muss – von Kunst- und Kulturhistorikern über Verwaltungsfachleute hin zu IT-Experten und Open Source Aktivisten. Damit gehen zunächst erhebliche finanzielle, rechtliche und organisatorische Schwierigkeiten einher. Grundsätzlich haben Kultureinrichtungen mit einer strukturellen Paradoxie umzugehen: der allgemeinen Forderung von „Nachhaltigkeit“ müssen sie mit Lösungen der Langzeitarchivierung entsprechen, die lediglich in zeitlich begrenzten Projekten erarbeitet werden können. Nach jeder Projektphase droht in diesem Rahmen Diskontinuität statt Nachhaltigkeit: Finanzierungsprobleme durch ungewisse Anschlussförderung, Expertisen und Bearbeitungsstände, die wieder verloren gehen, weil entsprechende Projekt-Teams aufgelöst werden müssen, kaum langfristig planbare Kooperationen zwischen den Institutionen. Allein der urheberrechtliche Aspekt der Archivarbeit verlangt den meisten Häusern einen personellen und zeitlichen Aufwand ab, der gravierende Finanzierungslücken nach sich zieht. Ein recht anschauliches Praxisbeispiel für die Urheberrechtsproblematik bieten die REM (Mannheim): die Reiss-Engelhorn-Museen befinden sich in der Trägerschaft einer Privatstiftung, an der die Stadt Mannheim mit 15% beteiligt ist. Ein Großteil der dort aufbewahrten Objekte gehört wiederum verschiedensten Privateigentümern, mit denen unterschiedlichste Verträge geschlossen worden sind. Für jede Publikation, die solche Objekte in Privatbesitz betrifft, müssen spezielle Genehmigungen oder Rechtsgutachten eingeholt, Erlösmodelle und Gewinnbeteiligungen vereinbart werden. Für viele weitere Objekte ist der Rechtsstatus, hier wie andernorts, darüber hinaus gar nicht geklärt und muss in jedem Einzelfall – für jedes Objekt – recherchiert und überprüft werden.

Vor dem Hintergrund dieser Sachzwänge ergibt sich die Forderung nach einer Reform des Urheberrechts, unter der sich die Kulturbranche notgedrungen als Interessengemeinschaft zu formieren scheint – und die gleichsam eine politische Verwerfung verursacht. Der Konflikt kann etwa mit den zentralen Schlagworten „collective licensing“ und des „digitalen Binnenmarkts“ überschrieben werden. Collective licensing wäre, grob gesprochen, ein Rechtsinstrument, das für bestimmte Klassen von Objekten kollektive Nutzungsrechte einräumen könnte, sodass über deren Verwendung nur einmal verhandelt werden müsste. Die Digitalisierungsstrategie der EU setzt augenscheinlich einen anderen Fokus. So erklärte Jörgen Gren, Vertreter der EU-Kommission, die Hauptpunkte der Agenda zur Schaffung eines digitalen Binnenmarktes: Freier Zugang könne, nach dem Verständnis der entsprechenden EU-Ausschüsse, kaum kostenlosen Zugang bedeuten. Das Augenmerk gelte vorrangig der Piraterie-Bekämpfung, ferner Fragen der Verleger-Beteiligung, der Haftung für (tote) Links und Rechten der Weiterverwendung/des Weiterverkaufs vergriffener Werke. Es gelte dabei, Urheberrechte transparenter zu machen, um die Verhandlungsposition von Kulturproduzenten zu stärken. Wenn rechtliche Hemmnisse der Vermarktbarkeit beseitigt sind und Produzenten angemessene Honorare erzielen könnten, begünstige das möglicherweise den Mut, digital zu publizieren. Während sich die EU-Digitalisierungsstrategie damit vor allem auf Möglichkeiten der Kommodifizierung zu richten schien, waren an anderer Stelle eher Anzeichen politischer Handlungsunfähigkeit zu vernehmen. Ministerialrat Matthias Schmid, Leiter des Urheberrechtsreferats im Bundesjustizministerium, empfahl angesichts der Komplexität der Rechtslage die entsprechenden juristischen und politischen Bedarfe am besten am konkreten Fall, in der Projektarbeit und an Hand spezifischer praktischer Schwierigkeiten, zu erarbeiten. Anders sei kaum eine Vorstellung einer funktionierenden Reform zu gewinnen. Einige Konferenzteilnehmer entnahmen dieser Position den subtilen Aufruf, proaktiv Tatsachen in der rechtlichen Grauzone zu schaffen, ein Ansatz, den man freilich sogleich wieder verwerfen muss. Statt konstruktiver Schritte zeichnete sich von politischer Seite also eher die Bestätigung des status quo ab.

Lösungsansätze liefern dann lediglich jene Projekte, die den gestellten Aufgaben in der Tat praktisch begegnen. Hier tritt ein dritter, jedoch kaum weniger anspruchsvoller, Problemkomplex zu Tage: Die Digitalisierung fordert die Kulturpflege vor allem in technischer Hinsicht heraus. Dabei erhöhen sich die Anforderungen, so paradox es klingen mag, gerade auch in der analogen Dimension: es wird mehr und spezialisiertes Personal benötigt; es werden Vorrichtungen sowie das entsprechende Know-how benötigt, auch rasant veraltende Technologien – insbesondere im Video- und Filmbereich – verfügbar zu halten; mit den Datenträgern veralten gleichsam die Abspielgeräte, die damit ebenfalls erhalten werden müssten. Das ZKM Karlsruhe ist für dieses Problem ein mustergültiges Beispiel. Analoge Speicherung, vor allem schlicht: Lagerung, ist der erste und ein gewaltiger Kostenpunkt der Archivarbeit. Und es kommt zu Kuriositäten: In einigen Archiven werden heute digitale Informationen wieder verstärkt auf Mikrofilm zurückgespielt, dem eine lange Haltbarkeit nachgesagt wird. Diese Maßnahmen sind jedoch ebenso Problemen der technischen Obsoleszenz – dem schnellen und teils willkürlich terminierten Veralten digitaler Technologien – geschuldet, denn es müssen gleichfalls Schutzvorkehrungen gegen das Szenario von Informationsmonopolen großer IT-Konzerne getroffen werden.

Zu den technischen Schwierigkeiten gehören nicht zuletzt terminologische Probleme. Das betrifft einerseits programmiertechnische Standards und Konventionen der Datenverarbeitung. Dieser Mangel an Einheitlichkeit – terminologisch, datentechnisch und infrastrukturell – wird wiederum gebündelt in der Anlage von Datenbanken besonders deutlich, die immerhin ein zentrales Instrument für offenen Zugang darstellen: Insgesamt liegen der Archivierung je nach Einrichtung völlig unterschiedliche Ordnungen zu Grunde. Die verwendete Terminologie richtet sich nach einem breiten Spektrum an Fachvokabularen, -systematiken und -taxonomien. Damit diese nicht allein zwischen Facheinrichtungen ausgetauscht, sondern auch für den öffentlichen Gebrauch nutzbar gemacht werden können, beschäftigen sich Pionierprojekte vor allem mit der Erstellung von Thesauren zu unterschiedlichen Forschungsdisziplinen. Diese sollen als einheitliche Verständigungsgrundlage genutzt werden können und – zwecks Offenheit, zwecks Nachhaltigkeit – zugleich lernbare Vokabularien bleiben. Vielfach sind an der Entwicklung von zukünftigen Standards – neben entsprechenden Abteilungen größerer Häuser – auch open-source- und community-basierte Initiativen beteiligt, die an der Strukturierung von Datensätzen, der Entwicklung offener Programmiersprachen und der Erschließung von Quellenmaterial mitwirken. Organisatorischer, aber auch ideeller Fixstern ist dabei in mehrfacher Hinsicht Wikipedia und sein Schwesterprojekt Wikidata.

Die eigentliche Pointe der Konferenz deutet sich in diesen Beispielen bereits an; sie liegt in der Frage, wer das gesammelte Kulturgut pflegen, vermitteln und nutzen wird. Zu den wenigen Ansätzen, bei denen auf einen breiten Konsens gebaut werden kann, gehören partizipative Modelle. In beinahe sämtlichen Phasen der Kulturpflege und -vermittlung und in beinahe allen Arbeitsfeldern, von der technischen Infrastruktur über die Datenpflege bis hin zur inhaltlichen Aufbereitung von Quellen, werden zunehmend öffentliche Gruppen, themen-zentrierte Communities, freie Kulturinitiativen sowie gleichermaßen Fachleute und interessierte Laien eingebunden. Im Dienste öffentlicher Bildung erscheint die Bereitschaft groß, einerseits Deutungshoheit aufzugeben als auch den öffentlichen Diskurs darüber, welche Bestände des kulturellen Erbes dieses überhaupt definieren, ergebnisoffen zu führen. Die Digitalisierung erscheint dann – bei all den Problemen, die sie aufwirft – auch als ein umfassendes Demokratie-Projekt, das allerdings so gut scheitern wie gelingen kann.

Mathias Freymuth