Eine Studiengruppe an der University of California in Berkeley unternahm unlängst zum zweiten Mal den Versuch, die Menge an Informationen, die heute aktuell gespeichert ist, abzuschätzen. Interessant ist dabei weniger das Gesamtvolumen von exotischen 5 Exabyte – was dem 37fachen aller in der amerikanischen Library of Congress aufbewahrten Bücher entspricht -, sondern bestimmte Details.
Das Informationsvolumen wächst pro Jahr insgesamt um rund ein Drittel, besagt die Studie. Dabei machen Office-Dokumente den mit Abstand größten Teil aus. 30 Prozent entfallen auf die weltweite Filmproduktion – die, ebenso wie auch Musik – mit einbezogen wurde. Ganze 0,01 Prozent aller neuen Original-Informationen werden auf Papier gespeichert, was immer noch 39 Terabyte Speicherkapazität oder knapp unter einem Drittel aller bestehenden Bände in der Library of Congress entspricht. Gut vier Mal so viele Informationen wie auf Papier sind indes über das World Wide Web verfügbar.
Rund ein Drittel aller weltweit gedruckten Informationen produzieren – durchaus erwartungsgemäß – die USA. Europa liegt vermutlich in etwa gleich auf. Auch beim ‚Wissen‘, das auf diesen Informationen aufbaut, gibt es wohl eine ungefähre Balance zwischen Europa und den USA, auch wenn dies, als viel weniger scharfe Kategorie, um einiges heikler zu vermessen wäre. Eine plausible Messgröße für solch einen Wissensvergleich könnten die Buchmärkte sein, denn Bücher sind nach wie vor für komplexes, aufbereitetes Wissen – vom Alltagswissen über Wissenschaft bis zu Kunst und Literatur – das Standardformat. Der amerikanische und der europäische Buchmarkt haben traditionell etwa die gleiche Größenordnung.
Das relativ ausgeglichene Bild zwischen Europa, USA – und, weitet man den Blick aus, Ostasien – kippt jedoch abrupt, versucht man, anstelle von Informationen und Wissen die kulturellen Dynamiken nachzuvollziehen. Nimmt man als Beispiel wiederum die Buchmärkte, dann merkt man rasch, dass die Wissensmärkte weitgehend von den G7 – den sieben wirtschaftlich stärksten Nationen – bestimmt werden, also den USA, Kanada, den großen europäischen Ländern und Japan, während der Rest der Welt nur noch als Absatzmarkt eine Rolle spielt. Noch drastischer verschiebt sich das Bild, wenn man die Sprachen verfolgt, aus denen jene Werke, die die globale Wissensgesellschaft dominieren, im Original stammen. Die eine Zahl, die medial gerne in den Vordergrund gerückt wird – nämlich die Dominanz des Englischen – verdeckt dabei die um vieles dramatischeren Strukturen dahinter.
Eine schon etwas in die Jahre gekommene Unesco-Statistik – aus dem Weltkulturreport von 2000 – rechnet vor, dass rund die Hälfte aller übersetzten Bücher weltweit von englischsprachigen Originalen stammt. Eine ganz aktuelle Erhebung für Frankreich kam für das Jahr 2005 bereits auf 58 Prozent Übersetzungen aus dem Englischen, wie Fabrice Piault am 19. Mai 2006 in Livres Hebdo berichtete. Deutsche und französische Originale decken traditionell ein weiteres Viertel ab. Doch nur 3 Prozent aller Übersetzungen gehen umgekehrt ins Englische.
Die wirklichen Tücken stecken in den Details. Der nach dem Zweiten Weltkrieg so nachhaltig aufgebaute französisch-deutsche Dialog spiegelt sich heute in kargen 7,2 Prozent Übersetzungen aus dem Deutschen ins Französische. Aus dem Polnischen stammen gar nur 0,3 Prozent. Dabei wissen wir um das historisch enge kulturelle Verhältnis zwischen Polen und Frankreich, und wir sehen, dass Polen – neben China – mehr Übersetzungslizenzen von Deutschland (und wohl auch ähnlich von Frankreich) kauft als irgendein anderes Land. Kurzum, der kulturelle Wissenstransfer besteht, wenn es um Bücher geht, aus einem Netz von Einbahnstraßen und Umwegen und Unzulänglichkeiten.
Lassen Sie mich nur noch ein einziges Beispiel für diese Umwege anfügen, keine offizielle Statistik – die gibt es hier nicht, sondern die eigenhändige Auszählung des Kollegen Sasa Drakulic aus Belgrad, der insgesamt gut 15.000 Übersetzungen aus den letzten 13 Jahren ins Serbische – also für eine so genannte ‚kleine‘ Sprache – analysierte.
74 Prozent aller Übersetzungen sind von englischen Originalen, jedoch ganze 0,34 aus dem Bulgarischen, 0,79 aus dem Slowenischen und 1,11 aus dem Polnischen, 5,5 Prozent aus dem Deutschen und 8,2 Prozent aus dem Französischen. Anders gesagt, in Belgrad muss über das Englische ausweichen, wer sich über aktuelles geistiges Geschehen in den Nachbarländern – oder auch in den für Serbien überaus bedeutsamen europäischen Mächten Deutschland und Frankreich informieren will.
Das zentrale Problem dabei ist nicht die vermeintliche ‚Amerikanisierung‘ des Wissens und der Kultur, sondern eine globale vertikale Kaskade von Wissensflüssen und Kulturexporten, mit einer klaren Machthierarchie von großen dominanten Einheiten gegenüber kleineren untergeordneten, und nur sehr wenigen horizontalen Querverbindungen.
Wenn wir auch hier wieder beim Buch als unserem Leitmedium bleiben, stellen wir paradoxerweise fest, dass europäische Verlage eine weltweite Vormachtstellung einnehmen. Genaue, zuverlässige Zahlen gibt es dazu keine – wie insgesamt die mangelhaften Datengrundlagen zu den bemerkenswerten Eigenarten der Wissens- und Kulturmärkte zählen. Aber über den Daumen gepeilt kann man davon ausgehen, dass irgendwo zwischen 15 Prozent und einem Drittel des Buchmarktes in den USA von Medienkonzernen bestimmt wird, die in Europa beheimatet sind beziehungsweise über Headquarters in Europa bilanzieren, während umgekehrt kein nennenswertes Verlagssegment in Europa außereuropäisch kontrolliert wird. Am kulturellen Gefälle aber, wie ich es am Beispiel der Übersetzungen angedeutet habe, hat diese europäische Vormacht niemals gerüttelt.
Dabei verschieben sich die Gewichte nicht nur im World Wide Web als Wissensressource, sondern ebenso stark in den traditionellen Bezirken wie etwa beim Buch in seiner herkömmlichen Form. Die Globalisierung auch der traditionellen Buchmärkte hat dazu geführt, dass eine relativ kleine Anzahl von Buchtiteln – und damit von Themen und Autoren – als globale Bestseller einen immer größeren Anteil am Gesamtumsatz mit Büchern ausmachen. Sehr viele dieser globalen Bestseller haben englischsprachige Originale. Denken wir nur an Harry Potter oder Dan Brown, deren kulturelle Wirkung durch – häufig us-amerikanische – Verfilmungen noch weiter verstärkt wird.
Doch gilt dieses Muster der anglophonen Dominanz, das für die Belletristik gerne beklagt wird, keineswegs für alle Sparten von Büchern. Der boomende Comic-Buchmarkt wird von japanischen, und zunehmend auch koreanischen Mangas angetrieben. Beim Film erscheint uns zwar in Europa Hollywood als allmächtig. In weiten Teilen Asiens und des arabischen Raumes ist der Einfluss von Bollywood – also von indischen Filmproduktionen – wesentlich stärker. Das Magazin National Geographic rechnete unlängst vor, dass Bollywood mit 3,6 Milliarden Menschen eine erheblich größere globale Reichweite hat als Hollywood.
Die strukturelle Regel vom wachsenden Marktanteil relativ weniger Bestseller gilt nicht nur auf globaler, sondern auch auf nationaler Ebene. Und hier wartet die nächste Überraschung: Wer sich mit Bestsellerlisten eingehender beschäftigt, wird gerade in Europa feststellen, wie sehr jeweils nationale Titel diese Listen prägen, und dies besonders in kleineren beziehungsweise peripheren Buch- und Kulturmärkten, also in Ländern wie Norwegen, Österreich oder Spanien, die sich besonders stark um Abgrenzungen ihrer nationalen Identitäten bemühen.
Wenn dennoch einzelne Werke oder Autoren über die traditionellen Übersetzungsmärkte einen Weg in die globale Kultur finden – wie zuletzt etwa Andrzej Stasiuk aus Polen, der ungarische Nobelpreisträger Imre Kertesz, oder zur Zeit Daniel Kehlmann, so sind dies eher Ausnahmen, die die generelle Regel der vertikalen Kaskade bestätigen.
Viel häufiger findet ein dynamisches Neben- und Durcheinander unterschiedlicher Sprachen nicht in den klassischen kulturellen Bezirken wie etwa beim Buch statt, sondern in hoch spezialisierten Nischen, in der Bildenden Kunst, der Technologie (in der Open Source Bewegung), oder unter politischen oder sozialen Aktivisten, und fast immer handelt es sich um hoch vernetzte Communities, die über das World Wide Web kommunizieren, und nicht über das Buch.
Der Zwischenstand der Entwicklung ist paradox. Der Stratege einer der großen europäischen Verlagsgruppen brachte es im Frühjahr 2003 im vertraulichen Gespräch auf den Punkt: Jetzt haben wir, sagte er, den Produktionsprozess, die Logistik, die ganze Wertschöpfungskette rund ums Buch, vom Manuskript über die Lagerverwaltung bis zu Druck und Auslieferung, mit hohen Investitionen digital integriert. Aber das Buch liefern wir weiterhin und ausschließlich analog aus, gedruckt auf Papier – aus Angst vor Piraterie. Ein Buch im Netz, meinte der Stratege, werde sofort geklaut. Aber was glauben Sie, fügte er selbstironisch hinzu, was mein Finanzdirektor von diesem Umgang mit unseren Investitionen und Ressourcen hält!
Der neuerliche Vorstoß, Bücher und Bibliotheken für die digitale Wissenslandschaften zu erschließen, kam nur ein Jahr später, 2004, von außen, erst durch einen Internet-Buchhändler, Amazon, und dann durch eine Suchmaschine, also gewissermaßen ein bibliographisches Unternehmen, Google, die mit der Unbekümmertheit wie auch der Rücksichtslosigkeit von späten Neuankömmlingen ins Feld preschten.
Der Clash mit den Repräsentanten der gewachsenen Buch- und Wissensmärkte war vorprogrammiert, und es ist nicht nur ein urheberrechtlicher Zusammenprall, gegen den Verlage vehement ihr exklusives Verfügungsrecht über Bücher und Inhalte einmahnen. Google’s Anspruch, „to organize the world’s information and make it universally accessible and useful“ (so Google’s ‚Mission Statement‘), ist eine Kampfansage um die Definitionsmacht über Wissen und kulturelle Inhalte.
Der Wert eines Buches begründet sich ganz wesentlich darin, dass es, zwischen zwei Deckeln, abgeschlossen und sein Inhalt exklusiv ist. Ein Autor, eine Autorin hat aus der Vielzahl möglicher Erzählungen oder Gedanken einen abgeschlossenen Text vorgelegt. Dafür will er oder sie namhaft gemacht, kritisiert, fortgeführt, zitiert und natürlich auch bezahlt werden. Das gleiche gilt zwar auch für so manchen Inhalt am Web, wenn – in einem wissenschaftlichen Archiv oder in der Meldungsdatenbank von CNN -, einzelne Stücke ebenso eindeutig identifiziert sind, nicht verändert werden dürfen und zu bezahlen sind. Wer aber Bücher in großem Stil, und ohne lang zu fackeln, digitalisiert ins Web bringt, setzt das streng formatierte Wissen von Büchern erst einmal mit all den anderen bunten Seiten des World Wide Web auf eine Ebene.
Natürlich galt auch schon bislang, dass in einer großen Bibliothek viele Bücher verfügbar waren, und die alten Bücher jeder Neuerscheinung ihren Kontext aufgezwungen haben. Das Content-Netz des Buch-Wissens ist so alt wie das Buch. Der direkte Zugriff auf die enorm anwachsende Menge von Informationen und Inhalten durch die neuen Informations- und Kommunikationstechnologien aber formt neue Wissenslandschaften und lässt darüber neue Wissensmacht entstehen.
Theoretiker von Netzwerken wie Albert-Laszlo Barabasi haben eindrücklich dargelegt, wie Informationsknoten kein ausgeglichenes, ebenes Feld bilden. Je stärker sie verlinkt sind, umso mehr tendieren sie dazu, einige wenige, weit herausragende Knoten entstehen zu lassen, in denen ein Gutteil aller Informationsflüsse gebündelt wird. Das Resultat ist das radikale Gegenteil zur Vision eines egalitären Cyberspace (Barabasi: „Linked. How Everything Is Connected to Everything Else and What It Means for Business, Science, and Everyday Life“, New York, Plume, Penguin, 2003).
Zu diesen Fundierungen der Netzwerktheorie passt auch die Antwort, die jeder erhält, der Google fragt, wie sich der enorme Aufwand, riesige Bibliotheken einzuscannen, jemals rechnen soll. Die Qualität von Google als bestem Zugang zu Wissensressourcen erhöhe sich, so Google im informellen Gespräch, durch die Einbeziehung von Büchern so sehr, dass der Wertzuwachs die Kosten rasch in den Schatten stelle.
Dieser Wandel verstärkt allerdings auch jenseits der mächtigen Knoten die Bewegungen am anderen Ende der Skalen. Chris Andersen, Chefredakteur des Kulturmagazins der Internetgeneration Wired in San Francisco, hat dafür Ende 2004 den Begriff „The Long Tail“ geprägt. Worauf Andersen unser Augenmerk richtet ist, dass sich hinter der immer höheren Spitze einiger weniger Bestseller – bei Büchern, aber ebenso bei Musik, Filmen oder anderen Kulturprodukten – eine allmählich verflachende, lange Kurve entwickelt. Die digitalen Kommunikations- und Informationsmedien ermöglichen es einem Publikum, das weit ausdifferenzierte Spezialinteressen jenseits des Mainstream verfolgt, zu finden, was es sucht. In der Summe, argumentiert Andersen plausibel, machen die Umsätze mit Büchern unter dieser langen Kurve etwa rund die Hälfte des wachsenden Online Marktes aus.
Die neue, auf digitaler Basis vermittelte Kultur und das ebenfalls digital gespeicherte und vermittelte Wissen sind in ihren Inhalten nämlich ganz und gar nicht vereinheitlicht, – oder ‚homogenisiert‘, wie man es als Drohszenario häufig hört -, sondern, ganz im Gegenteil, überaus stark fragmentiert.
Wenn nun im Aufbruch in die digitale Wissensgesellschaft europäische Initiativen – wie etwa bei der Digitalisierung von Büchern – Positionen gegen eine Übermacht einiger weniger monopolhafter Akteure entwickeln, dann kann es nicht ausreichen, dem bestehenden „Hyper-Knoten“ eines Amazon oder Google einfach ein entsprechendes europäisches Pendant gegenüberzustellen. Wir haben dies deutlich am Beispiel der Verlagsmärkte gesehen: Die Tatsache, dass so viele global führende Verlagsgruppen stark europäisch fundiert sind, ändert nichts am Ungleichgewicht in den kulturellen Balancen.
Aber es gibt ein massives Problem in der Struktur der kulturellen Verknüpfungen und Transfers sowie in der Ökonomie jenseits der machtvollen Knoten in den kulturellen Netzen und hinter den hohen Spitzen der Bestseller. Jene Vielfalt unter der lang gestreckten, flachen Kurve macht zwar in der Summe die Hälfte des Marktes aus, aber der einzelne Autor, Nischenverlag, Übersetzer oder Mittler wird für seine Leistungen kaum noch entlohnt. Diese vielfältigen Werke entstehen zwar und werden auch vom Publikum aufgefunden und konsumiert. „The Long Tail“ aber rutscht aus der Ökonomie der kulturellen Märkte heraus und wird, wie im 18. Jahrhundert, eine Domäne der Liebhaberei. Dies ist die Gefahr, wenn unsere Aufmerksamkeit ausschließlich den Spitzenwerken, und nicht auch diesen weniger übersichtlichen Bezirken der Kultur- und Wissensgesellschaften gilt.
Ich möchte deshalb drei Vorschläge machen, um, neben den großen Projekten, unsere Aufmerksamkeit auch auf dieses unübersichtliche Terrain zu richten:
1. Wir müssen mehr und genauer wissen, was in den unterschiedlichen Zonen der Vielfalt vor sich geht. Selbst in nahe liegenden Bereichen wie dem Wissens- und Kulturtransfer durch Übersetzungen wissen wir bestenfalls punktuell und für einige Länder, was geschieht, und was nicht. Wir wissen nur sehr wenig, wie insbesondere beim jungen Publikum sich Aufmerksamkeit und Vorlieben zwischen ausgeweiteten Angeboten und Kommunikationskanälen verschieben. Wir haben bislang eine Wissensgesellschaft, die nicht sehr viel über sich weiß.
2. Wir brauchen flexible Möglichkeiten, die eine breite und offene Neugierde für Kultur und Wissen stimuliert, und nicht durch möglichst komplizierte rechtliche Auflagen einengt. Ein Format also, das – ähnlich dem guten alten Zitatrecht – einen ersten Blick auf Ausschnitte von Werken geistigen Eigentums, egal ob Text, Bild oder Ton, nicht nur erlaubt, sondern aktiv dazu einlädt.
3. Wir müssen zusehen, wie in den Kultur- und Wissenscommunities entlang der langen Kurve der Vielfalt auch ökonomisch akzeptable Rahmenbedingungen entstehen können, und wie wir solche Communities und deren Kommunikationen stärken, denn es sind diese Milieus, die in der digitalen Wissensgesellschaft ein kulturelles Erbe erst lebendig werden lassen.
© Rüdiger Wischenbart – Eröffnungsrede zur Konferenz „An Expedition to European Digital Cultural Heritage“ in Salzburg, am 21. Juni 2006.