Wenn ich gefragt werde, woher diese neue Dynamik der Gemeingüterdebatte stammt, erzähle ich immer von James Boyle und von diesem Text. Hier beschreibt Boyle, dass die „Einhegung der Gemeingüter“ auch Wissen und Kultur erfasst hat. Er nennt es „die zweite Einhegung der Gemeingüter“ (the second enclosure of the commons) Für mich war die Lektüre dieses Textes wichtig. Eine „Initialzündung“.
James Boyle hat ein neues Buch geschrieben und er spricht darüber. Unterhaltsam, anschaulich und mit zwei interessanten Publikumsfragen! Wem das Zuhören zu anstrengend ist, hier eine Mitschrift in deutscher Sprache (alle Hervorhebungen von mir).
-
seit 50 Jahren erleben wir eine ungesunde Ausweitung der Intellektuellen Eigentumsrechte (IPR) – dabei hat es nie einen Beleg dafür gegeben, dass IPR irgend einen positiven wirtschaftlichen Effekt hätten
-
bis vor Kurzem hatte die WIPO (UN-Organisation für Intellektuelle Eigentumsrechte) keinen einzigen Ökonomen mit der Frage befasst, was aus ihrer Arbeit in der Praxis eigentlich wird
-
Die Public Domain (die Sphäre der Gemeinfreiheit) und ihr vitaler Wert für Kreativität werden systematisch unterschätzt.
Das ist eine schlechte Bilanz. Wenn doch mal jemand sagt: „Ich kann es beweisen“, dann ist das eine bemerkenswerte Ausnahme….
Ergo: Die Debatte über Intellektuelles Eigentum ist keine Debatte über empirische Beweise, sondern eine Debatte über Glaubenssätze: Einer heißt: „Mehr Rechte (IPR) bedeutet mehr Innovation.“
Ein Test für alle LeserInnen: Wir sind im Jahr 1992 und müssten uns zwischen zwei Netzwerken entscheiden
Netzwerk 1: Eine Art globales Minitel, macht ein paar Dinge, ist staatlich oder privat kontrolliert, reproduziert nur, produziert nichts Neues – ist etwa so spannend wie die BBC am Sonntag Morgen.
Netzwerk 2: Das Netz ist komplett offen – so wie das Internet. Es nimmt auf, was immer geschickt wird. Ist nicht kontrolliert und kann nicht gefiltert werden. Es ist komplett dezentral. Du kannst veröffentlichen und alles verwenden, was dort veröffentlicht ist. Alle können mitmachen. Klingt wie die perfekte Katastrophe. Auch Idioten oder die Söhne von nigerianischen Diktatoren können da tun und lassen was sie wollen. Es könnte Pornographie geben – Richtig. Oder ständig irgendwelche Angebote, irgendwelche Ihrer Körperteile „zu verbessern“ – Richtig.
Wer würde in solch ein offenes, nicht kontrolliertes Netzwerk investieren? Unvorstellbar.
Die Information wäre doch gar nicht zuverlässig. Geräusch, Chaos, Spams und Viren, Obszönitäten… Dieses offene Netz könnte für richtig böse Dinge genutzt werden. Alles richtig. Es stimmt auch, dass all dies der Offenheit geschuldet ist. Aber dieses Netzwerk 2 wird auch für viele wunderbare Dinge genutzt.
Auf welches Netz hätten sie 1992 gesetzt? Wahrscheinlich hätte ich mich für das erste Netzwerk entschieden, weil ich das zweite für unmöglich hielt.
Zweite Testfrage: Sie müssen sich 1992 für eine Enzyklopädie entscheiden, aber die muss viel besser sein als die Encyclopädia Britannica, sie muss viel mehr Dinge beschreiben, in Realzeit aktualisiert werden, in allen Sprachen der Welt existieren, mit Nachrichten und neuen Entdeckungen umgehen.
Nun kommen zwei Leute.
Der eine sagt: Ok, wir machen das – wir brauchen sehr viel Geld und starke Kontrolle über alle Inhalte. Wir brauchen Artikel, die von Professoren geschrieben werden, die von deren Assistenten in mühseliger Arbeit vorbereitet wurden – Faktenhäppchen für Faktenhäppchen -, die dann Seniorprofs zum Gegenlesen übergeben, von Vorgesetzten unterzeichnet und vom Herausgeberteam korrigiert werden… Und wir brauchen Schutz, DRM (digitalen Kopierschutz) und Trade Marks. Wir müssen das System schließen, denn wir brauchen das Geld, um all diese Leute zu bezahlen. Also bitte: massive Kontrolle und massenhaft Geld!
Der zweite steht auf und sagt: „Ich würde gern eine Website machen und die Leute könnten da was schreiben“, und setzt sich wieder hin.
Im Ernst: Auf welche Variante hätten sie gesetzt? Ich hätte Zweifel gehabt, dass die zweite Variante existieren kann.
Drittes Beispiel Software. Stellen Sie sich vor: Jemand sagt, er wolle ganz wunderbare Software machen, besser als alles, was auf dem Markt ist. Software, die weltweit in den nationalen Sicherheitsinstitutionen benutzt wird oder in den Navigationsgeräten der Flugzeuge. Software, die von allen großen Firmen eingesetzt oder sogar geschrieben wird.
Und er sagt, wir wollen die Kopien nicht kontrollieren. Jeder kann damit machen, was er will. Wir wollen einen offenen Quellcode, jeder kann was hinzufügen und so das, was er schafft direkt in die Commons geben. Linux ist ökonomisch untragbar – jedenfalls sah es am Anfang (1992) so aus.
Mein Punkt hier ist: Wir haben eine Schieflagee – jedenfalls die meisten von uns – gegen Offenheit. Wir sehen die Gefahren der Offenheit und sie sind real. Klar ist, es gibt sie und wir sehen sie extrem gut. Es gibt aber auch den Nutzen – offene Methoden der Produktion, des Zusammenfügens. Wir sehen diese Chancen kaum. Wir sehen immer die Unterseite, nicht die Oberseite. Wir müssen uns dieser Schieflage bewusst werden.
Piloten werden darauf trainiert, nicht auf ihre innere Stimme zu hören, wenn sie durch schwere Wolken fliegen, denn sonst würden sie immer auf die Erde zusteuern. Man verliert die Orientierung, das ist nachgewiesen. Also werden sie trainiert, den Instrumenten zu gehorchen und nicht ihren Neigungen nachzugehen.
Wir brauchen ein Neigometer, denn unsere Intuitionen sind falsch. Wir kommen nicht intuitiv zu Eigentumsformen, die die Commons in den Mittelpunkt stellen. Denn wir neigen in die falsche Richtung. Wir brauchen einen Ausgleich zu unseren Neigungen – ein Neigometer.
Warum? Wir haben eine Eigentumsidee, die auf der Erfahrung beruht: Ich habe es, also kannst Du es nicht haben (z.B. ein Glas)
Aber ein mp3 file funktioniert nicht wie in Glas. Es funktioniert anders. Das heißt nicht, dass sie nie kontrolliert werden müssen. Aber es bedeutet, dass wir immer zuviel Sorge darauf verwenden, es zu kontrollieren, obwohl es vielleicht gar nicht nötig ist. Dessen müssen wir uns bewusst sein.
Es ist eine Neigung – nicht 100 % falsch, sondern eine falsche Neigung.
Zweite Geschichte. USA/GB: beide Ländern haben eine starke Tradition von Freier Rede und Menschenrechten.
In den 70ern wurden in den USA eine Reihe von Gesetzen verabschiedet, die die größte Welle von Zensur in der Geschichte eingeleitet haben, und niemand hat es gemerkt. Was waren das für Regeln? Die der Ausweitung des Copyright: Ursprünglich waren es 28 Jahre, dann hatte man als Urheber explizit darum zu bitten, das Copyright zu erweitern. 85% der Rechteinhaber haben das aber gar nicht gemacht. Stellen sie sich vor, wie die Public Domain heute aussähe, wenn das nicht geschehen wäre.
Stellen sie sich vor 85% dessen, was damals produziert wurde, wäre in der Public Domain – heute . Und wir könnten es nutzen. Warum haben die Urheber ihr Copyright nicht verlängert? Weil es sich nicht gelohnt hat. Man konnte kein Geld mehr damit verdienen. Warum hätten sie also verlängern sollen?
Heute ist es so: Wir können alles Mögliche mit Shakespeare machen, aber nichts mit der Kultur des letzten Jahrhunderts. Heute dauert das Copyright lebenslang + 70 Jahre. In den USA ist fast nichts in der Public Domain, was nicht vor 1923 produziert wurde. Die ganze Kultur des letzten Jahrhunderts ist prima facie mit dem Copyright belegt und das meiste davon ist nicht mal kommerziell erwerbbar. Selbst wenn sie es kaufen wollten, es wird schlicht nicht verkauft.
Bei den Filmen ist es noch schlimmer – da weiss man nicht mal genau, wer der Rechteinhaber ist.
Und – das ist wirklich brilliant – man hat das „copyright automatisch bei Erstellung“ fixiert. Sobald etwas irgendwo fixiert ist, sobald es produziert ist, ist es schon mit dem Copyright versehen. Lebenslang +70 Jahre. Jedes homevideo, jedes Foto, jeder Tagebucheintrag! Absurd.
Was bedeutet das alles? Es bedeutet – bis auf die library of congress ist der größte Teil des Kulturschaffens:
a: kommerziell nicht verfügbar
b: unter starkem Copyright-Schutz steht.
Das heisst, wir können es nicht digitalisieren, nicht nutzbar machen. Im Falle der Filme ist es noch schlimmer – da sind die Urheberrechte nicht geklärt und oft nicht klärbar. Das sind verwaiste Werke. Sie können sie nicht mal ansehen, es sein denn, sie sind Forscher und kriegen eine Sondererlaubnis. Und allmählich zerfallen die Filme zu Staub, weil sie aus nitrathaltigem Material bestehen.
Das ist ein kulturelles Desaster unglaublichen Ausmaßes. Es ist eine Gesetzgebung, die Ausdrucksfreiheit beschränkt.
Mir ist es nicht erlaubt, diesen Song zu singen, diese Sinfonie zu spielen, diesen Film aufzuführen und ihn neu zu erfinden. Das ist eine Tragödie und zwar eine, die wir aus keinem spezifisch guten Grund ausgewählt haben.
Ich würde bevorzugen, dass wir den Rechteinhabern, die immer noch Geld mit ihren Werken verdienen nach 28 oder 56 oder so… eine Portion aus dem Staatshaushalt abgeben und ihnen sagen: Hier ist das Doppelte von dem, was Ihr normalerweise verdient. Nehmt, aber stellt dann alles in die Public Domain. Und alle können es nutzen und darauf aufbauen.
Die gegenwärtigen Regeln sind unglaublich ungeeignet für die Welt in der wir leben.
Die permanente Ausweitung des Copyrights ist etwas, was die Freiheit der Rede am meisten einschränkt, und es ist durchgekommen, ohne dass es jemand bemerkt hätte.
Um das alles nun zusammen zu fassen:
Was wir haben ist also eine Blindheit gegenüber dem Thema Offenheit, es gibt eine kulturelle Angst vor Offenheit. Zugleich erscheint uns die beschränkte Welt des Intellektuellen Eigentums dunkel. Wir verstehen nicht genau warum. Aber es ist irgendwie dunkel. Wir verstehen nicht so richtig was – ob die Regeln, die Rechteinhaber, die Kultur? Öffentliche Debatte dazu schien irgendwie nicht nötig und das Ergebnis ist ein Desaster.
Was könnten wir nun anders machen?
Die Gute Nachricht ist: Wir könnten eine Menge anders machen und das meiste davon ist relativ einfach.
Das WWW wurde von Akademikern entwickeln, im CERN – inkl. Tim Bernes Lee – um die Wissenschaft voran zu bringen. Die Offenheit des Netzes – das hat Lee brilliant vorweg genommen, war Bedingung dafür, dass das Netz für die Wissenschaft funktioniert.
Menschen haben Wege gefunden, Dinge zu tun, die wir uns nicht hätten vorstellen können.
Wege beschritten, die wir uns nicht hätten vorstellen können. Und das ist der Punkt. Das Web ist eine brilliante Quelle für den leichten Zugang zu Büchern geworden, aber auch zu Schuhen und Reisen. Dafür funktioniert es hervorragend. Und wir sind inzwischen daran gewöhnt, dass es dafür keine Transaktionskosten gibt. Wir wollen es mit einem einzigen Click (zwei wären schon zuviel).
Die Ironie ist: Für die Wissenschaft funktioniert das Netz nicht. Das Web für Wissenschaft ist mehr so etwas wie Minitel. Ein Beispiel dazu: Forscher in der EU und USA werden von den Regierungen bezahlt, um Grundlagenforschung zu machen. Das Geld dafür ist extrem gut angelegt. Die Gesellschaft hat in Form des wissenschaftlich-technischen Fortschritts sehr viel davon
Bis vor Kurzem gab es nicht eine Forderung danach, dass die Forscher ihre Ergebenisse öffentlich zugänglich machen. Sie werden vielmehr MANCHMAL in kommerziellen Zeitschriften publiziert, dort weggeschlossen und das wars.
Wenn sie etwas brauchen und da irgendwie rankommen, landen sie irgendwann bei dem Hinweis auf den Artikel und daneben steht: „bitte zahlen sie 49 Dollar!“
Aber natürlich haben die Leute ausserhalb der Unis, und da gibt es eine Menge kluge Leute – vor allem in den Entwicklungsländern keinen Zugang. Das ist doch absurd.
Wir haben das WWW für die Wissenschaft gemacht, stattdessen funktioniert es für Pornos, Schuhe und Bücher. Lustig, nicht?
Warum funktioniert das WWW für Information, obwohl das Netz voller Idioten und Schwachsinn ist? Viele der Leute, die sich da tummeln sind Idioten oder tun ihr Bestes, um Idioten sehr überzeugend zu immitieren. Und dennoch: Wenn Sie was suchen, finden Sie es. Warum? Warum funktioniert es? Wie kann diese Technologie vertrauensfähige Information rüberbringen, wenn soviel Quatsch kursiert?
Die Antwort ist: Die Links – das ist die zweite Ebene, die das Netz so funktionsfähig macht. Es ist nicht der richtige Artikel, der Ihnen zuerst unterkommt, sie kriegen eine Seite mit interessanten links – der Typ, der Unsinn über ein Thema schreibt, landet ganz unten auf der Suchliste.
Die links sind der Revisionsprozess, der das Web funktionstüchtig macht. Für wissenschaftliche Arbeiten gibt es aber keine Links, sondern nur Fussnoten (sowas wie ein hyperlink) mit Literaturhinweisen, in denen dann steht, wo sie das Buch kriegen können.
Ironie der Geschichte: Als das WWW gebaut wurde, war das nicht so gedacht. Doch heute können die Forscher die Resultate ihrer Arbeit im Netz nicht miteinander vergleichen: Diese zweite Ebene des Webs – die Ebene der Links – ist für die Wissenshaft nie gebaut wurden. Stellen sie sich vor, das würde passieren. Wir hätten Links, die von Hunderten, Tausenden, Millionen Forschern, die Infos und Daten zusammenbrächten, selbst wenn die Leute in ganz unterschiedlichen Forschungsgebieten unterwegs wären. Was könnte da passieren mit der Wissenschaft? Wir wissen es nicht, weil wir es nicht versucht haben, aber ich bin davon überzeugt, dass es was Großartiges wäre.
Die schlechten Nachrichten also: Wir haben ein paar wirklich dumme Dinge gemacht. Eine Politik, die jeden Beweis ihrer Angemessenheit schuldig bleibt, eine Politik ohne Interessensausgleich. Tote Menschen produzieren nichts mehr, wenn Du deren Urheberrechte erweiterst. Das haben wir nun schon versucht und gesehen. Es funktioniert nicht.
Was wir tun müssen, ist eine Bewegung für die Public Domain herstellen. Leute müssen verstehen, was die Kämpfe um Lizenzierung einer Rapssorte, eines Gens und eines Stückchen Codes bedeuten. Das wird eine Bewegung über kulturelle Hegemonie. Wir brauchen eine Umweltbewegung für die Public Domain, für die Wissensallmende.
foto on flickr by Joi
Pingback: Internetsperren 16.06.2009: Artikel und Kommentare « Wir sind das Volk
Pingback: James Boyle about the fear of openness — keimform.de
Pingback: “Das Internet taugt für Pornos, Schuhe und Bücher, aber nicht für die Wissenschaft.” Warum?
Pingback: IBASS-Blog » Nachtrag zur IBASS-Tagung
Kleiner Kommentar zu folgendem:
(Kommentare interlinear)
„Die Ironie ist: Für die Wissenschaft funktioniert das Netz nicht“
Das stimmt überhaupt nicht, da die meisten relevanten Journals online sind.
„Das Web für Wissenschaft ist mehr so etwas wie Minitel“.
Das ist durch „Science-Direct“ beendet worden, das ist eine Plattform wissenschaftlicher Journals. Diese bietet auf der rechten Seite alle relevanten Artikel eines Suchbegriffes (so eine Art textbasierte Vorform einer Wolfram-Alpha-Maschine).
„Ein Beispiel dazu: Forscher in der EU und USA werden von den Regierungen bezahlt, um Grundlagenforschung zu machen. Das Geld dafür ist extrem gut angelegt. Die Gesellschaft hat in Form des wissenschaftlich-technischen Fortschritts sehr viel davon
Bis vor Kurzem gab es nicht eine Forderung danach, dass die Forscher ihre Ergebenisse öffentlich zugänglich machen. Sie werden vielmehr MANCHMAL in kommerziellen Zeitschriften publiziert, dort weggeschlossen und das wars.“
Stimmt nicht, seit den Impact-Numbers sind die Forscher verpflichtet, zu publizieren, sonst kriegen sie kein Geld, da sie keine Projekte durchkriegen. Diese Impact-Numbers sind eine Art mathematische Qualitätskontrolle, wieviel wer in peer-reviewed journals publiziert, was dieses Journal an wissenschaftlichem Inhalt wert ist und wie oft das Paper zitiert wird. Ist allerdings der Spitzenforschung vorbehalten.
„Wenn sie etwas brauchen und da irgendwie rankommen, landen sie irgendwann bei dem Hinweis auf den Artikel und daneben steht: „bitte zahlen sie 49 Dollar!“
Das kommt wieder drauf an, ob die öffentlichen Bibliotheken, über deren Server auf diese Sachen zugegriffen werden kann, die entsprechenden Journals abonniert haben.
Wow. 😮
Guck doch auch mal bei mir vorbei! spielor.wordpress.com
Pingback: Verwaiste Werke in die Gemeinfreiheit! — keimform.de