Re: Netzregulierung auf Norwegisch
On Friday 21 November 2003 11:40, Thomas Stadler wrote:
> Am Donnerstag, 20. November 2003 22:07 schrieb Kristian Köhntopp:
> > Es ist die zwingende Konsequenz aus den Tatsachen, daß a) die Länge der
> > Publishing Pipeline im Internet 2 oder kleiner ist und b) vormals
> > staatliche Funktionen hier nahezu immer privat realisiert werden.
> > Entsprechend sind Vor- und Nachzensur nicht mehr unterscheidbar,
>
> Das will ich gar nicht bestreiten. Ich bin durchaus auch der Meinung, dass
> der Zensurbegriff auf den Pruefstand muss. Alllerdings bedarf es einer
> Abschaetzung aller Folgen.
Für Zensur gibt es zwei Rechtfertigungen:
Die eine ist: Sie wirkt, und daher sind die fraglichen Inhalte objektiv nicht
mehr zugänglich, und daher brauchen wir uns mit den daraus resultierenden
problematischen Themen nicht auseinandersetzen und alles wird gut. Das ist
seit Erfindung des Internet nicht mehr gegeben: Was im Web nicht erreichbar
ist, ist über P2P zu kriegen. Was über normales P2P nicht zu kriegen ist, ist
in Freenet zu kriegen. Und schon Einschränkungsversuche aus Inhalte im Web
sind problematisch: Büssow, Verfügbarkeit von Filmen über BitTorrent (Ein
Format, das eigentlich dafür designed ist, die Quelle einer Einspeisung
leicht identifizierbar zu machen und so die Verbreitung von
Urheberrechtsverletzungen wenig attraktiv zu machen), etc.
Die andere ist: Wir setzen ein Zeichen, geben ein moralisches Statement ab, a
la "Wir können die Nazis zwar nicht effektiv aus dem Netz werfen, aber wenn
wir da ein Sperrungchen vornehmen, dann wissen alle anderen immerhin, daß wir
Nazis nicht gutheißen.". Naja, ich könnte mir da andere, und effektivere
Statements vorstellen.
> Das Zensurverbot wird nicht durch die allgemeinen Gesetze eingeschraenkt.
> Wenn man nun hergeht und Zensur so definiert wie Du, dann bedeutet das,
> dass der Staat auch keinerlei strafbare Inhalte mehr unterbinden koennte,
> weil das Zensurverbot ja absolut gilt.
Ich sehe das naturgemäß mehr aus einer technischen Sicht, und seit den letzten
20 Jahren sehe ich da eher einen sich erweiternden Riß zwischen der
technischen Realität und den traditionellen juristischen Definitionen.
Andere auch - in der Urheberrechtsdiskussion versuchen die Rechteinhaber
deswegen ja auch zunehmend, ihre Schutzrechte technisch durchzusetzen anstatt
sich wie die letzten 200 Jahre rein auf juristischen Schutz zu verlassen. Das
Konzept der Rechteinhaber setzt dabei zur Zeit auf eine Trennung von
Wiedergabegeräten und Universalcomputern (das ist effektiv, was Palladium
erzeugt) oder gar Wiedergabenetzen und Universalnetzen (das ist effektiv, was
XBox Live oder Palladium + Cisco Client Authentication wie sie neulich hier
auf der Liste zu lesen war erzeugt).
In Wiedergabenetzen herrscht vollständige (technische) Kontrolle über Inhalte.
Sie können zeitlich eingeschränkt, durch den Rechteinhaber und nur diesen
jederzeit nachträglich verändert oder zurückgezogen werden, und gezielt
einzelnen Rezipienten zugänglich gemacht oder verweigert werden. Das geht,
weil das Wiedergabenetz nur Maschinen enthält, die sich gegenüber einem Ring
von Zugangskontrollrechnern authentisieren können und weil die
Wiedergabemaschinen nur noch digital signierte, im Wiedergabenetz
zertifizierte Anwendungen ausführen können, und weil Inhalte
Wiedergabemaschinen nicht verlassen können (Das gestopfte "Analogloch").
Dabei können Wiedergabemaschinen durchaus dedizierte Wiedergabegeräte sein
(XBox, Windows "Wohnzimmer PC") oder virtuelle Maschinen auf
Universalmaschinen sein (Nexus als Subsystem auf einem Palladium-Enabled PC).
Ebenso können Wiedergabenetze dedizierte Wiedergabenetze sein (Die
Premiere-Frequenzen) oder als virtuelle Netze auf Universalnetzen aufsetzen
(XBox Live oder andere VPNs mit geschützten Inhalten auf dem öffentlichen
Internet).
Eine Rechteabwägung aus juristischer Sicht findet dabei nicht statt: Endziel
der Rechteinhaber ist es, jedwede Form von verwertbaren Inhalten nur noch in
Wiedergabenetzen auf Wiedergabemaschinen verfügbar zu machen, und so einen
kontrollierbaren Distributionskanal zu behalten. Juristisch ist dabei nicht
viel Support notwendig: Sind Inhalte erst einmal auf diese Plattform
migriert, ist juristisch lediglich ein Umgehungsverbot notwendig. Den Rest
erledigt die Plattform, selbst dann, wenn die juristisch definierten
Schutzrechte für den Content längst ausgelaufen sind.
Weitergehende Schutzrechte nimmt die Industrie für ihren Legacy-Content gerne
mit, verläßt sich aber in ihren Konzepten nicht darauf.
Nach außen wirkt es zur Zeit für manche Beobachte so, als hätten die
Rechtverwerter keinen langfristigen Plan - das ist nicht so. Sie haben einen
und zwar genau diesen. Sie wirken planlos, weil sie bei der Umsetzung dieses
Plans an die Entwicklungsgeschwindigkeit des Marktes gebunden sind und so
direkt von den Innovations- und Investitionszyklen des Marktes abhängig sind.
Der Plan ist also nur auf der Ebene von Jahrzehnten umsetzbar.
Nichtsdestotrotz existiert er und wird aktiv verfolgt - nicht als
festgeschriebener Plan mit festen Meilensteinen, aber als genereller Trend
und als Managervision. Insbesondere deswegen, weil er interessante Synergien
zwischen den Rechteinhabern und gewissen Herstellern von Hard- und Software
erzeugt. Die Plattform schützt ja nicht nur Musik- und Videoinhalte, sondern
jede Form von Inhalten, also auch Software, und ist damit ein sehr fein
steuerbares Instrument der Marktzugangskontrolle, noch dazu unter dem
Deckmantel der Sicherheit ("Nur Anwendungen mit einer Zertifizierung
durch ... dürfen auf dem Nexus ausgeführt werden. Dazu ist ene Prüfungsgebühr
von ... vorab zu entrichten, unabhängig ob die Anwendung das
Prüfungsverfahren besteht. Dies ist für einen effektiven Schutz vor Viren,
Backdoors und anderen schädlichen Inhalten unabdingbar."). Auf diese Weise
kann im Vorübergehen die lästige Geschenkkultur, die sich in den letzten 10
Jahren gebildet hat und die ganzen Industrien den Markt entzieht, ausgemerzt
werden ohne daß man sie direkt angreifen müßte.
In der Zensurdiskussion haben wir eine ähnliche Situation: Inhalte sind aus
einer ganzen Reihe von Gründen verboten. Die Verbote orientieren sich dabei
an Maßstäben wie dem Alter (Sie sind für Personen unter x Jahren verboten),
an regionalen Normen (sie sind in Deutschland verboten, aber anderswo legal)
oder an Zughörigkeiten zu bestimmten Gruppen (Die Inhalte sollten nur
Personen mit der Ausbildung x zugänglich gemacht werden, weil sie sonst
Hilfmittel zu Straftaten darstellen können), oder sie sind absolut.
In der Vergangenheit waren solche Inhalte kontrollierbar, weil an ihrer
Verbreitung eine große Anzahl von Personen spezifisch involviert war, und
weil die Anzahl der Multiplikatoren handhabbar war.
Alle Versuche, die Mechanismen der staatlichen Inhaltskontrolle wirksam zu
halten, zielen daraufhin, diese Situation wiederherzustellen: Zum Beispiel
das aktuelle System der Zugangskontrolle zu jugendgefährdenden Inhalten. Hier
versucht man eine kleine Anzahl von zertifizierten Systemen zu haben, die als
Zugangskontrolle dienen können, und redet dann nicht mit den Urhebern der
Inhalte oder den Rezipienten (das ginge in der Menge auch gar nicht), sondern
übt relativ ungerichtet Druck auf die Anbieter der Kontrollsysteme aus, in
der Hoffnung, daß diese den Markt auf irgendeine Weise so hierarchisch
strukturieren und beaufsichtigen, daß kontrollierbare Strukturen entstehen.
Auch hier entstehen Synergien zwischen staatlichen Interessen und gewissen
Herstellern: Jugendschützer finden ein Internet sehr gut, an dem sich nicht
nur die Maschine sicher verifizieren und authentisieren muß, sondern in dem
dann auch eine sichere Benutzerverifikation und Authentisierung stattfindet,
die dann sicher über das Netz weitergegeben werden kann. Inhalte also nur
noch für die, die a) bezahlen und b) auch gesetzlich berechtigt sind, sie zu
rezipieren.
Konzepte wie P2P, bei dem jeder Teilnehmer direkt mit an der Publikation und
Replikation von Inhalten beteiligt ist, laufen diesen Interessen unmittelbar
zuwieder. Gesucht ist derzeit sowohl durch die Rechteinhaber als auch durch
die Jugendschütze eine Definition, die solche Techniken im Rahmen der
existierenden juristischen Dogmen illegal machen kann - jedenfalls ist das
mein Eindruck.
Unterdessen sind ganze Content-Gruppen ("Hordes of Eyeballs :-)") derzeit
massiv dabei, aus dem Web in andere Medien (P2P, Freenet) abzuwandern, weil
die Strukturen dort für ihre Zwecke besser geeignet sind (P2P erzeugt, wenn
es richtig gemacht wird, eine Art Content-Gas, das sich über alle Teilnehmer
verteilt).
Was fehlt, sind zwei Formate/Anwendungen, die diese Migration noch weiter
beschleunigen würden: Ein Browser, der Websites implizit aus dem P2P zieht
und dann lokal darstellt und eine Anwendung, die mehr oder weniger P2P mit
interaktiven Diensten verknüpft, sodaß sich Gästebuch-Like Anwendungen,
Blogs, Datenbankanfragen und andere dynamisch browsende Dinge verteilen
lassen.
Das ist jetzt alles sehr holperig zusammengestoppelt, sollte aber mehr oder
weniger den Kern-Iststand der Technik wiedergeben. Man lese dazu vielleicht
auch noch die Folien von Doc Searls auf dem Apachecon (http://www.searls.com/
doc/apachecon2003/keynote/index.htm), die einen anderen Aspekt der
Synergiebildung beleuchten, auf die ich da abgehoben habe und die beiden
kollidierenden Interessengruppen etwas anderes characterisiert.
Kristian
--
To unsubscribe, e-mail: debate-unsubscribe@xxxxxxxxxxxxxx
For additional commands, e-mail: debate-help@xxxxxxxxxxxxxx