<<< Date Index >>>     <<< Thread Index >>>

Re: Netzregulierung auf Norwegisch



On Friday 21 November 2003 11:40, Thomas Stadler wrote:
> Am Donnerstag, 20. November 2003 22:07 schrieb Kristian Köhntopp:
> > Es ist die zwingende Konsequenz aus den Tatsachen, daß a) die Länge der
> > Publishing Pipeline im Internet 2 oder kleiner ist und b) vormals
> > staatliche Funktionen hier nahezu immer privat realisiert werden.
> > Entsprechend sind Vor- und Nachzensur nicht mehr unterscheidbar,
>
> Das will ich gar nicht bestreiten. Ich bin durchaus auch der Meinung, dass
> der Zensurbegriff auf den Pruefstand muss. Alllerdings bedarf es einer
> Abschaetzung aller Folgen.

Für Zensur gibt es zwei Rechtfertigungen:

Die eine ist: Sie wirkt, und daher sind die fraglichen Inhalte objektiv nicht 
mehr zugänglich, und daher brauchen wir uns mit den daraus resultierenden 
problematischen Themen nicht auseinandersetzen und alles wird gut. Das ist 
seit Erfindung des Internet nicht mehr gegeben: Was im Web nicht erreichbar 
ist, ist über P2P zu kriegen. Was über normales P2P nicht zu kriegen ist, ist 
in Freenet zu kriegen. Und schon Einschränkungsversuche aus Inhalte im Web 
sind problematisch: Büssow, Verfügbarkeit von Filmen über BitTorrent (Ein 
Format, das eigentlich dafür designed ist, die Quelle einer Einspeisung 
leicht identifizierbar zu machen und so die Verbreitung von 
Urheberrechtsverletzungen wenig attraktiv zu machen), etc.

Die andere ist: Wir setzen ein Zeichen, geben ein moralisches Statement ab, a 
la "Wir können die Nazis zwar nicht effektiv aus dem Netz werfen, aber wenn 
wir da ein Sperrungchen vornehmen, dann wissen alle anderen immerhin, daß wir 
Nazis nicht gutheißen.". Naja, ich könnte mir da andere, und effektivere 
Statements vorstellen.


> Das Zensurverbot wird nicht durch die allgemeinen Gesetze eingeschraenkt.
> Wenn man nun hergeht und Zensur so definiert wie Du, dann bedeutet das,
> dass der Staat auch keinerlei strafbare Inhalte mehr unterbinden koennte,
> weil das Zensurverbot ja absolut gilt.

Ich sehe das naturgemäß mehr aus einer technischen Sicht, und seit den letzten 
20 Jahren sehe ich da eher einen sich erweiternden Riß zwischen der 
technischen Realität und den traditionellen juristischen Definitionen.

Andere auch - in der Urheberrechtsdiskussion versuchen die Rechteinhaber 
deswegen ja auch zunehmend, ihre Schutzrechte technisch durchzusetzen anstatt 
sich wie die letzten 200 Jahre rein auf juristischen Schutz zu verlassen. Das 
Konzept der Rechteinhaber setzt dabei zur Zeit auf eine Trennung von 
Wiedergabegeräten und Universalcomputern (das ist effektiv, was Palladium 
erzeugt) oder gar Wiedergabenetzen und Universalnetzen (das ist effektiv, was 
XBox Live oder Palladium + Cisco Client Authentication wie sie neulich hier 
auf der Liste zu lesen war erzeugt). 

In Wiedergabenetzen herrscht vollständige (technische) Kontrolle über Inhalte. 
Sie können zeitlich eingeschränkt, durch den Rechteinhaber und nur diesen 
jederzeit nachträglich verändert oder zurückgezogen werden, und gezielt 
einzelnen Rezipienten zugänglich gemacht oder verweigert werden. Das geht, 
weil das Wiedergabenetz nur Maschinen enthält, die sich gegenüber einem Ring 
von Zugangskontrollrechnern authentisieren können und weil die 
Wiedergabemaschinen nur noch digital signierte, im Wiedergabenetz 
zertifizierte Anwendungen ausführen können, und weil Inhalte 
Wiedergabemaschinen nicht verlassen können (Das gestopfte "Analogloch").

Dabei können Wiedergabemaschinen durchaus dedizierte Wiedergabegeräte sein 
(XBox, Windows "Wohnzimmer PC") oder virtuelle Maschinen auf 
Universalmaschinen sein (Nexus als Subsystem auf einem Palladium-Enabled PC). 
Ebenso können Wiedergabenetze dedizierte Wiedergabenetze sein (Die 
Premiere-Frequenzen) oder als virtuelle Netze auf Universalnetzen aufsetzen 
(XBox Live oder andere VPNs mit geschützten Inhalten auf dem öffentlichen 
Internet).

Eine Rechteabwägung aus juristischer Sicht findet dabei nicht statt: Endziel 
der Rechteinhaber ist es, jedwede Form von verwertbaren Inhalten nur noch in 
Wiedergabenetzen auf Wiedergabemaschinen verfügbar zu machen, und so einen 
kontrollierbaren Distributionskanal zu behalten. Juristisch ist dabei nicht 
viel Support notwendig: Sind Inhalte erst einmal auf diese Plattform 
migriert, ist juristisch lediglich ein Umgehungsverbot notwendig. Den Rest 
erledigt die Plattform, selbst dann, wenn die juristisch definierten 
Schutzrechte für den Content längst ausgelaufen sind. 

Weitergehende Schutzrechte nimmt die Industrie für ihren Legacy-Content gerne 
mit, verläßt sich aber in ihren Konzepten nicht darauf.

Nach außen wirkt es zur Zeit für manche Beobachte so, als hätten die 
Rechtverwerter keinen langfristigen Plan - das ist nicht so. Sie haben einen 
und zwar genau diesen. Sie wirken planlos, weil sie bei der Umsetzung dieses 
Plans an die Entwicklungsgeschwindigkeit des Marktes gebunden sind und so 
direkt von den Innovations- und Investitionszyklen des Marktes abhängig sind. 
Der Plan ist also nur auf der Ebene von Jahrzehnten umsetzbar. 

Nichtsdestotrotz existiert er und wird aktiv verfolgt - nicht als 
festgeschriebener Plan mit festen Meilensteinen, aber als genereller Trend 
und als Managervision. Insbesondere deswegen, weil er interessante Synergien 
zwischen den Rechteinhabern und gewissen Herstellern von Hard- und Software 
erzeugt. Die Plattform schützt ja nicht nur Musik- und Videoinhalte, sondern 
jede Form von Inhalten, also auch Software, und ist damit ein sehr fein 
steuerbares Instrument der Marktzugangskontrolle, noch dazu unter dem 
Deckmantel der Sicherheit ("Nur Anwendungen mit einer Zertifizierung 
durch ... dürfen auf dem Nexus ausgeführt werden. Dazu ist ene Prüfungsgebühr 
von ... vorab zu entrichten, unabhängig ob die Anwendung das 
Prüfungsverfahren besteht. Dies ist für einen effektiven Schutz vor Viren, 
Backdoors und anderen schädlichen Inhalten unabdingbar."). Auf diese Weise 
kann im Vorübergehen die lästige Geschenkkultur, die sich in den letzten 10 
Jahren gebildet hat und die ganzen Industrien den Markt entzieht, ausgemerzt 
werden ohne daß man sie direkt angreifen müßte.


In der Zensurdiskussion haben wir eine ähnliche Situation: Inhalte sind aus 
einer ganzen Reihe von Gründen verboten. Die Verbote orientieren sich dabei 
an Maßstäben wie dem Alter (Sie sind für Personen unter x Jahren verboten), 
an regionalen Normen (sie sind in Deutschland verboten, aber anderswo legal) 
oder an Zughörigkeiten zu bestimmten Gruppen (Die Inhalte sollten nur 
Personen mit der Ausbildung x zugänglich gemacht werden, weil sie sonst 
Hilfmittel zu Straftaten darstellen können), oder sie sind absolut.

In der Vergangenheit waren solche Inhalte kontrollierbar, weil an ihrer 
Verbreitung eine große Anzahl von Personen spezifisch involviert war, und 
weil die Anzahl der Multiplikatoren handhabbar war.

Alle Versuche, die Mechanismen der staatlichen Inhaltskontrolle wirksam zu 
halten, zielen daraufhin, diese Situation wiederherzustellen: Zum Beispiel 
das aktuelle System der Zugangskontrolle zu jugendgefährdenden Inhalten. Hier 
versucht man eine kleine Anzahl von zertifizierten Systemen zu haben, die als 
Zugangskontrolle dienen können, und redet dann nicht mit den Urhebern der 
Inhalte oder den Rezipienten (das ginge in der Menge auch gar nicht), sondern 
übt relativ ungerichtet Druck auf die Anbieter der Kontrollsysteme aus, in 
der Hoffnung, daß diese den Markt auf irgendeine Weise so hierarchisch 
strukturieren und beaufsichtigen, daß kontrollierbare Strukturen entstehen.

Auch hier entstehen Synergien zwischen staatlichen Interessen und gewissen 
Herstellern: Jugendschützer finden ein Internet sehr gut, an dem sich nicht 
nur die Maschine sicher verifizieren und authentisieren muß, sondern in dem 
dann auch eine sichere Benutzerverifikation und Authentisierung stattfindet, 
die dann sicher über das Netz weitergegeben werden kann. Inhalte also nur 
noch für die, die a) bezahlen und b) auch gesetzlich berechtigt sind, sie zu 
rezipieren.

Konzepte wie P2P, bei dem jeder Teilnehmer direkt mit an der Publikation und 
Replikation von Inhalten beteiligt ist, laufen diesen Interessen unmittelbar 
zuwieder. Gesucht ist derzeit sowohl durch die Rechteinhaber als auch durch 
die Jugendschütze eine Definition, die solche Techniken im Rahmen der 
existierenden juristischen Dogmen illegal machen kann - jedenfalls ist das 
mein Eindruck.

Unterdessen sind ganze Content-Gruppen ("Hordes of Eyeballs :-)") derzeit 
massiv dabei, aus dem Web in andere Medien (P2P, Freenet) abzuwandern, weil 
die Strukturen dort für ihre Zwecke besser geeignet sind (P2P erzeugt, wenn 
es richtig gemacht wird, eine Art Content-Gas, das sich über alle Teilnehmer 
verteilt).

Was fehlt, sind zwei Formate/Anwendungen, die diese Migration noch weiter 
beschleunigen würden: Ein Browser, der Websites implizit aus dem P2P zieht 
und dann lokal darstellt und eine Anwendung, die mehr oder weniger P2P mit 
interaktiven Diensten verknüpft, sodaß sich Gästebuch-Like Anwendungen, 
Blogs, Datenbankanfragen und andere dynamisch browsende Dinge verteilen 
lassen.

Das ist jetzt alles sehr holperig zusammengestoppelt, sollte aber mehr oder 
weniger den Kern-Iststand der Technik wiedergeben. Man lese dazu vielleicht 
auch noch die Folien von Doc Searls auf dem Apachecon (http://www.searls.com/
doc/apachecon2003/keynote/index.htm), die einen anderen Aspekt der 
Synergiebildung beleuchten, auf die ich da abgehoben habe und die beiden 
kollidierenden Interessengruppen etwas anderes characterisiert.

Kristian



--
To unsubscribe, e-mail: debate-unsubscribe@xxxxxxxxxxxxxx
For additional commands, e-mail: debate-help@xxxxxxxxxxxxxx