On Sun, 8 Feb 2004 09:11:46 +1100 (EST) Peter Ross wrote: > Auf einer australischen Linux-Mailingliste ist die Frage aufgetaucht, wie > man grosse Platten einer Farm von ueber 200 Linux-Rechnern, verbunden mit > Netzgeschwindigkeit von 1GB/sec, zu einem grossen Speicher organisiert, so > dass man mittels simpler Get/Push/Remove-Befehle gelegentlich grosse Files > (>500M) draufschiebt. Die Speichersoftware sollte den vorhandenen > Plattenplatz selbst organisieren, um eine gleichmaessige Nutzung zu > gewaehrleisten, und die Speicherung sollte redundant sein, so dass > Ausfaelle einzelner Knoten nicht zu Datenverlust fuehren. > > Ist eine der P2P-Netz-Techniken dazu zu "missbrauchen"? Freenet oder GNUnet würden so was wohl leisten können. Bei Freenet können "unbeliebte" Dateien aber verschwinden. Mit "doppelt so vielen Festplatten" würde das Problem bei GNUnet nicht auftreten. Das schöne an beiden ist halt, dass das P2P Netz praktisch aus einem gemeinsamen großem Speicher besteht. Bei GNUnet kann "bei Bedarf" eine Datei von der Festplatte ins Netz eingespeist werden, das muss bei Freenet "per Hand" geschehen (Dateien die aufgrund mangelnder Nachfrage von den Nodes irgendwann gelöscht werden, müssten dann auch wieder "per Hand" neu ins Netz eingespeist werden). Das größte Problem ist aber wohl der Kryptographie und Datenbank Overhead. Ich glaube, dass dir das GBit Netz kaum Vorteile vor einem MBit Netz bringen würde. An "Dateinamen", die aus wirren Zahlen bestehen sollte man sich dann auch gewöhnen ;-) (Mit GNUnet kann man allerdings auch suchen). Gruß, David
Attachment:
pgp393CEAxQkL.pgp
Description: PGP signature