Inventarexport-Dienstprogramm für Opensim angekündigt

Auf der Mailingliste „Opensim Users“ ist seit gestern durch eine Ankündigung von Snowcrash Short (nachzulesen hier) eine denkbar lebhafte Diskussion entbrannt.

Worum geht es? In Kurzfassung darum: Snowcrash Short hat angekündigt ein clientseitiges Tool zur Dezentralisierung von Benutzerinventaren zu schreiben, das er in zwei Wochen als Opensource veröffentlichen will.

Die Idee dahinter ist, dass das Inventar und die dahinterliegenden Assets vom Benutzer kontrolliert werden könnten. Es sei für ihn frustrierend, in X Grids X verschiedene Inventare zu haben. Zu diesem Zweck habe er ein Tool geschrieben, das das Inventar in einen lokalen Cache kopiert und dann in ein anderes Grid kopieren kann. Dabei sei es so geschrieben, dass es die Second Life Richtlinien für den Export beachte, es gäbe auch eine uneingeschränkte Version für Opensim.

Diese simple Ankündigung reichte schon aus, dass in der ansonsten recht friedlich vor sich hin dümpelnden Liste ein gewaltiges Echo ausbrach.

Beispielsweise meldete sich Melanie Thielker von Avination zu Wort und findet gibt ihm folgenden Rat:

My advice is to consult a lawyer at your place of residence, as in some jurisdictions producing software capable of performing these actions is a criminal offense.

IMHO, open source is a very bad idea for this type of software.

Nun, auch eine Meinung, nur ist sie damit mal eben fünf Jahre zu spät dran. Warum? Ganz einfach darum, weil das Übertool für den Inventarklau seit über fünf Jahren bereits Opensourcesoftware ist – nämlich der Second Life Viewer selber. Da ist alles drin, was man jemals dazu brauchen wird und das stört da inzwischen keinen mehr.

Natürlich kann man darüber diskutieren, ob man die Schranken für den Export senken sollte oder auch nicht, nur: wer unerlaubt kopieren will, der tut das so oder so, egal nun ob es dieses Tool gibt oder nicht. Das alleine kann kein Hinderungsgrund mehr sein, es nicht als Opensource zu veröffentlichen, sonst kann man gleich bei Stored Inventory bleiben.

So oder so jedenfalls eine interessante Lektüre und man sieht, dass auch die OS-Community zumindest dort für solche Themen sehr sensibel geworden ist und nicht längst alles offen begrüßt, was irgendjemand schafft.

Was bleibt? Die Ankündigung, dass das Tool kommen wird und dann wird man weiter sehen.

Einige Gedanken zur Asset-Datenbank und deren Kosten

Bei Maddy drüben gibt’s eine interessante Schätzung, wie groß die Assetdatenbank von Second Life wohl aktuell sei. Linden Lab hat vor kurzem eine Art Mülleimerroutine laufen lassen, die nicht mehr genutzte Objekte in einen Papierkorb verschob und so gerade mal 85% der Datenbank auf Altenteil geschickt.

Die verbliebenen 15% machten dabei noch 192 Terabyte aus, damit wird der gesamte Datenbestand auf etwa 1280 Terabyte geschätzt. Das macht Sinn und ist in der Tat eine beeindruckende Datenmenge, die zu verwalten nicht mehr alltäglich ist. Die Zugriffe sollen ja flott geschehen, dazu kommt dass man davon auch Backups benötigt und dergleichen mehr. Zum Vergleich: die Gesamtmenge aller 20 Milionen Assets vom größten Opensimgrid, Osgrid, betrug im September 2010 ca. 480 Gigabyte (leider habe ich keine aktuelleren Zahlen gefunden).

Interessanter aber ist noch die Frage: was kostet es eigentlich überhaupt, sich solch eine Datenmenge zu leisten? Also was kostet ein Petabyte? Die Bandbreite dessen, was ein Petabyte kosten kann, ist dabei beachtlich.

Wo aber kann man sich umschauen, wenn man mal als Normalsterblicher dennoch einen Eindruck gewinnen will, was so etwas kostet? Bei einem Onlinebackupanbieter, der sein Geschäft recht offen betreibt wie beispielsweise die US-Firma Backblaze. Die Firma Backblaze macht nichts anderes, als die Daten von Kunden weltweit bei sich in ihrem Rechenzentrum auf selbst gebauten Servern zu sichern. Das bedeutet, wann immer der Kunde bei sich eine neue Festplatte einbaut, müssen sie das bildlich gesprochen auch tun, also sie brauchen sehr viel Speicherkapazität zu wettbewerbsfähigen Preisen.

In diesem Blogpost aus dem Jahr 2009 nimmt Backblaze den Markt mal genauer unter die Lupe und sie zeigen auf, wieso sie dazu übergingen, ihre eigenen Server zu bauen. Ihre eigene Bastellösung liegt bei 117.000 US$ fürs Petabyte während eine fette Sun schon eine Million US$ kostet und das Speichern bei Amazon S3 damals gar 2.806.000 US$ gekostet hätte. Damit wird doch recht deutlich, in welchen Dimensionen man sich da bewegt. Linden Lab selber hatte eine fette Isilon-FS-Installation am Laufen, da geht unter einer Million US$ sicher auch nichts. Dazu kommt, dass man ja an einem anderen Ort dafür auch noch ein vollständiges Backup anlegen muss, also die Technik muss besser doppelt vorhanden sein.

Inzwischen ist man bei Backblaze und der Konkurrenz zwar weiter, aber es ist nach wie vor noch immer absolut kein billiges Vergnügen solch eine Datenmenge zu beherbergen. Bei Backblaze geht inzwischen ein Techniker mindestens einen Tag die Woche nur im Rechenzentrum herum, um alte Festplatten auszutauschen bevor sie kaputt gehen. Was sein muss, muss sein.

So oder so, bis man solche Datenmengen zu bezahlbaren Preisen zuhause beherbergen wird, wird noch einiges an Zeit vergehen.