Einige Gedanken zur Asset-Datenbank und deren Kosten

Bei Maddy drüben gibt’s eine interessante Schätzung, wie groß die Assetdatenbank von Second Life wohl aktuell sei. Linden Lab hat vor kurzem eine Art Mülleimerroutine laufen lassen, die nicht mehr genutzte Objekte in einen Papierkorb verschob und so gerade mal 85% der Datenbank auf Altenteil geschickt.

Die verbliebenen 15% machten dabei noch 192 Terabyte aus, damit wird der gesamte Datenbestand auf etwa 1280 Terabyte geschätzt. Das macht Sinn und ist in der Tat eine beeindruckende Datenmenge, die zu verwalten nicht mehr alltäglich ist. Die Zugriffe sollen ja flott geschehen, dazu kommt dass man davon auch Backups benötigt und dergleichen mehr. Zum Vergleich: die Gesamtmenge aller 20 Milionen Assets vom größten Opensimgrid, Osgrid, betrug im September 2010 ca. 480 Gigabyte (leider habe ich keine aktuelleren Zahlen gefunden).

Interessanter aber ist noch die Frage: was kostet es eigentlich überhaupt, sich solch eine Datenmenge zu leisten? Also was kostet ein Petabyte? Die Bandbreite dessen, was ein Petabyte kosten kann, ist dabei beachtlich.

Wo aber kann man sich umschauen, wenn man mal als Normalsterblicher dennoch einen Eindruck gewinnen will, was so etwas kostet? Bei einem Onlinebackupanbieter, der sein Geschäft recht offen betreibt wie beispielsweise die US-Firma Backblaze. Die Firma Backblaze macht nichts anderes, als die Daten von Kunden weltweit bei sich in ihrem Rechenzentrum auf selbst gebauten Servern zu sichern. Das bedeutet, wann immer der Kunde bei sich eine neue Festplatte einbaut, müssen sie das bildlich gesprochen auch tun, also sie brauchen sehr viel Speicherkapazität zu wettbewerbsfähigen Preisen.

In diesem Blogpost aus dem Jahr 2009 nimmt Backblaze den Markt mal genauer unter die Lupe und sie zeigen auf, wieso sie dazu übergingen, ihre eigenen Server zu bauen. Ihre eigene Bastellösung liegt bei 117.000 US$ fürs Petabyte während eine fette Sun schon eine Million US$ kostet und das Speichern bei Amazon S3 damals gar 2.806.000 US$ gekostet hätte. Damit wird doch recht deutlich, in welchen Dimensionen man sich da bewegt. Linden Lab selber hatte eine fette Isilon-FS-Installation am Laufen, da geht unter einer Million US$ sicher auch nichts. Dazu kommt, dass man ja an einem anderen Ort dafür auch noch ein vollständiges Backup anlegen muss, also die Technik muss besser doppelt vorhanden sein.

Inzwischen ist man bei Backblaze und der Konkurrenz zwar weiter, aber es ist nach wie vor noch immer absolut kein billiges Vergnügen solch eine Datenmenge zu beherbergen. Bei Backblaze geht inzwischen ein Techniker mindestens einen Tag die Woche nur im Rechenzentrum herum, um alte Festplatten auszutauschen bevor sie kaputt gehen. Was sein muss, muss sein.

So oder so, bis man solche Datenmengen zu bezahlbaren Preisen zuhause beherbergen wird, wird noch einiges an Zeit vergehen.

Die zwei John Langes

Beim Stöbern in der Wikipedia bin ich auf einen seltsamen Fakt gestoßen: es gab mindestens zwei John Langes. Zum einen John Frederick Lange Jr., der unter dem Pseudonym John Norman ja einen gewissen Bekanntheitsgrad erlangte .

Und dann gab es noch jemanden, der am Anfang seiner Autorenkarriere von 1966 bis 1972 unter dem Pseudonym „John Lange“ publizierte, aber später Millionenauflagen erreichte, von denen John Frederick Lange Jr. wohl nur träumen kann: Michael Crichton. Wem der Name Michael Crichton nichts sagt: dies war der unter anderem Autor von „Jurassic Park“ und „Timeline.“

Warum Crichton wohl anfangs unter dem Pseudonym „John Lange“ publizierte? Ich habe keine Ahnung, er tat es eben zu seiner Studentenzeit.