Dezember 28, 2013

Adios Google Chrome

Ich habe bei mir gestern Google Chrome&Forks wieder durch Mozilla Firefox ersetzt. Nun ist Firefox zwar nicht mehr gerade momentan mein liebster Browser, aber sie kommen endlich in manchen Sachen in die Puschen und mir liegt einfach Googles Gutsherrenart quer.

Genauer ist dies hier die Sache, die für mich das Faß zum Überlaufen gebracht hat:

Since these malicious extensions are not hosted on the Chrome Web Store, it’s difficult to limit the damage they can cause to our users. As part of our continuing security efforts, we’re announcing a stronger measure to protect Windows users: starting in January on the Windows stable and beta channels, we’ll require all extensions to be hosted in the Chrome Web Store. We’ll continue to support local extension installs during development as well as installs via Enterprise policy, and Chrome Apps will also continue to be supported normally.

Also es geht dabei um folgendes: Google will möglicher Malware/Malwareerweiterungen unter Google Chrome einen Riegel vorschieben. Ihnen ist es ein Dorn im Auge, dass inzwischen viele Programme irgendwelche komischen Erweiterungen daher bringen, die sich dann unter Chrome installieren und dort irgendwas machen, was der Benutzer nicht will. Sicher, das ist mitunter eine nervige Sache und das Ziel ist auch lobenswert.

Nur wie gehen sie vor, um das Ziel zu erreichen? Eben so: ab Januar 2014 werden alle aktuellen Chrome-Versionen nur noch die Installation von Erweiterungen erlauben, die im Chrome Web Store gelistet sind. Lokal eine Erweiterung speichern und installieren ist dann nicht mehr möglich. Genau das ist der Plan, den Google verfolgt.

Was bedeutet das? Zunächst einmal, dass sich die Entwickler für 5 €/Jahr registrieren müssen, damit deren Erweiterungen im Store gelistet sind. Gut, das ist nicht die Welt und machbar, aber es bedeutet auch, dass zumindest in den offiziellen Chromeversionen nun einzig und alleine Google bestimmt, welche Erweiterungen ihnen gefallen und verfügbar sind und welche nicht.

Also nichts anderes, als das, was Apple bereits seit Jahren mit seinem App Store betreibt: man kontrolliert die einzige Möglichkeit, mit der man an Erweiterungen kommen kann und wenn Google mal eine Erweiterung quer liegen sollte, dann fliegt diese einfach raus. Ich könnte mir vorstellen, dass das beispielsweise Adblocker treffen könnte.

Und genau daher, weil mir dieser Schritt absolut mißfällt, sage ich dann tschüss Chrome für’s Erste, es war nett mit dir, solange es gut war. Nun aber reicht es und damit zurück zu Firefox.

Mozilla als dahinter steckende Organisation ist zwar auch total finanziell abhängig von Google, aber wenigstens haben sie noch nicht diesen Allmachtsanspruch und ich kann mit meinem Browser noch wirklich das machen, was ich will! Und darauf kommt es mir an, abgesehen davon ist er nicht so sehr als Spionagetool designed wie Chrome es nun einmal ist.

Die Übernahme der Daten von Chrome war kein Problem, da Firefox für all das schon lange eine gut funktionierende Importfunktion hat. Firefox Sync funktioniert auch so, wie es soll und ist eine schöne Sache. Da die Daten allesamt clientseitig verschlüsselt werden, kann da wohl Mozilla auch kaum etwas in den Daten erspähen. Da ich für die Synchronisierung meinen eigenen Server benutze, sowieso nicht mehr.

Und da ich dann schon beim Tabula Rasa war, habe ich auch gleich noch Google als meine Standardsuchmaschine rausgeworfen und durch DuckDuckGo ersetzt.

Warum das? DuckDuckGo ist eine US-Suchmaschine, die vor allem Wert auf die Privatsphäre ihrer Benutzer legt und nach eigenen Angaben dafür sorgen, dass das gewährleistet ist. Natürlich weiß ich nicht, ob da nicht auch NSA&blablabla mit involviert ist, aber bisher hat die Firma die richtige Einstellung, gibt sich transparent und man kann sie als eine Art Anti-Google begreifen: Google will so ziemlich alles über einen wissen, DuckDuckGo dagegen gar nichts. Unterschiedlicher können Unternehmensphilosophien wohl kaum sein.

DuckDuckGo nutzt dabei neben einem eigenen Seitenindex auch die Daten anderer Anbieter und bereitet das auf. Die wichtigsten Interfaces sind dabei inzwischen auch komplett auf Deutsch verfügbar und es funktioniert gut genug.

Hier ein wenig Eigendarstellung der Suchmaschine, „Google verfolgt dich. Wir nicht!“, „Brich aus der Filterblase aus!“ sowie welche Addons sie für gängige Browser empfehlen, damit man nicht verfolgt werden kann plus warum „Was ist Do Not Track?“. Dazu kommt ein Haufen an mehr oder minder nützlichen Goodies (die hat Google ja auch haufenweise) plus eine praktische Erweiterung für Firefox selber, die diese Suchmaschine komfortabel in den Browser integriert.

Nun ist sicher auch nicht alles Gold, was glänzt, aber warum es nicht mal so probieren? Es gab für mich mit Altavista eine Zeit vor Google und das hat funktioniert, und nun gibt es für mich eben erst einmal auch eine Zeit nach Google. Wie gut ich damit fahren werde, das wird sich zeigen, aber es ist für mich nun endgültig an der Zeit für diesen Schnitt.

„Das neue Second Life – Jetzt noch schärfer und endlich in HD dank 64 bit!“

Ich habe heute in irgendeinem Kanal in Second Life – welcher, spielt keine Rolle – interessante Neuigkeiten über den Firestormviewer (oder war es der normale? Egal!) gehört.

Und das ging so: der Viewer käme bald in 64bit raus, und dann würden endlich die Texturen in HD rendern und viel klarer zu sehen sein als bisher. Ja holla, so viel Schwachsinn kreativer Wissensdrang auf einem Haufen war dann doch schon ein wenig zu viel, da musste ich dann einfach dagegen halten.

Zunächst mal bedeutet 64bit-Viewer nichts anderes, als dass der Viewerprozess mehr Speicher als bisher adressieren kann und es ggf. auch ein wenig flotter läuft. Aber was bedeutet es für die Grafik? Die Bilder in Second Life sind allesamt im Format JPEG2000 gespeichert. Die offiziellen Viewer benutzen dabei die Bibliothek dazu von der Firma Kakadu, manch anderer Openjpeg.

Die Bildkomprimierung in Second Life ist dabei verlustbehaftet, reversibel und vor allem qualitätstreu. Sprich, wenn man ein Bild einmal komprimiert hat und es mit derselben Routine tausend Mal dekomprimiert, dann kommt dabei immer wieder genau dasselbe Bild heraus. So und nicht anders arbeiten nun einmal Computer, sie sind berechenbar. Ob dabei die Routine in 32bit oder 64bit läuft, spielt dabei keine Rolle, die Qualität ist dabei absolut dieselbe.

Dann meinten sie da noch, man könnte in Second Life Texturen mit der Dimensionierung 2048×2048 speichern und benutzen. Früher ging das wegen eines Fehlers in der Tat, dass sich solche Monstertexturen im Assetserver ablegen ließen, aber das ist schon seit Jahren vorbei.

Niemand wird einen daran hindern, eine Textur mit 2048×2048 Pixeln uploaden zu wollen; das klappt auch. Nur: bevor diese Monstertextur gespeichert wird, skaliert das System sie zuerst automatisch auf 1024×1024 Pixel herab und speichert dann diese runter skalierte Größe im Assetserver.

Und das ist auch besser so, denn solche Monstertexturen braucht kein Mensch und solange der Viewer sich weigert, auch bei Grafikkarten mit 2 GB VRAM mehr als 512 MB VRAM zu benutzen, ist das einfach nur unnötige Speicherverschwendung.