In einem meiner letzten Artikel (Store and Forward, Offlinenetz… was bitte?) habe ich mich über die schwachen Kenntnisse heutiger Nerds über Rechentechnik der 80er und 90er beschwert. Das ist natürlich ein typisches Stossgebet alter Leute über die Jugend von heute. Denn die Herren sind ja erst später zu den Computern gekommen. Da gab es eben schon Internet. Alles davor war eben – früher. Steinzeit.
Wenn ich mal ehrlich bin geht es mir selbst ja nicht viel anders. Klar kenne ich die Heimcomputer der 80er aus. Schliesslich habe ich selber intensiv mit den Kisten rumgespielt. Aber was weiss ich denn von der Phase davor?
Als erster echter Heimcomputer gilt der Altair 8800 von 1974. Ich kannte das Gehäuse von etlichen Bildern und habe mich immer über die vielen Schalter und Lämpchen gewundert. Und wo sind Tastatur und Monitor? Wozu kann man solch eine Kiste denn überhaupt nutzen?
Eines ist klar – die Bedienung war damals vollkommen anders, als man das heute von einem Computer erwartet.
Letzte Woche war ich auf einem kleinen privaten Vortrag. In dem Raum lag eine PDP-11 von Digital Equipment herum – fein säuberlich in Einzelteile zerlegt wartet der Rechner auf die Wiederinbetriebname. Passend zu dem eigentlichen Rechner fand ich dort auch ein VT220 Videoterminal und ein Fernschreibterminal. Ersteres besteht aus Tastatur und Monitor, ähnlich wie wir Computer heute noch nutzen – natürlich ohne Maus, ohne Grafik und in schwarz-weiss, aber immerhin. Letzteres jedoch war damals Standard: Auf der Tastatur wird getippt, und die Ausgabe sofort ausgedruckt.
Das machte mich neugierig und ich habe etwas recherchiert.
In den 60er bis 80er Jahre war die Firma Digital Equipment extrem erfolgreich und zeitweilg nach IBM der zweitgrösste Hersteller von Computern. Die Firma hatte sich auf sogenannte “Minicomputer” spezialisiert. Der Begriff “Mini” ist heute etwas erklärungsbedürftig, wenn man die Rechner sieht. Im Gegensatz zu den Grossrechnern der Zeit, war das Komplettsystem nicht grösser als eine Wohnzimmerschrankwand und benötigte auch kein klimatisiertes Rechenzentrum mit Starkstromanschluss. Vor allem haben diese Maschinen nicht Millionen Dollar gekostet, sondern waren mit ca. $20.000 verhältnismässig günstig, so dass sie auch von kleineren Firmen und Forschungseinrichtungen gekauft wurden. Ausserdem mag ich das Design der PDP Rechner – sie waren so schön poppig :-).
DEC PDP 11-40 (Quelle: Wikimedia, Lizenz: Creative Commons)
Und sie hatten ebenfalls viele Schalter und Lämpchen. Ich habe auf Youtube ein paar Videos angesehen, wie diese Maschinen programmiert wurden. Tatsächlich wurde Binärcode per Kippschalter direkt in den Speicher eingegeben. Zumindest der Code, den nötig war, um das eigentliche Programm von einem Lochstreifen (schon wieder Fernschreiber-Technik) einzulesen. Die PDP-11 waren 16-Bit Rechner mit 32 KB Arbeitsspeicher. Der Vorgänger PDP8 hatte sogar nur 4KB, was aber eigentlich 6KB entspricht, weil es eine 12 Bit Maschine war. Aus heutiger Sicht also ziemlich exotisches Zeug, wie diese kleine “Zeitreise” in vier Teilen zeigt. Diese Folge zeigt, wie ein kleines Assemblerprogramm geschrieben wird.
Schnee Ostern, schöne Ostern – frohes Weihnachtsfest hätte ich fast geschrieben. Der Alexanderplatz ist ja schliesslich auch seit Wochen mit einem Weihnachtsmarkt zugemüllt – Berlin eben.
Aber diese Gang auf dem Frühstückstisch hat mich heute Morgen doch überzeugt, dass irgendein anderes christliches Fest ansteht… ;-)
Die Schnoster Gang
Die Gang
Mann kann sich über das Wetter herrlich aufregen. Man kann aber auch beschliessen, das jetzt gefälligst Frühling ist – wie mein Kaktus.
Frühlingsblüten vor Schneehof
Am Samstag habe ich meinen VcG Ausweis bekommen. Zeit, sich so langsam fit zu machen. Das dachten sich auch ein paar andere Golfer in Pankow. Bloss weisse Bälle sind momentan nicht so richtig sinnvoll…
Berufsbedingt setze ich mich momentan verstärkt mit Netzwerkthemen auseinander – auch ausserhalb der Arbeit. In den letzten Wochen habe ich mich mit einigen Leuten getroffen, die nicht nur mit dem aktuellen Internet arbeiten, sondern sich in der Freizeit auch mit Alternativen für bestimmte Spezialanwendungen auseinandersetzen.
Nun habe ich in zwei Gesprächen – immerhin unter wirklichen Nerds – das Thema “Store-and Forward in Netzen in denen Knoten nicht ständig verbunden sind” angesprochen und ergänzt “so ähnlich, wie damals das Fido Net”. Beide Male habe ich in ratlose Gesichter geblickt. “Was war denn das Fido-Net?”
Ich hätte genausogut von Aufstieg und Fall des Osmanischen Reiches erzählen können. Kein Plan, kein Geschichtsbewusstsein. Das hatte ich nicht erwartet, weil Retrocomputing ja gerade ziemlicher Trend ist. Immerhin waren Mitte der 90er weltweit fast 40.000 Systeme mit mehreren 100.000 Nutzern vernetzt – alles von Privatpersonen betrieben.
Wer sich für die Vernetzung zwischen Ende der 70er bis Mitte der 90er Jahre, bevor es das Internet für Privatpersonen gab interessiert, dem kann ich die wirklich gute Dokumentation “BBS The Documentary” ans Herz legen. Dankenswerterweise sind die Folgen bei Youtube zu sehen, da die DVDs nur in USA erhältlich waren.
Die Folge in der das Fidonet behandelt wird, ist diese. Viel Spass!
Dirk Ollmetzer | Wednesday, 13 March 2013 | Gizmos, Retro
Seit geraumer Zeit interessiere ich mich für Mini-Computer abseites der üblichen PC Wüste. Der Vorteil von diesen Mini-Dingern ist, dass sie nicht allzuviel kosten (in der Regel zwischen 20 und 40 Euro) und sich so zum rumprobieren und basteln eignen. Mittlerweile habe ich drei von den Dingern zu Hause.
Der Nachteil ist, dass sie in der Regel leider auch nicht allzuviel Rechenpower und Speicher haben. So ähnlich, wie sich die drei Geräte in Größe und Preis auch sind – von der Charakteristik und vom potentiellen Einsatzzweck unterscheiden sie sich doch erheblich.
Level 1 – Arduino
Der Arduino ist ein kleines Board mit einem ATMEL Microcontroller, der vor allem für Steuer- und Regeltechnik taugt: Lichtspielereien mit LEDs, Heimautomatisierung mittels Licht, Temeperatur und Feuchtigkeitssensoren und kleine Roboterspielereien. Was er nicht hat: Anschlüsse für Bildschirm, Tastatur, Maus, Sound und andere Dinge, die man ein normalen Computer so erwartet. Programmiert wird er in einer einfachen, auf Processing basierenden Sprache – oder in C.
Arduino Uno
Level 2 – Duinomite
Der Duinomite kommt – obwohl ebenfalls auf einem Microcontroller basierend – der Idee eines Computers schon näher. Tastatur und Bildschirm angeschlossen und schon hat man einen Rechner auf dem technischen Niveau eines Heimcomputers aus den frühen 80er Jahren, allerdings mit interessanten Schnittstellen zum Basteln, wie einem CAN-Bus, der vor allem im Automobilbereich eingesetzt wird. Programmiert wird er in Basic, ähnlich wie es Microsoft in den 70er und 80er Jahren vertrieben hat.
Duinomite
Level 3 – Raspberry Pi
Der letzte Neuzugang in meinem Spielzimmer Maschinenpark ist ein Raspberry Pi. Das Teil basiert auf einem ARM Prozessor mit immerhin 700MHz Takt und 512 MB Speicher und läuft bei mir zur Zeit unter Raspian – einer von Debian abstammenden Linux Variante. Nach dem Start empfiehlt sich noch etwas Feintuning, wie von Christoph beschrieben und alles funktioniert.
Dieser Rechner in Kreditkartengrösse ist der Idee eines PC sicherlich am nähesten, da er eine grafische Benutzeroberfläche hat, normal mit Tastatur und Maus bedient wird und mittels Ethernet Schnittstelle an das Internet angeschlossen werden kann. Für ernsthaften Einsatz als PC Ersatz taugt er aber dennoch nicht, da dem Prozessor doch sehr schnell die Puste ausgeht.
Programmieren kann man das Gerät in nahezu jeder beliebigen Programmiersprache, wobei von der Raspberry Pi Foundation Python empfohlen wird. Genau dafür ist er nämlich entwickelt worden: Sein eigentlicher Daseinszweck ist, ein möglichst billiger Computer zu sein, auf dem man leicht programmieren lernen kann. Ganz in der Tradition der billigen britischen Heimcomputer der 80er Jahre.
Raspberry Pi
Alles da, funktioniert – und jetzt?
Was macht man denn nun mit den Teilen? Nun, seien wir mal ehrlich – wenig:
Der Arduino liegt bei mir in einer Kiste. Ich habe zwar schon etwas damit rumgebastelt (“Nokia 6100 Display am Arduino“), aber solange ich nicht anfange Alarmanlagen, Bewässerungssysteme für die Topfpflanzen oder Roboter zu bauen, habe ich eigentlich keine rechte Verwendung für das Ding.
Dem Duinomite geht es ähnlich – er liegt nach einigem rumprobieren (“Retroflash III: Duinomite im Selbstversuch“) in der Kiste. Er ist zwar sehr einfach und macht Spass, aber ich habe keinen richtigen Einsatzzweck für das Ding gefunden.
Beim Raspberry Pi bin ich mir noch nicht sicher. Ich könnte mir vorstellen, ihn als kleines Helferlein in meinem Heimnetzwerk laufen zu lassen.
So habe ich neulich erfolgreich einen OwnCloud Server installiert, mit dem ich zentral meine Kontakte, Kalender und Fotos verwalten könnte. Eine schöne Anleitung dazu gibt es im Artikel “Raspberry Pi Owncloud (dropbox clone)” auf Instructables. Nach der Installation kann man das kleine Kistchen problemlos ohne Bildschirm und Tastatur hinter dem Regal verschwinden lassen.
Andererseits könnte ich mir den Winzling auch gut als Retro-Zentrale vorstellen, um alte Heimcomputer Spiele zu zocken. Einen Emulator für den guten, alten Sinclair Spectrum konnte ich vorhin ohne Probleme installieren. Dazu gibt man auf der Kommandozeile ein:
Das erste Kommando installiert den Sinclair Emulator, das zweite die Betriebssysteme der verschiedenen Spectrum Versionen (48K, 128K, Plus2, Plus3) und das letzte noch einige sinnvolle Hilfsprogramme um Audiodateien in den Emulator einspielen zu können (die Software war damals auf Audio Kassetten gespeichert), Basic Listings erzeugen zu können und ähnliches.
Ganz nett, aber so richtigen Nährwert hat das noch nicht. Ich bin aber sicher, mir fällt da im Laufe der Zeit noch was nettes ein…
Gerade komme ich aus der Galerie Parterre im Ernst Thälmann Park in Prenzlauer Berg zurück. Dort gab es heute Abend eine Vernissage zur Ausstellung “bartnig – konkret”. Der Eindruck ist noch frisch, also schreibe ich gleich mal ein paar Zeilen dazu.
Die Galerie – obwohl nicht gerade klein – war zum Bersten voll. Das Durchschnittsalter der Besucher war zwar recht hoch, das Niveau der Arbeiten erfreulicherweise allerdings auch. Die gezeigten Werke sind überwiegend sehr farbenfroh und trotz ihres geometrischen, mathematischen Aufbaus recht heiter. Leider darf man ja aufgrund des Urheberrechts keine Fotos zeigen – was sehr schade ist. Auf der Website der Galerie Parterre kann man sich aber einen kleinen Eindruck verschaffen.
Horst Bartnig kannte ich bisher eigentlich nur vom Sehen – er ist ja schon eine recht markante Erscheinung und auf den Kunstveranstaltungen kaum zu übersehen. Sein Werk war mir bisher aber nicht bekannt. So ging ich also den Abend völlig unvoreingenommen an.
Bei einigen Werken hatte ich das Gefühl, dass sie von einem alten Computerbildschirm inspiriert sein könnten. Freundlicherweise waren in einigen Vitrinen ältere Publikationen (zurück bis 1980) über Horst Bartnig und sein Werk zu sehen. Darin wurde mein erster Eindruck bestätigt. Bartnig hat sich offenbar bereits seit den 70er Jahren in der DDR mit mathematischen, generativen, computergestützten Verfahren in der Kunst auseinandergesetzt.
Interessant fand ich übrigens den Stil in dem die Kunstpublikationen der DDR verfasst waren: Sachlich, unaufgeregt und auf den Punkt. Ein wohltuender Kontrast zu dem gekünstelten, gestelzten und häufig beinahe hysterischen Geschwurbel, mit dem man heutzutage im Kunstbetrieb leider sehr häufig konfrontiert wird.
Die sehenswerte Ausstellung läuft noch bis zum 28. April.
Dirk Ollmetzer | Wednesday, 27 February 2013 | Unterwegs
Freiburg. Leider noch vor dem Frühling. Obwohl das Bächle trocken ist und der Himmel grau, ist das Städtchen trotzdem sehr nett und angenehm. Als überzeugter Norddeutscher muss ich ja schon zugeben, dass das Essen super ist, die Stadt irgendwie kuschelig und traditionell und trotzdem auch modern. Bin immer wieder gerne hier.
Dirk Ollmetzer | Saturday, 23 February 2013 | Development
Wer das Privileg hat, an einer Oxid-Schulung teilzunehmen, der muss einen Laptop mit einer lauffähigen Oxid-Version mitbringen.
Oxid selber stellt dazu ein vorbereitetetes VMWare Image zur Verfügung, bei dem bereits Varnish/Apache/PHP/MySQL in einem Ubuntu Linux vorkonfiguriert sind. Die Anleitung dazu findet sich hier:
Wenn man – wie vermutlich nicht allzuwenige Webentwickler – mit einem Apple arbeitet, muss man allerdings einiges ein wenig anders machen, als von Oxid beschrieben, um zu einer lauffähigen Umgebung zu kommen.
1. VirtualBox anstatt VMWare
Es fängt schon mal damit an, dass man VirtualBox als Virtualisierungsumgebung nutzen muss, da der VMWare Player nicht für Apple verfügbar ist. Die Software bekommt man hier: https://www.virtualbox.org/wiki/Downloads
Die Installation läuft wie üblich bei Mac OS X.
2. Die Oxid VM installieren
Nun startet man VirtualBox und erzeugt eine neue VM, indem man unter Maschine/Hinzufügen die VMK Datei aus dem Oxid Package auswählt. Nach kurzer Zeit kann man dann die VM starten. Der User heisst oxid und das Passwort ist ebenfalls oxid.
3. Die VB Guest Additions installieren
Nicht unbdingt notwendig, aber für später eventuell sinnvoll ist es, in der VM die VB Guest Additions zu installieren. Damit kann man z.B. Shared Folders nutzen, um Dateien zwischen Host und VM tauschen zu können.
VB Guestadditions installieren
4. Host Only Netzwerk Adapter einrichten
Auf jeden Fall notwendig ist es, eine echte Netzwerkverbindung zwischen Host und VM herzustellen. Der Server läuft ja in der VM, aber der Zugriff per Browser, SSH und SFTP soll ja vom Mac aus geschehen, um die eigenen Tools verwenden zu können. Dazu muss unter VirtualBox/Einstellungen Netzwerk ein Host-Only Netzwerk hinzugefügt werden. Es wird vermutlich vboxnet0 heissen.
VB Network Host-Only-Adapter
5. VM Netzwerk Adapter einrichten
In den Netwerkeinstellungen für die VM (VM auswählen, ‘ändern’ und das Netzwerk Symbol anklicken) müssen nun für den Adapter 1 die folgenden Einstellungen vorgenommen werden:
VB Network Adapter
Nun müsste sich der Webserver vom Mac aus aufrufen lassen. Auf dem Desktop der VM liegt ein kleines Shellscript namens getip.sh. Wenn man dieses startet, zeigt es einem die IP an, unter der das System erreichbar ist. In meinem Fall ist das die 192.168.56.101. Im Mac-Browser müsste sich nun PHPMyAdmin mit der URL http://192.168.56.101/phpmyadmin/ aufrufen lassen.
6. Shared Folder – lieber nicht
Oxid empfiehlt, im Host (hier also im Mac) einen Ordner anzulegen und diesen als Shared Folder dem Webserver in der VM zur Verfügung zu stellen. An dieser Stelle weichen wir von den Empfehlungen von Oxid ab, weil es zu einem ziemlichen durcheinander der Dateirechte käme: Die Dateirechte aus Sicht des Mac und aus Sicht der Linux VM passen nicht übereinander, so dass es hier ständige Konflikte gibt.
Stattdessen installieren wir Oxid vollständig innerhalb der VM und greifen von unserer IDE per SFTP auf die Files zu.
7. Oxid installieren
Nun haben wir die Umgebung eingerichtet. Es fehlt noch Oxid selbst. Die Community Edition bekommt man hier:
Das Archiv speichern wir in der VM in /var/www und enpacken es dort. Ich habe das Verzeichnis anschliessend in oxid umbenannt, um eine einfachere URL zu erhalten. Die Oxid installation lasst sich nun mit der URL http://192.168.56.101/oxid starten.
Es sollten alle Dateirechte korrekt gesetzt sein. Ansonsten lassen sich hier Details finden, wie die Einstellungen zu sein haben:
Der Rest der Installation sollte wie gewohnt und ohne Probleme verlaufen. Die Datenbank läuft auf localhost, als name bietet sich oxid an, User und Passwort sind jeweils root. Im Anschluss haben wir eine lauffähige Oxid Installation.
8. IDE einrichten
Ich nutze auf Arbeit PhpStorm und privat Netbeans als IDE. Mit beiden ist das folgende Vorgehen problemlos möglich: Um an der VM Installation entwickeln zu können, muss man seine IDE so einrichten, dass sie die Dateien zwar lokal auf dem Mac vorhält, aber stets mit der VM per SFTP (User oxid, Password oxid) synchronisiert. Auch Eclipse oder andere Editoren sollten solch ein Vorgehen unterstützen.
Am Freitagabend hörte ich mir in der Akademie der Künste die Veranstaltung “Grand Opening E Studio” an. Die Karten hatte ich schon zwei Wochen vorher besorgt, was sich als goldrichtig herausstellte, weil die Veranstaltung vollständig ausverkauft war. Ich freute mich auf experimentellen Lärm und ganz besonders auf Blixa Bargeld und Caspar Brötzmann. Beim Eintritt in den Saal wurden freundlicherweise Ohrstöpsel verteilt, was mich zunächst erwartungsfroh stimmte.
Akademie der Künste mit Schnee
Doch der erste Teil der Veranstaltung traf meine Erwartungen dann leider in keinster Weise. Es wurden mehrere Stücke zum besten gegeben, die nach folgendem Schema abliefen: Ein Musiker spielt “gegen” Soundfragmente, die aus dem Computer kamen. Zuerst ein Stück am Schlagzeug, dann ein Stück bei dem überhaupt niemand auf der Bühne war(!), dann ein Stück am Klavier, dann eines mit Cello, bei dem es auch noch zu einer technischen Panne kam und zum Schluss ein Textvortrag mit Soundcollage und Hintergrundvideo. **grmpf**
Sinnvolle Dreingabe: Ohrstöpsel in geschmackvoller Farbgebung
Der zweite Teil des Abends verlief dann jedoch genau so, wie ich es erhofft hatte: Beginnend mit einem mehrminütigen Feedback Festival aus Brötzmanns Gitarre in das später Blixa Bargeld mit einstieg und gesanglich auf die Gitarrenfeedbacks “antwortete”. Bargeld kommentierte das nach dem Stück zwar, dass das “eine Scheissidee” war, aber er stand ohnehin recht angepisst auf der Bühne.
Mr egal – die Performance stimmte. Streng genommen gab es nur drei (lange) Stücke und eine Zugabe zu hören. Aber die hatten es in sich. Ein Stück begann mit einem Subsonic Bass, der durch Mark und Bein ging und tatsächlich dafür sorgte, dass kleinere Teile von der Decke rieselten. Brötzmann schaffte es übrigens tatsächlich, erst im dritten Stück einen Riff zu spielen. Bis dahin erzeugte er den Sound nur dadurch, wie er die Gitarre hielt, an welcher Stelle er vor den Verstärkertürmen (natürlich Marshall) stand, durch klopfen und ähnliche Techniken.
Nachdem im letzten Jahr bereits die Oxid User Group NRW gegründet wurde und recht interessante Themen behandelt hat, trafen sich in der letzten Woche auch in Berlin Vertreter der Oxid-Szene in den Räumen von SysEleven.
Die Teilnehmer kamen überwiegend aus den Bereichen Agentur, Software und Hosting. Es waren leider nur Vertreter eines einzigen – allerdings bekannten grossen – Shopbetreibers anwesend. Für zukünftige Treffen wäre es schön, wenn mehr Vertreter von der Anwenderseite teilnehmen würden, aber für den Auftakt war die Mischung schon recht gut, wie sich im Verlauf der Diskussionen herausstellte. Ganz überraschend war das nicht, da sich die meisten ohnehin schon kannten.
eCommerce im Umspannwerk
Von Oxid nahmen Eric Kort (technischer Entwicklungsleiter) und Marco Steinhäuser den Weg nach Berlin auf sich um sich über die Stimmung und Interessen der Teilnehmer zu informieren. Dieses erste Treffen diente vor allem dazu, herauszufinden, ob es überhaupt Bedarf gibt und was interessante Themen wären. Gesprochen und diskutiert wurde dann über:
Sinn und Unsinn von verschlüsseltem Quellcode
Erfahrungen mit automatisierten Tests und Continuous Integration
Vor- und Nachteile von Modulzertifizierungen
Methoden zum Deployment großer, heterogener Installationen
Ich selbst habe einen Prototypen für Content-Workflow vorgestellt, an dem ich seit einiger Zeit nebenher arbeite. Das positive Feedback vermittelte mir den Eindruck, dass an einem einfachen, flexiblen Tool durchaus Bedarf besteht.
Nach den fachlichen Teil blieb man nach geraume Zeit zum Plausch beisammen, was ein schönes Zeichen ist. Ich würde mich jedenfalls sehr freuen, wenn diess Treffen eine regelmässige Einrichtung wird.
Im Oktober hatte ich meinem Smartphone ein Betriebssystem Upgrade verpasst – das original HTC Upgrade von Android 3.6 auf 4.0.4. Mit dem Ergebnis war ich aber seinerzeit überhaupt nicht zufrieden, wie ich im Artikel “Update für HTC Desire S – leider ungeil!” beschrieben hatte.
Seitdem ärgerte ich mich über allerlei fiese Hakeleien. Insbesondere der Browser zickte ziemlich rum. Ganz schlimm war das bei Websites, die mit unnötig kompliziertem Firlefanz erstellt wurden, wie Facebook, Twitter und Handelsblatt, um mal meine Top 3 “Worst ever mobile Websites” zu nennen. Und genau das, was mich auch schon vorher an dem Telefon gestört hatte ist eher noch schimmer georden: Die Zwangsverdongelung mit Apps von Facebook, Titter und Dropbox, die einen ausspionieren und die Adressen abfragen oder sogar komplett durcheinanderwürfeln.
Beim Versuch, auf dem Telefon das Cyanogenmod Betriebssystem zu installieren, bin ich seinerzeit gnadenlos gescheitert, weil alle Anleitungen davon ausgingen, dass noch der ursprüngliche Bootloader installiert ist – was nach dem Update natürlich nicht der Fall war.
Wie es doch geht, wird in dem Blogbeitrag “Die Befreiung meines HTC Desire S” hervorragend beschrieben. Der dortigen Anleitung bin ich am Wochenende gefolgt und habe nun CM7.2 auf dem Telefon. Leider gibt es für das Gerät keine neuere Version – aber neuer bedeutet ja nicht unbedingt besser, wie ich gerade gelernt hatte.
Nach der Instalation des Betriebssystems hatte ich zunächst etwas gezögert, dann aber doch die Google Apps nachinstalliert, weil ich sonst einfach keine einigermaßen sinnvolle Möglichkeit gesehen habe, meine Kontaktdaten und Kalendereinträge zu synchronisieren.
Lockscreen
Homescreen
Bis auf einen ziemlich blöden Bug bin ich auf den ersten Blick sehr zufrieden mit dem Ergebnis meiner Bemühungen. Im Einzelnen bedeutet das:
Positiv:
Der Browser läuft wieder flüssig. Auch problematische Websites funktionieren wieder.
Keine unnötigen Schrottapps verpesten das Phone.
Das Mailprogramm ist geschmeidiger, als das von HTC ausgelieferte und lädt nicht ungefragt Bilder nach.
Die Oberfläche ist irgendwie “snappy”.
Ein Telefon, mit eingebauter Unix Shell hat auch mal was … ;-)
Negativ:
Die Kamera hat jetzt leider eine schwere Macke: Das Vorschaubild friert nach einer halben Sekunde ein. Man sieht also nicht, was man gerade fotografiert.
Der USSD-Security Bug mit den Link-Handlern ist leider wieder an Bord – lässt sich aber patchen (siehe Anleitung bei Heise).
Das ganze Prozedere ist schon recht aufwändig und sicherlich nichts für Normale Nutzer.