tiny little gizmos

Semi-Retro-Nerd-Zeugs: Die PiDP-8 mit OS/8

Wenn man sich wie ich schon in den frühen 80er Jahren mit Heimcomputern beschäftigt hat, gehört man bereits zu den Veteranen des Digitalzeitalters. Dennoch ist mir in den letzten Jahren immer stärker klar geworden, dass ich kaum Ahnung von den Rechnern habe, die vor dieser Zeit im Einsatz waren. Das hat natürlich auch damit zu tun, dass es nicht allzuviele Geräte aus der Computerfrühzeit gibt. Die Stückzahlen waren damals noch sehr gering und es haben auch nicht viele Maschinen überlebt, weil es extrem aufwändig ist, solch alte Geräte lauffähig zu halten.

Als ich auf dem Vintage Computing Festival 2014 endlich zwei der legendären Computer der Firma Digital Equipment in Natura im Betrieb sehen konnte, war ich daher schwer fasziniert. Es wurden damals eine sehr stylische 12-Bit PDP-8/e aus dem Jahr 1970 mit VT-05 Videoterminal und die 16-Bit PDP-11/34 aus dem Jahr 1976 mit Teletype 33 ASR Terminal vorgeführt.

Damals war auch schon Oscar Vermeulen dabei, der einen Bausatz für eine Mini-Replika der PDP-8/i entwickelt hatte. Das Gerät sieht fast genauso aus, wie das Original, ist allerdings erheblich kleiner und hat einen sehr hohen Niedlichkeitsfaktor. Die Bedienung ist tatsächlich genauso, wie beim Original und man kann natürlich die alte Software aus den 60er und 70er Jahren laufen lassen. Beim diesjährigen VCFB habe ich mich dann endlich dazu durchgerungen, Oscar einen dieser mittlerweile weiterentwickelten Bausätze abzukaufen – für den Nerd-Preis von 2 hoch 7 Euro (€128).

Vier Wochen später ist es soweit: Meine PiDP-8 läuft und ich habe die ersten Stolperschritte im Betriebssystem OS/8 gemacht. Die Ein- und Ausgabe auf einem Laptop erfolgt stilecht über Cool-Retro-Term im Look eines VT-05 Terminals.

PiPD-8 mit Terminal

PiPD-8 mit Terminal

Weshalb der Name PiDP-8 anstatt PDP-8? Der Bausatz ist eigentlich gar kein Computer, sondern nur “Blinkenlights” – also das Frontpanel mit LEDs und Eingabetastern. Dazu wird noch ein Raspberry Pi benötigt, auf dem die Software SimH läuft, die die eigentliche Rechneremulation ausführt. Trotzdem bleibt noch genügend Bastelei übrig.

Zunächst sollte mal den Raspberry Pi und die Software vorbereiten. Dazu benötigt man den Raspberry Pi, eine Micro SD Karte, einen SD-Karten Adapter, einen USB Speicherstick, einen Computer mit SD-Karten Steckplatz, ein USB Ladegerät, eine Tastatur, eine Maus und einen Bildschirm. Ich habe den Raspberry Pi einfach per HDMI an den Fernseher angeschlossen. Wenn alles läuft, braucht man Tastatur, Maus und Bildschirm nicht mehr.

Raspberry Pi vorbereiten

Raspberry Pi vorbereiten

Auf der PiPD-8 Homepage werden zwei Varianten beschrieben, wie man die Software zum Laufen bekommt. Variante 1 ist das Image einer fertigen PDP-8 Distribution und in Variante 2 wird die Software auf einer normalen Raspbian Dsitribution installiert.

Empfehlen kann ich nur Variante 2. So benötigt der Rechner zwar 30 Sekunden anstatt 10 Sekunden zum Starten, lässt sich aber wie gewohnt einrichten und anpassen. Bei der Fertigdistribution hatte ich Probleme mit Tastatur, Netzwerk und Systemaktualisierung.

Nachdem die PDP-8 Emulation läuft, kann man sich an das Basteln der Hardware machen. Dazu benötigt man neben dem Bausatz vor allem Lötkolben, Lötzinn, Seitenschneider und für das Gehäuse Bohrmaschine, Laubsäge, Feile und feine Kreuzschlitzschraubendreher.

Fertig zum Löten

Fertig zum Löten

Wichtig ist, die Anweisung genau zu lesen. Es gibt einige typische Stolperfallen, in die man sonst leicht tappen kann:
Vorder- und Rückseite des Boards verwechseln, Dioden und LED mit falscher Polung oder Sockelleisten falsch einlöten, Schaltertypen verwechseln usw..
Davon abgesehen ist der Bausatz einfach, und auch für einen Hardwarelegastheniker wie mich machbar.

Tip: Achtet auf richtiges Werkzeug. Ich habe mir extra einen neuen Lötkolben mit feiner Spitze besorgt. Der auf dem Foto gezeigte war wenig geeignet.

Tag 1: Dioden, Widerstände und erste LEDs sitzen

Tag 1: Dioden, Widerstände und erste LEDs sitzen

Wenn man vernünftiges Wekzeug hat, jedes Teil dorthin setzt, wo es hin muss, man auf die kleinen Stolperfallen achtet und Lötbrücken und kalte Lötstellen vermeidet, kann eigentlich nichts schief gehen. Der Rest ist Fleißarbeit: für 26 Dioden, 15 Widerstände, 89 LEDS, einen IC Sockel, eine Stiftleiste und 26 Schalter braucht man schon ein wenig Zeit. Ich habe das Board an drei Tagen zusammengelötet.

Tip: Zwischendurch immer mal prüfen, ob die LED und die Schalter gerade sitzen, indem man das Board hinter das Frontpanel hält

Tag 3: Das PiDP8 Board ist fertig

Tag 3: Das PiDP8 Board ist fertig

Nachdem ich das Board fertiggebaut und den Raspberry Pi auf der Rückseite montiert hatte, lief zu meiner großen Freude alles ohne Probleme. Damit hatte ich eigentlich gar nicht gerechnet.

Ich hatte allerdings auch nicht damit gerechnet, dass die größten Schwierigkeiten beim Einbau des Rechners in die Bambusholzkiste auftreten würden. Als ich das Loch an der linken Gehäuseseite für Ethernet und USB heraussägte, splitterte der Bambus, die große Holzleiste hinter den Schaltern ließ sich nicht mit den 9,5mm Schrauben befestigen, weil diese nicht in das Montageloch unter den Schaltern eingeführt werden konnte und fast alle Micro-USB Kabel, die man für die Stromversorgung braucht, waren zu lang und unflexibel um in die Kiste eingebaut werden zu können. Ein Kabel, das oben aus der Kiste herausragt, wollte ich aber nicht haben.

Aber wenn man schon mal so weit ist, lässt man sich von solchen Kleinigkeiten nicht aufhalten. Der Rechner sitzt jetzt im Gehäuse und sieht aus, wie ich ihn mir vorgestellt hatte. Jetzt kann ich mich durch fast 50 Jahre alte Dokumentation bei Bitsavers durchwühlen, um den Umgang mit der Maschine zu lernen. Und nächstes Jahr baue ich dann die PiDP-11/70… :-D

PiDP-8: fertig und läuft

PiDP-8: fertig und läuft

Old-Boys-Punk und Heimaturlaub

Hinter mir liegt ein verlängertes Wochenende in Hannover, das mir sehr viel Spaß gemacht hat. Ich möchte den Menschen danken, die dazu beigetragen haben (in chronologischer Reihenfolge):

Maike, Uwe, Melanie, Olaf und Bernd, den ich nach dem Konzert kennenlernen durfte.

Es gab nette und interessante Gespräche, lecker Kaffee und Kuchen in der Menagerie, ordentliche Mengen Newcastle Brown Ale im Jack the Ripper’s, erstaunlich leckere “zwischendurch Pizza” in Oberricklingen, plötzlich richtig gutes Wetter, als wir auf der Driving Range in Gleidingen waren und natürlich den Anlass meiner kleinen Reise: Das rappelvolle Konzert der Dead Kennedys im Kulturzentrum Faust.

Obwohl es nicht mehr ganz die Originalbesetzung war und die Zuschauer (wie ich) so langsam aufs Seniorenalter zugehen, ging die Post ganz gut ab. Zum Abschluss gab es dann noch einen Absacker im Izarro.

Heute Morgen in der Markthalle noch ein paar regionale Spezialitäten geholt und danach ging es zurück nach Berlin.

Und jetzt könnte ich gut ein Wochenende gebrauchen um auszuspannen…

Morgens in der List

Morgens in der List

Mittags auf dem Golfplatz

Mittags auf dem Golfplatz

Abends Old-Boys-Punk

Abends Old-Boys-Punk

Langes Nerd Weekend

Der Tag der Deutschen Einheit hat uns Anfang Oktober zu einem langen Wochenende verholfen, das Wetter schwenkte aber nun endgültig in Richtung Herbst.

In Berlin gab es für Nerds zwei Veranstaltungen, an denen man sich die Zeit vertreiben konnte: Die Maker Faire hatte ihre Publikumstage am Samstag und Sonntag und das Vintage Computing Festival am Sonntag und Montag.

Maker Faire Berlin 2016

Die Veranstaltung fand in der Station am Gleisdreieck statt. Ich besuchte sie zum ersten Mal und ich wusste im Vorfeld noch nicht so recht, was ich davon halten sollte, obwohl ich natürlich das Eine oder Andere im Vorfeld gelesen hatte.

Maker Faire in der Station Berlin

Maker Faire in der Station Berlin

Gut besucht

Gut besucht

In zwei Hallen ging es im Prinzip darum, Leute fürs Selbermachen zu interessieren, inspirieren und zum Kauf von entsprechenden Materialien und Werkzeugen zu bewegen. Es gab Stände, die handwerkliche Dinge zeigten, wie Bootsbau mit selbstgebogenen Hölzern, textiles Gestalten, Ringe schmieden usw. Der Schwerpunkt lag aber auf elektronischen Basteleien, 3D Druck, Lasercutter und Robotik.

R2-D2 in Aktion

R2-D2 in Aktion

Der R2-D2 Builders Club zeigte mehrere, sehr realistisch anmutende “Androiden”, teilweise in Aktion und in verschiedenen Montagestufen. Dennoch kann man hier eigentlich nicht von Robotern sprechen, da es sich am Ende doch “nur” um ferngesteuerte Robotermodelle handelt.

Nao Roboter

Nao Roboter

Der knapp 60cm große Nao von Aldebaran Robotics ist hingegen ein echter autonomer, humanoider Roboter. Er war massenweise auf der Maker Faire vertreten, weil hier mehrere Mannschaften im Robo-Cup gegeneinander antraten.

Robocup

Robocup

Man konnte hier einen netten Nachmittag verbringen, wobei ich die eigenartige Kombination aus “wir zeigen mal, was wir tolles machen”, “probier mal selber” und “hier kannst Du Werkzeug und Material kaufen” immer noch seltsam finde. Da ich regelmäßig thematisch entsprechende Websites (Hackaday, Adafruit, Make:,…) besuche, hat mich allerdings inhaltlich nichts wirklich überrascht.

Familien, die ihre Kinder spielerisch an den Umgang mit Technik und vor allem an die Idee heranführen wollen, dass man Dinge auch selber bauen kann, anstatt sie fertig zu kaufen, sind hier richtig gewesen.

Vintage Computing Festival 2016

Wie auch schon in den letzten Jahren fand im Pergamon Palais der Humboldt Universität Berlin das Vintage Computing Festival statt. Es gab auch in diesem Jahr wieder Vortäge, viele interessante Exponate, einen Game Room, in dem Spiele auf diversen alten Videospielen und Computern gespielt werden konnten und eine Party mit Chiptunes.

Die gezeigte Hardware fand ich im Vergleich zu den Veranstaltungen in den letzten Jahren vom Umfang insgesamt etwas schwächer, obwohl auch wieder einige originelle Highlights gezeigt wurden. Beispielhaft sei ein selbstgebautes Vectordisplay genannt, auf dem man u.a. Mazewar (einem Multiplayer, First Person Shooter aus dem Jahr 1974!) und das Vectrex Spiel Minestorm bewundern konnte.

MazeWar auf selbstgebautem Vectordisplay

MazeWar auf selbstgebautem Vectordisplay

Die TU Berlin war ebenfalls wie in den letzten Jahren mit selbstgebauter Hardware vertreten: Diesmal mit dem Space Age II, einem 32-Bit-Computer, dessen CPU aus 490 TTL-Bausteinen aufgebaut ist und eine MIPS 1 kompatiblen Befehlssatz unterstützt.

Space Age 2 TTL Computer

Space Age 2 TTL Computer

 

Für mich waren in diesem Jahr die Vorträge interessanter. An der “Kurztagung “Hello, I’m ELIZA.” – Zum 50. Geburtstag eines Chatbots” habe ich leider nicht teilgenommen. Das war insofern schade, als Chatbots ja momentan von den großen Treibern aus den USA (Google, Facebook, Amazon, Apple, Microsoft,…) zum “next big thing” hochgepusht werden. Ich bleibe da eher etwas skeptisch.

Sehr beeindruckt hat mich der Vortrag “Spracherkennung mit dem Z9001“, in Volker Pohlers zeigte, wie in den 80er Jahren in der DDR mit unglaublich geringen Mitteln eine rudimentäre Sprachsteuerung (50 gesprochene Befehle) entwickelt wurde.

Wolfgang Stief führte seine interessante Vortragsreihe über den “Vater des Supercomputings” unter dem Titel “Defining Supercomputing – Seymour Cray und die CDC 6600” weiter. Zu der etwas desolaten Raumsituation der Großcomputersammlung Sammlung in München gab es leider nichts Neues. Die Halle ist noch immer gesperrt und der Ersatz nicht fertiggestellt.

Aber auch die robuste 8-Bit Technik der 70er Jahre wurde wieder ausführlich behandelt. Hans Franke referierte nach etwas holperigem Start über Vor- und Nachteile der Speicherorganisation typischer 8-Bit Computer.

Dr. Frederik Holst erzählte in seinem Vortrag “Die inneren Werte zählen – Perspektiven- und Paradigmenwechsel beim Übergang von Hoch- zu Maschinensprache” von seinen Schwierigkeiten, Maschinensprache zu lernen. Hochsprachen sind problemnah (z.B. “Zeichne ein Kreis auf den Grafikbildschirm”), was sie zunächst verständlicher macht, obwohl es viele unterschiedliche Befehle gibt. Maschinensprache hat im Vergleich dazu nur sehr wenige Befehle (z.B. “Schreibe Wert X in Speicherstelle Y”). Allerdings muss man die Hardwarearchitektur des Rechners bis ins Detail verstehen und sich selber um jedes winzige Detail kümmern. Es ist also eine vollkommen andere Sicht auf das Problem und den Computer nötig.

Ich hatte noch eine Diskussion mit Wolfgang Stief zum Thema Software auf Großrechnern. Zwar ist es fantastisch, dass sich Menschen finden, die die alten Rechendinosaurier funktionsfähig halten, aber mir fehlen die Anwendungen. Wie will man den Sinn und Zweck der alten Technik demonstrieren?

Während es für die alten Heimcomputer massenhaft Spiele gibt, die katalogisiert und gesammelt werden, und die für die ersten PCs typischen Softwarepakete, wie Wordstar und Visicalc (trotz der rechtlich problematischen Situation) verfügbar sind habe ich noch keine Software für Grossrechner gesehen. Wo sind die Buchhaltungs- und Bankprogramme? Wo ist Software zur Wettervorhersage und zu Crashtests? Hier hat die Medienarchäologie noch ein weites Feld zu beackern.

Der VCFB hat für mich ein wenig den Charakter eines Klassentreffens. Einerseits, weil man mittlerweisle viele der Aktiven kennt, andererseits auch wegen dem robusten Do-it-yourself Charme der Veranstaltung. Dabei meine ich ausdrücklich nur das Ambiente, denn was der Fachbereichs Medienwissenschaften der HU Berlin zusammen mit dem Hackerspace AFRA und der technischen Unterstützung des Chaos Computer Clubs hier seit Jahren auf die Beine stellt ist bemerkenswert professionell organisiert. Leider fand das VFCB in diesem Jahr zum letzten Mal in den Räumen der Humboldt Universität statt. Im nächsten Jahr wird dafür das Technikmuseum Berlin Räumlichkeiten auf seinem Gelände am Gleisdreieck zur Verfügung stellen. Man darf gespannt sein.

Digital ist besser – aber nicht immer

Während manche Leute riesengroße Touchscreens in Autos wie dem Tesla Model S für tollen modernen Kram halten, sind andere Branchen schon wieder ein paar Jährchen weiter. In Bereichen, die bereits seit Jahren oder Jahrzehnten digitalisiert sind und wo es für die Nutzer auf schnelle und intuitive Bedienung ankommt, sind digitale Benutzeroberflächen schon längst wieder auf dem Rückzug, weil sie zu sperrig in der Bedienung sind.

Ein Beispiel sind Musikinstrumente. Der Siegeszug der digitalen Klangerzeugung bei Synthesizern in den 80er und 90er Jahren führte zu Benutzeroberflächen mit Displays und wenigen Knöpfen. Aktuelle Modelle dagegen strotzen wieder vor Drehknöpfen und Schiebereglern, die den Musikern eine virtuose, “blinde” Bedienung überhaupt erst ermöglichen.

Digitale Technik ist toll, digitale Bedienung aber nicht

Ein anderes Beispiel sind Fotoapparate. Auch hier gibt es einen Trend zurück, den manche als Retrowelle missverstehen. Ich hatte mir vor fünf Jahren eine spiegellose Systemkamera im Micro-Four-Thirds Standard gekauft: Eine Panasonic Lumix DMC-GF2. Ausschlaggebend waren gute technische Werte, hohe Bildqualität, gute Verarbeitung und ein Standard, der von mehr als einem Hersteller unterstützt wird zu einem attraktiven Preis.

Allerdings sind wir nie so richtig miteinander warm geworden. Die Kamera hat zwar 1000 Möglichkeiten, die sind aber alle irgendwo in -zig Untermenüs verteilt. Wenn man etwas verstellen will, muss man auf das Display gucken. In der Zeit ist dann das Motiv weg. Das hat dazu geführt, dass ich eigentlich nur im Automatikmodus fotografiert habe. So eine Kamera holt man sich aber eigentlich nicht nur zum “knipsen”.

Bei meinem Besuch auf der Festung Suomenlinna bei Helsinki ist mir 2013 eine komplette Fotoserie durch einen verstellten Weißabgleich unrettbar verlorengegangen. Irgendwie war ich aus Versehen in das Menü gekommen und hatte die falsche Grundeinstellung nicht mehr bemerkt. Danach war ich so verstimmt, dass ich die Kamera nicht mehr angefasst habe.

Die analogste Digitalkamera, die ich je angefasst habe

Vor ungefähr einem halben Jahr bin ich ziellos durch ein Geschäft geschlendert und habe dabei die Olympus OM-D E-M 10 Mark II entdeckt. Ich habe sie spontan in die Hand genommen, weil sie so niedlich und Retro aussah. Ungefähr wie eine Olympus OM aus den 70ern und 80ern – bloß viel kleiner. Interessanterweise ist das ebenfalls eine Micro-Four-Thirds Kamera und somit systemkompatibel zur Panasonic mit vergleichbaren technischen Eckwertern.

 

Olympus OM-D E-M 10 Mark II

Olympus OM-D E-M 10 Mark II


Mein Interesse war geweckt, ich habe Tests gelesen, Beispielfotos angesehen und das Teil noch ein paar mal in die Hand genommen. Nach langem hin- und her habe ich sie nun in einem Berliner Fachgeschäft gekauft.

Nicht weil sie niedlich ist, sondern weil sie sich unheimlich gut bedienen lässt.

Bei der Olympus lässt sich alles Wichtige mit den drei Rändelrädern extrem schnell und vor allem blind einstellen. Zudem hat sie zusätzlich zum normalen Display auf der Rückseite einen sehr guten elektronischen Sucher. Die Raterei, was man eigentlich aufnimmt, während von hinten die Sonne auf das Display fällt, ist mit diesem Gerät jedenfalls kein Problem. Das Spiel mit Schärfentiefe, Belichtungsspielereien, wie Bewegungsunschärfe usw. klappten nach wenigen Minuten, ohne das Handbuch bemühen zu müssen. Das ist insofern praktisch, als auch gar kein richtiges Handbuch in der Packung lag, sondern nur ein Schnelleinstieg in ca. 725 Sprachen.

Keine Besserwisserei des Geräts

Ein weiterer Vorteil gegenüber der Panasonic ist, dass die Olympus nichts automatisch und ungefragt wegkorrigiert. Zwei Beispiele:

  • Wenn man mit der Panasonic versucht hat ein Portrait aufzunehmen, war es nahezu unmöglich die Tiefenunschärfe einzustellen um den Hintergrund unscharf zu bekommen, weil auf dem Display einfach das komplette Bild scharfgerechnet angezeigt wurde. Die Olympus zeigt die Tiefenunschärfe im Display richtig an.
  • Das Aufnehmen von tollen Farben von Himmel und Wolken bei Sonnenuntergang hat mit der Panasonic regelmässig nicht geklappt, weil eine automatische Helligkeitskorrektur alles auf 60% Standardbelichtung “korrigiert” hat. Mit der Olympus hat das hingegen bereits im Automatikmodus gut funktioniert. Und eine Belichtungsreihe mit Blendenautomatik war in 10 Sekunden im Kasten.

Fazit: Nix mit Retro – digitale Technik und analoge Bedienung ist die ideale Kombination

Bei beiden Kameras sind die technischen Eckdaten aufgrund des gemeinsamen Micro-Four-Thirds Standards vergleichbar: Gleiche Sensorfläche, 16MP Bildqualität usw. Aber in der Bedienung liegen Welten zwischen den beiden Kameras:

Auf der einen Seite die Panasonic GF2: Ein Touchscreen Computer mit angebautem Objektiv, der die kreative Arbeit am Bild nicht nur nicht unterstützt, sondern sogar behindert oder gar besser als der Nutzer wissen will, wie das Bild auszusehen hat. Im Prinzip ist das eine Automatikknipse. Dafür ist der Spass aber viel zu kompliziert und teuer, weil man diese Art Bilder mittlerweile auch mit einem guten Smartphone hinbekommt.

Auf der anderen Seite die Olympus: Mein erster, spontaner Eindruck war falsch. Das ist kein Retromodell, sondern ein echter Fotoapparat, der einem schnelle und unkomplizierte Bildgestaltung ermöglicht, sofern man sich mit den Grundlagen der Fotografie ein wenig auskennt. So muss es sein.

 

Hier sind ein paar Probefotos:

Modellboot auf dem Weissensee

Modellboot auf dem Weissensee

Harte Licht/Schatten-Kontraste, Vordergrund, Mittelgrund, Hintergrund, Fokus auf dem Modellboot. Blätter im Vordergrund nicht zu dunkel, MIlchhäuschen überstrahlt nicht.
Brennweite 42mm (84mm KB), Blende f/10,0, Belichtungszeit 1/320s, Empfindlichkeit ISO 200.

Baumstumpf

Baumstumpf

Graues Motiv vor grauem Hintergrund im Schatten.
Brennweite 19mm (38mm KB), Blende f/5,6, Belichtungszeit 1/125 Sek., Empfindlichkeit ISO 200.

Baumstumpf Detail

Baumstumpf Detail

Abendlicht

Abendlicht

Abendstimmung, verschiedene Lichtquellen (Himmel, Strassenlaternen, Autoscheinwerfer). Die Farben sind stimmig bei leichtem Überstrahlen des Himmels.
Brennweite 14mm (28mm KB), Blende f/2,5, Belichtungszeit 1/15 sek., Empfindlichkeit 1600 ISO

VR – aufgewärmter Quatsch ohne Soße…

Damals in der 80ern waren nicht nur die Heimcomputer neu, sondern auch diverse Zukunftsszenarien aus damals aktuellen Science-Fiction Geschichten. Ganz heiß erschien damals die Idee vom Cyberspace, oft auch Virtual Reality (VR) genannt. Eine völlig künstliche Umgebung, die nicht den Zwängen der realen, körperlichen Welt unterlag. Eine konstruierte Welt aus Software, in der man sich scheinbar grenzenlos bewegen konnte. Unendliche Möglichkeiten schienen sich aufzutun…

Die ersten wirklichen Versuche, VR umzusetzen waren in den 90ern dagegen ziemlich ernüchternd. Und zwar so sehr, dass das Thema – bis auf Nischenanwendungen, wie Automobildesign – eigentlich seit 20 Jahren vom Tisch ist.

In den letzten 1-2 Jahren kocht das Thema aber so langsam wieder hoch. Ich muss zugeben, daß mich das ziemlich kalt lässt. Als Jugendlicher wäre ich damals vermutlich völlig drauf abgefahren, aber mir ist die Idee mittlerweile einfach zu abgedroschen.

Trotzdem kann natürlich ein kleiner Reality-Check nicht schaden. Versuchen wir mal die Einsteigerdroge: Google Cardboard.

Let’s do it!

Ich hatte mir vor drei oder vier Monaten schon mal Google Cardboard auf meinem Smartphone installiert, aber ohne VR-Brillengestell machte das keinen Sinn. Also hatte ich die App erstmal wieder gelöscht. Am Samstag bin ich bei Conrad über einen Stapel VR-Brillen von Google gestolpert. Kostet ja nicht sooo viel, also habe ich eine der Pappschachteln mitgenommen.

Google Cardboard

Google Cardboard

Fertig zum Ausetzen

Fertig zum Aufsetzen

Das Prinzip ist simpel: Eine Pappschachtel mit zwei Linsen, in die man sein Smartphone klemmt, das ganze auf die Nase setzt und mit den Halteriemchen am Kopf fixiert.

Aber vorher musste ich die App neu installieren, weil ich sie ja zwischenzeitlich gelöscht hatte und – oh Wunder – mein Telefon ist plötzlich nicht mehr kompatibel. Wieso? Vor drei Monaten ging es doch. Ich habe Android 6 auf dem Phone – von veraltet kann also keine Rede sein. Nun gut, also habe ich mit ein paar andere VR-Apps heruntergeladen und damit etwas rumgespielt.

Fazit

Die Erfahrung kann ich in einem Wort zusammenfassen:

Schrott!

Oder etwas ausführlicher:

  • Man sieht wie der letzte Mutant aus. Smombies sind ein Scheissdreck dagegen.
  • Die Kiste mit dem Smartphone auf der Nase nervt – es ist zu schwer und stört einfach nur.
  • Die Fokussierung stellt sich auch nicht gerade von selbst ein. Ich musste mich ziemlich konzentrieren.
  • Keine der Apps hat den Gyroskop im Telefon richtig benutzt. ein Kopfschwenk führte meistens zu gar nichts oder zu einer verzögerten Bewegung, die überhaupt nicht synchron zur Körperbewegung.
  • Die Bedienung ist problematisch, weil man den Touchscreen ja nicht mehr anfassen kann.
  • Dadurch, dass man mit den Augen direkt am Display ist, wirkt das Bild ist unglaublich grobkörnig. Ohne 4K-Display braucht man so etwas gar nicht anzufangen.
  • Von dem Fake-3D wird mir innerhalb von 30 Sekunden übel.
  • Es gab keine einzige App, die mich inhaltlich irgendwie interessiert hätte.

Gut, einige der Punkte davon könnte man mit richtiger Hard- und Software korrigieren. Aber eine wesentlich teurere Kombination aus High-End Samsung Phone und der dazugehörigen Brille war auch nicht viel besser.

Meiner Meinung nach ist die ganze VR-Idee – von einigen Spezialanwendungen wie Konstruktion oder Simulatoren mal abgesehen – für die breite Masse unsinnig.

 

Und überhaupt…

Daß so beharrlich versucht wird, diese eigentlich schon begrabene Idee wieder aufzuwärmen, hinterlässt bei mir einen faden Beigeschmack. Virtual Reality reiht sich für mich in eine täglich länger werdende List von technischem Zeug, dass ich explizit nicht haben will, wie z.B.:

Internetfähiger Kühlschrank. Die Idee war vor 20 Jahren Schrott, vor 10 Jahren Schrott, ist immer noch Schrott und bleibt es auch.

Chatbots. Noch so ein 20 Jahre alter aufgewärmter Quark. Was soll toll daran sein, mit begriffsstutzigen Maschinen zu reden? Das nervt ja bei Menschen schon genug.

Smarthomes und überhaupt alles, was gerade mit “Smart-” anfängt. Damit absolut jeder Lebensbereich ausgeforscht und im nächsten Schritt ferngesteuert werden kann. Und wir entwickeln uns alle im Rekordtempo zurück zu Amöben. Einige sind ja schon recht weit auf diesem Weg…

Internet of Things. Super, dass jetzt nicht nur mein Computer und mein Handy, sondern auch Lampen, Stereoanlagen, Heizungen, Blumenvasen und Bilderrahmen tägliche Securityupdates brauchen – und trotzdem gehackt werden. Das steigert so richtig die Lebensqualität.

Selbstfahrende Autos. Woher kommt diese Scheiß Idee eigentlich plötzlich? Ich habe in den letzten Jahren eigentlich niemanden gehört, der der Meinung ist, das größte Problem an Autos sei, dass man sie selber fahren muss. Eher so Umwelt, Platzverbrauch, Lärm, Zersiedlung der Landschaft, Ressourcen und ähnliche Dinge.
Eigentlich kann es doch nur darum gehen, so langsam wieder von den Autos wegzukommen und die restlichen mit erneuerbaren Energien anzutreiben.

Mobile Payment. Wenn mir das Handy geklaut wird, ist also nicht nur mein Telefon weg, meine Kontaktdaten, mein Kalender, meine Fotos, meine Social Media Zugänge kompromittiert, sondern auch noch das Geld, was ich auf dem Konto habe. Im Alltag bleibt das Standardproblem jeder bargeldlosen Finanztransaktion: die völlige Nachverfolgbarkeit jeder kleinen Zahlung. Ist ja ‘ne Super Idee – ich bleibe bei Bargeld.

Künstliche Intelligenz. Seien wir doch mal ehrlich: Das werden alles absolut unerträgliche digitale Klugscheißer werden, die uns das Leben auf jede erdenkliche Art zur Hölle machen. Ist ja selten genug, dass man überhaupt mal natürliche Intelligenz endeckt.

 

Ich habe das Gefühl, dass diese dämlichen und ausgelutschten Ideen alle paar Jahre wieder rausgeholt werden, um zu prüfen, ob das Volk jetzt endlich verblödet und degeneriert genug ist um vollständig entmündigt zu werden. In anderen Gegenden der Welt wird dafür Religion verwendet und bei uns läuft es halt so.

 

Sommerfest auf Schloss Wiepersdorf

Nach der glühenden Hitze der letzten Tage war es am Sonntag mit 24 Grad geradezu erfrischend. Ideale Voraussetzungen für eine schöne Landpartie. Also ab ins Auto, das Dach geöffnet und entspannt zum Schloss Wiepersdorf (ca. 80Km südlich von Berlin in der Nähe von Jüterbog) gefahren. Dort fand das jährliche Sommerfest statt.

Auf dem Sommerfest präsentieren die Stipendiaten in den Ateliers des Künstlerhauses ihre Arbeiten. Es gab Lesungen und Livemusik auf der Schlossterasse und sehr unterschiedliche Kunstwerke von koreanischen, finnischen und natürlich deutschen Künstlern in den Ateliers zu sehen.

Für das leibliche Wohl war ebenfalls gesorgt wie für interessante Gespräche mit Künstlern und Bekannten. So ging der wunderschöne Nachmittag auch schnell zu Ende. Aufgrund des EM-Fußballspiels waren die Straßen nahezu leer und daher sogar die Rückfahrt nach Berlin extrem locker.

Ein wunderschöner Tag!

Hier noch ein paar Impressionen:

Wiepersdorf

Ortseingang Wiepersdorf

Schloss Wiepersdorf

Schloss Wiepersdorf

Orangerie

Orangerie

Ausstellung Im Künstlerhaus

Ausstellung Im Künstlerhaus

Welche Shopsoftware würdest Du jetzt nehmen?

Die Frage “Welche Shopsoftware würdest Du jetzt nehmen?” stellte mir Lars Jankowfsky bei seinem Vortrag “E-Commerce was wirklich zählt. Die Developer Edition” auf der code.talks eCommerce Konferenz. Zuvor hatte ich bereits erzählt, dass ich 2010 für die Shops der CBR eCommerce GmbH (siehe meine Referenzen) OXID Enterprise Edition ausgewählt hatte. Die wesentlichen Gründe waren damals, dass der Quellcode einsehbar war, die Verfügbarkeit von PHP Entwicklern und die bessere out-of-the-box Performance im Gegensatz zu Magento.

Seinerzeit ist das eine richtige Entscheidung gewesen. Aber was würde ich heute wählen?

Da kam ich ins schwimmen und sagte etwas lahm “Vielleicht eher Shopware”, aber die Antwort war nicht gut. Im Gegensatz zu 2010 ist die verfügbare Technik heute deutlich breiter aufgestellt, wie ja gerade auf dieser Konferenz deutlich wurde. Ehrlicherweise hätte ich sagen sollen, dass ich das neu evaluieren müsste.

Die eCommerce Technik wird immer differenzierter

Interessanterweise schien selbst Alexander Graf, der mit Spryker einer der Hauptsponsoren des Events war, etwas überrascht gewesen zu sein, welch breiten Raum das Thema Microservices auf der Konferenz einnahm. In seinem Artikel “Microservices & Einradfahren” stellte er zunächst etwas verblüfft fest, dass es auch in der Welt der Techies so etwas wie Modetrends gibt, denen viele einfach hinterherlaufen. Er schrieb unter anderem:

“Zu meiner großen Enttäuschung muss ich nun feststellen, dass die Leute in der IT, bzw. Developer wie sie heute genannt werden, mit den gleichen Denkmustern arbeiten wie die Business Kasper [zu denen er sich selber zählt]. Es gibt eine extrem hohe Neigung Trends hinterherzulaufen und grundlegende technische Probleme nicht ausreichend bzw. nicht ehrlich genug zu analysieren.”

Für mich als Entwickler ist das natürlich überhaupt nichts Neues. Sehr viele Techies sind Diven mit aufgeblähtem Ego, die das Rad lieber zum 100. Mal neu erfinden – weil Ihr Rad natürlich viel viel schöner ist…

Der Rest des Artikels befasst sich damit, dass der Microservice-Ansatz gerade so ein angesagtes Ding ist, dass nicht ausreichend hinterfragt wird. Das Gefühl hatte ich allerdings nicht unbedingt. Für die vorgestellten Projekte gab es jede Menge gute Gründe, genau auf diese Architektur zu setzen – nur treffen die Gründe eben für die meisten “normalen” Shops bei weitem nicht zu.

Orientierung zwischen Standard-Cloud und Microservices

Doch wie findet man die passende Technik in dem scheinbaren Wirrwar aus Cloudanbietern, Self Hosting, Out-of-the-box Software, Frameworks, Microservices usw?

Das hängt natürlich vom konkreten Projekt ab. Zwei wesentliche Kriterien zur Einordnung von eCommerce Projekten wurden bei der Konferenz für mich deutlich: Das Umsatzvolumen und der Grad der Individualisierung des Geschäftes. Ich habe mal für mich selber aus diesen beiden Kriterien eine Entscheidungsmatrix mit neun Feldern aufgezogen.

Kriterium 1: Das Umsatzvolumen

Bei geringem Umsatzvolumen ist eine einfachere technische Architektur ausreichend, dafür ist hier die Preissensibilität hoch. Bei sehr großen Umsätzen kann und muss man größere Ressourcen in die technische Skalierung stecken, hat aber dafür auch einen größeren Investitionsspielraum.

Kriterium 2: Grad der Individualisierung

Wer ein überschaubares Sortiment mit (datentechnisch) einfachen Produkten anbietet, kommt bereits mit Standardtechnik sehr weit. Je mehr Besonderheiten gefordert sind, desto mehr Aufwand muss in die Anpassung gesteckt werden. Beispiele sind konfigurierbare Produkte, Regionallager und Multichannel. Besondere Geschäftsmodelle, wie z.B. Shoppingclubs, zeitlich begrenztes Angebot, Auktionen etc. lassen sich eigentlich nur noch mit Individualentwicklungen umsetzen.

Die Entscheidungsmatrix

Das Ergebnis meiner Überlegungen ist diese Matrix, deren neun Felder ich kurz erläutere.

Entscheidungsmatrix

Entscheidungsmatrix

  1. Bei wenig Umsatz und Traffic können für Standardprozesse mit einem einfachen Sortiment bereits einfache und günstige Cloudlösungen gut geeignet sein.
    Kandidaten wären hier ePages, Prestashop u.ä.
  2. Eine Anpassung an viele Besonderheiten kann bereits mit Standard Plugins für die üblichen Shopsysteme abgedeckt werden. Hier sollte aber ggf. bereits ein separates Hosting geplant werden, um in das System eingreifen zu können.
    Geeignete Kandidaten sind u.a. Shopware, Oxid, Magento.
  3. Eine weiterreichende Individualisierung lässt sich bei geringem Umsatz eigentlich nur über Standardsoftware mit individuell erstellten Plugins realisieren, wenn man den Kostenrahmen nicht sprengen will.
    Basistechnik entsprechend 2.
  4. Bei mittlerem Umsatz und Traffic sind für ein einfaches Sortiment und Standardprozesse leistungsfähige Cloudlösungen, wie Demandware gut geeignet.
  5. Bei mittlerer Komplexität und mittlerem Umsatz kann Standardsoftware (siehe 2.) mit Plugins und einem Full Page Cache eine solide Lösung sein.
  6. Bei mittlerem Umsatz und hoher Individualität ist eine Frameworkgestützte Individualentwicklung sicherlich nicht die schlechteste Wahl. Kandidaten wären hier Commercetools, Ongr. oder sogar Spryker, falls der Kostenrahmen das hergibt. Falls es zum Geschätsmodell passt sollte man auch NewStore auf die Shortlist nehmen.
  7. Standardanforderungen bei hohen Umsätzen kann man m.E. mit gut skalierbaren Systemen, wie Intershop oder Hybris in sorgfältig gebauten Systemsetups erfüllen
  8. Mittlere Komplexität bei hohen Umsätzen könnte mit leistungsfähiger Standardsoftware und einem individuellem Hochlastfrontend abbildbar sein, oder man greift gleich zu einer kompletten, frameworkgestützten Eigenentwicklung
  9. Und schließlich die Königsklasse: Hoher Umsatz, hohe Komplexität. Hier kommt man nicht mehr um eine Eigenentwicklung mit optimiertem Setup herum. Das ist genau das Feld, in sich dem Otto, Metro und Zalando tummeln (um jetzt mal nicht die rosa Elefanten Amazon und Alibaba zu nennen). Für diese Gewichtsklasse sind Microservice Architekturen sinnvoll. Für alle anderen Felder wären technische Komplexität und Kosten aber einfach zu hoch.

Mal kann jetzt natürlich zurecht fragen “was heißt denn klein, mittel und groß; Standard und komplex?” Wo sind die Grenzen zwischen den aufgemalten Feldern? Zugegebenermaßen sind die Grenzen da fließend und man kann trefflich diskutieren. Trotzdem denke ich, dass man hier erst mal eine Idee und erste Struktur bekommt.

Aber um auf die Eingangsfrage von Lars zurückzukommen:

Heutzutage würde ich für das Projekt von 2010 vermutlich den Ansatz einer Standardsoftware mit vorgeschaltetem individuellem Hochlastfrontend wählen. So kann man schnell starten, das Geschäft gut hochskalieren und gleichzeitig individuelle Features umsetzen.

 

Die IT im eCommerce

Neulich bei der Diskussion über eCommerce Technologie. Hin- und hergerissen zwischem dem Ehrgeiz der Entwickler stets die coole neue Technik einzusetzen und dem Wunsch des Kunden, bewährte, solide und günstige Technik einzusetzen.

Dabei kam mir das folgende Gleichnis in den Sinn:

“Die IT für eCommerce sitzt im Elfenbeinturm – allerdings unten im Maschinenraum.”

code.talks eCommerce Berlin 2016

Am 19. und 20. April fand in der Kulturbrauerei in Berlin Prenzlauer Berg die Konferenz code.talks commerce special statt. Die Veranstaltung richtete sich hauptsächlich an Entwickler im Bereich Online-Shops. Die zwei Tage voller interessanter Vorträge und Unterhaltungen fasse ich für mich mal so zusammen:

Zwischen Techno-Konservativismus und Zerschlagung von Monolithen

Die Eröffnungrede wurde von Alexander Graf (Spryker) und Lars Jankowfsky (Gründer von Oxid und .NFQ) gehalten und sollte einleitend die Frage klären, weshalb eine separate Entwicklerkonferenz überhaupt nötig sei.

Kulturbrauerei Prenzlauer Berg

Kulturbrauerei Prenzlauer Berg

Interessantes Kinoprogramm

Interessantes Kinoprogramm

Lars Jankowfsky provozierte mit Aussagen, wie “E-Commerce is basically incredible boring” und “You still could build the most online shops with the systems of 2003”.

Alexander Graf konterte mit Beispielen der letzten 10 Jahre abseits des Mainstreams, wie Shopping Clubs und One Article per Day Stores und sagte dass er in den letzten 10 Jahren noch nie die Aussage gehört hat “Das mit der Technik lief ja so klasse – lass uns das gleich nochmal bei dem nächsten Projekt verwenden”.

Diese Positionen wurden von den beiden in späteren Vorträgen weiter vertieft. Alexander Graf erläuterte unter dem Titel “E-Commerce Companies = Tech Companies. Why is that?” erneut seine Sicht auf die Entwicklung verschiedener eCommerce Segemente und die Notwendigkeit technisch flexibel auf rasch veränderte Marktanforderungen reagieren können. Hierfür sei das Spryker Framework wesentlich besser geeignet, als monolitische Shopsysteme.

Zuvor hatte Lars Jankowfsky bereits mit seinem Vortrag “E-Commerce was wirklich zählt. Die Developer Edition” den Entwicklern den Kopf gewaschen. Er zählte verschiedene Shopsysteme auf und ergänzte stets mit entsprechender Attitude “laaangweilig!”.

Entwickler seien schnell gelangweilt und tendieren dazu, neue, vermeintlich “coole” Technik einsetzen zu wollen. Technik sei aber nun mal kein Selbstzweck, sondern dazu da die Anforderungen des Kunden bestmöglich zu unterstützen. Es folgte eine Liste mit Themen und Techniken, die Developer in den letzten 10 Jahren lernen mussten und die teilweise schon wieder überholt seien.

Welche Ressourcenverschwendung. Insofern sieht er den Einsatz von Programmiersprachen jenseits der beiden marktbeherrschenden Schwergewichte Java und PHP skeptisch, weil das Staffing von Teams so nur noch schwieriger wird, als es ohnehin bereits ist.

Er widersprach auch der weitverbreiteten Ansicht, die besten Entwickler seien diejenigen, die stets mit den neuesten Tools am Start sind. Eine Einschätzung, die von mehreren Zuhörern bestätigt wurde.

Letztlich sind Jankowfskys Plädoyer für Techno-Konservativismus und Grafs Baukastenansatz aber kein Widerspruch, weil beide vom Endkunden her gedacht sind.

Am Ende des Tages ist entscheidend, welcher Umsatz mit wieviel finanziellen Ressourcen erzielt werden kann.

Auch wenn Jankowsky mit der Aussage, Onlineshops seien im Prinzip noch immer wie vor 15 Jahren (Landing Page, Kategorieseite, Produktseite, Basket und Checkout) in gewisser Weise recht hat, so haben sich doch Anforderungen und Komplexität der kompletten Systemlandschaft erheblich erhöht und diese Entwicklung hält an. Wie u.a. das ONGR Frontend Framework zeigt, ist ihm das auch seit langem bewusst.

Es gab mehrere hockarätig besetzte Panel Diskussionen. Zum Beispiel nahmen an der Diskussion über Shopsysteme neben Lars Jankowfsky Yoav Kutner (Oro Inc., zuvor Magento Inc.), Ulrike Müller (NewStore, zuvor Demandware und Intershop), Fabian Wesner (Spryker Systems GmbH), Moritz Zimmermann (hybris/SAP CEC) und Ben Marks (Magento Inc.) teil.

In den Panel Diskussionen “shop systems” und “SaaS vs. Paas vs. Self-hosted” wurde – nicht ganz überraschend – deutlich, dass es keine One-Size-Fits-All eCommerce Lösung geben kann. Die Tendenz mit zunehmender Umsatzgröße und Individualität neigen Firmen dazu, größere Teile der technischen Basis selber zu betreuen. Gleichzeitig lösen sie sich zunehmend von monolithischen Systemen.

Paneldiskussion Shopsysteme

Paneldiskussion Shopsysteme

Weg von Monolithen

Die Auflösung monolithische Shopsysteme scheint sich als Trend bei größeren Shops durchzusetzen. Vor zwei Jahren wurde noch viel darüber geredet, im letzten Jahr wurden einige Projekte in dieser Richtung gestartet und nun liegen auch die ersten Erfahrungsberichte vor. Gleich zwei parallel stattfindende Vorträge am ersten Tag und zwei weitere am zweiten Tag hatten Microservices zum Thema.

Ich entschied mich für “Von Monolithen und Microservices” den  Guido Steinacker von Otto hielt. Zu Beginn erläuterte er weshalb vor zwei Jahren die Entscheidung für eine völlig neue Systemarchitektur fiel. Einerseits war das bestehende System mit 200 Servern nicht weiter skalierbar und die komplexität der Applikation war so hoch, dass sowohl Releases, als auch Datenupdates zu langsam wurden.

Durch die Einführung von Microservices hat sich zunächst die Entwicklung selbst geändert. Anstatt einem Entwicklerteam mit 50 Mitarbeitern gibt es nun 10 Teams mit 5 Mitarbeitern. Die Features können nun schneller entwickelt und deployt werden. Die Responsibibility der Teams für “ihren” Service ist spürbar gestiegen und neue Mitarbeiter sind wesentlich schneller produktiv.

Eine Herausforderung war es, die Stellen zu identifizieren, an denen der Monolith aufgeteilt wurde. Die Veränderung der Systemarchitektur ist laut Steinacker ein laufender Prozess, bei dem gefundene Lösungen bei Bedarf re-evaluiert und neu zugeschnitten werden. Die Microservices sollten nicht zu groß werden, fachlich separiert und logisch abgeschlossene Einheiten nach dem shared-nothing-Prinzip sein.

Der Vortrag war wirklich sehr gut und so detailliert, dass man alleine hierzu einen längeren Artikel schreiben sollte. Da Josef Willkommer von Techdivision das bereits getan haben, verweise ich einfach mal auf seinen Blogbeitrag “Zusammenfassung der Code.Talks commerce special 2016 – Tag 1“.
Nachtrag: Ich bin eben über den Beitrag “Why Microservices?” von Guido Steinacker auf dem Development Blog von Otto gestossen. Dort kann man nicht nur das “Warum”, sondern auch das “Wie” nachlesen. Absolut empfehlenswerte Lektüre.

In einer Gespräch am Abend habe ich die Meinung gehört, dass die Auflösung der monolitischen System ja bereits vor Jahren begonnen habe. Kaum ein Shop hat nicht mindestens Payment, Suche, Recommendations und Tracking an externe Systeme oder gar externe Dienstleister ausgelagert. Von daher sei die weitere Dekonstruktion der Shopsysteme nur logisch und konsequent.

Der Markt bleibt also weiterhin in Bewegung. Die momentanen Newcomer heben sich von den etablierten Anbietern zur Zeit vor allem durch den Framework Ansatz ab. Ein vielversprechendes System, dass ich mir in nächster Zeit näher ansehen werde, ist Sylius, das Paweł Jędrzejewski an Tag 2 vorstellte.

Sylius Vortrag - mit wirklich großem Beamer

Sylius Vortrag – mit wirklich großem Beamer

Die zweitägige Konferenz kann ich nur als gelungen bezeichnen. Gute Vorträge (ich habe noch etliche weitere gehört, aber der Artikel wird sonst einfach zu lang) und anregende Diskussionen. Ich bin inspiriert nach Hause gegangen. Und das ist wörtlich zu nehmen, da ich nicht weit entfernt wohne. Noch ein Vorteil… :-)

Rügen – kurz und knapp

Bevor es zur Konferenz code.talks commerce geht, habe ich noch ein verlängertes Wochenende auf Rügen genossen. Diesmal nicht wie sonst in Sassnitz, sondern in Göhren. Ein echter Tipp, falls man das klassische Ostseebad-Ambiente mit Seebrücke, Strandpromenade und Kurmuschel mag, Binz aber zu überlaufen findet. Hier ist alles etwas kleiner, ruhiger, naturbelassener.

Blick auf Göhren in der Abenddämmerung

Blick auf Göhren in der Abenddämmerung

Wer nicht gut zu Fuß ist sei allerdings gewarnt, dass der Ort ca. 30m über dem Strand liegt. Daher auch der Name Göhren von Gora (slawisch für Berg). Man muss also rauf und runter. Dafür ist es der Endpunkt des Rasenden Roland – einer Schmalspurbahn, die regelmässig mit Dampflok und historischen Wagons zwischen Göhren und Putbus verkehrt.

Der Rasende Roland im Bahnhof Göhren

Der Rasende Roland im Bahnhof Göhren

Ein gemütlicher Spaziergang vom Nordstrand mit Kurpromenade zum Kap Nordperd – das anders als es der Name vermuten lässt der östlichste Zipfel von Rügen ist – und weiter zum naturbelassenen Südstrand sorgt für malerische Ausblicke, auch wenn es nicht die berühmten Kreidefelsen sind.

Der Weg zum Nordperd

Der Weg zum Nordperd

Blick von der Klippe nach Norden

Blick von der Klippe nach Norden

In Putbus habe ich mir die charmante und eigenwillige Ausstellung von Gunilla Jähnichen in der Galerie Susanne Burmester angeschaut, ein sehr leckeres Stück Torte im Cafe am Rosengarten verspeist, während ich auf das Ende des heftigen Regens wartete und anschliessend einen kurzen Spaziergang durch die Parkanlagen gemacht.

Parkanlage in Putbus

Parkanlage in Putbus

Putbus - Markt

Putbus – Markt

Weniger Kultur, dafür umso mehr Natur bot ein weiterer Ausflug nach Klein-Zicker, dem südlichsten Zipfel Rügens, von wo aus man in jede Richtung eine interessante Abfolge von Land und Meer sehen kann. Während es dort sehr windig zuging und die Kitesurfer ihre Freude hatten, lag der tolle Strand von Thiessow im Windschatten. So konnte ich trotz lediglich 12 Grad Lufttemperatur ein Stunde im T-Shirt in der Sonne brutzeln.

Riesenstrand (fast) nur für mich

Riesenstrand (fast) nur für mich

Insgesamt ein frisches, windiges, schönes, erholsames Wochenende auf einer der schönsten Inseln, die ich kenne. Auf dem Rückweg habe ich mich dann noch ordentlich mit Sanddornlikör und leckerem Bier aus der Inselbrauerei eingedeckt. Zum Abschied hier noch ein schönes Sonnenuntergangsbild.

Sonnenuntergang auf Rügen

Sonnenuntergang auf Rügen

« Previous PageNext Page »