tiny little gizmos

1000. Jubiläum!

Zum Abschluss des ersten warmen und schönen Wochenende des Jahres möchte ich ein (für mich) bemerkenswertes Jubiläum verkünden:

Dies ist der 1000. Artikel in meinem Blog.
(Wie Kermit sagen würde: „Applaus, Applaus, Applaus!“)

Als ich mit dem Bloggen angefangen hatte, dachte ich, dass ich das drei oder vier Monate lang machen würde. Mein Plan war, begleitend zu meiner Diplomarbeit immer mal wieder den aktuellen Zwischenstand öffentlich zu verkünden (siehe meinen ersten Eintrag „Jetzt geht’s loooos… vom 16. Juli 2006″. Der Subtitel des Blogs ist „tiny little gizmos“, weil mein Diplomthema seinerzeit „Mobile Virtual Communities“ waren. Ich vermutete, mich daher viel mit mobilen Endgeräten auseinandersetzen zu müssen. Das war noch vor der Einführung des ersten iPhone und Facebook war in Europa noch kein Thema.

Mein Plan ging nicht auf.

In die Diplomarbeit habe ich soviel Zeit und Energie investiert, dass kaum etwas davon für den Blog übrigblieb. Andererseits habe ich anschließend Gefallen daran gefunden, mich immer mal wieder über das eine oder andere Thema, das mich gerade beschäftigte, zu schreiben.

Für eine Weile wird das sicher auch noch so bleiben.

Die Lehren aus den Unfällen von Tesla und Uber

Vor kurzem machten die beiden tödlichen Unfälle von „autonomen Autos“ Schlagzeilen: Der Volvo SUV von Uber überfuhr eine Radfahrerin ohne zu bremsen und der Tesla fuhr ebenfalls ungebremst in eine Absperrung, wobei der „Fahrer“ verstarb.

Ich mache keinen Hehl daraus, dass ich (teil-)autonom fahrende Autos für ziemlichen Schwachsinn halte, der nur von den Hauptproblemen mit Autos ablenkt (Flächenverbrauch, Energie- und Ressourcenverbrauch). Aber ich versuche mich davon im Folgenden so wenig wie möglich ablenken zu lassen und sachlich und nüchtern abzuwägen.

Bereits als die Euphorie um autonome Fahrzeuge vor zwei oder drei Jahren richtig Schwung bekam, habe ich gesagt, dass ich nur zwei Arten von Fahrzeugen für akzeptabel halte:

  1. Der Fahrer hat jederzeit die volle Kontrolle über das Fahrzeug. Er darf die Kontrolle auch nicht an Teilsysteme abgeben. Das war bis vor kurzem weltweit geltendes Recht aufgrund des Wiener Übereinkommen über den Straßenverkehr aus dem Jahr 1968.
  2. Es gibt keinen Fahrer mehr, weil das Fahrzeug in jeder Situation 100% Autonom agiert. Man ist Passagier wie in einem Bus oder Taxi ohne die Möglichkeit, in die Steuerung einzugreifen.

Jede Mischform dazwischen ist in extrem gefährlich. Wenn das Auto dem Fahrer die Routine abnimmt, ist es sehr wahrscheinlich, dass er genau in dem Moment, in dem die Technik nicht weiter weiß, abgelenkt ist und die Verkehrssituation nicht in Blick hat. Die Reaktionszeit des Menschen, um sich zu orientieren, die Situation zu verstehen und wieder die Kontrolle über das Fahrzeug zu übernehmen ist unakzeptabel hoch und ein Unfall sehr wahrscheinlich. Die beiden o.g. Unfälle hatten genau dieses Szenario.

Ärgerlich ist, dass das voraussehbar war, weil das Aufmerksamkeitsproblem keine neue Erkenntnis ist, wie ein Blick in Eisenbahnverkehr und Luftfahrt zeigt. Elekrische Lokomotiven haben bereits seit den 30er Jahren Totmannschalter bzw. heutzutage eine Sicherheitsfahrschaltung. Piloten in Verkehrsflugzeugen müssen auch während der Normalfluges per Autopilot ständig kleinere Aufgaben durchführen. Technisch sind die seit langem nicht mehr notwendig, sondern dienen hauptsächlich dazu, dass die Crew konzentriert bleibt. Und wir reden hier von Profis mit Spezialausbildung, Typzulassung und regelmäßigen Gesundheitschecks und Simulatortraining.

Diese Erkenntnis wird ausgerechnet bei Autos völlig ignoriert. Dazu kommt die aus der US-amerikanischen Mentalität erwachsene Hybris, übereilt unfertige Dinge auf die Menschheit loszulassen. In diesem Fall halte ich die ebenso typisch deutsche Behäbigkeit gegenüber Neuerungen, die mich so manches Mal auf die Palme bringt, für angemessener.

Ich denke, dass das Wiener Übereinkommen wieder uneingeschränkt gelten sollte.

Teilautonomes Fahren sollte aus Sicherheitsgründen wieder verboten werden.

Wenn dann in (m.E. etwas fernerer) Zukunft die Systeme so gut sind, dass sie wirklich völlig selbstständig fahren, reicht es den juristischen Begriff des Fahrers zu erweitern.

 

 

eCommerce Camp Jena 2018

Am 23. und 24. März fand in Jena das mittlerweile sechste eCommerce Camp statt. Auch bei meinem dritten Besuch, verlief die Veranstaltung im gewohnten Rahmen: Am Vorabend trafen sich viele der Teilnehmer nach der Anreise zum Plausch bei Bier und deftigem Thüringischen Essen in der Gaststätte zur Nöll in der Altstadt. Die eigentliche Veranstaltung fand am Freitag und Samstag Vormittag in der Ernst-Abbe Hochschule in Form einer Unconferenz statt.

Jena - Zeiss neben der Ernst Abbe Hochschule

Jena – Zeiss neben der Ernst Abbe Hochschule

Nach einem gemeinsamen Frühstück bildete sich die Schlange mit den Teilnehmern, die einen Vortrag oder einen Workshop vorbereitet hatten. Einer nach dem anderen trat auf die Bühne und stellte dem Saal sein Thema vor.

Die Einreichungen wurden thematisch sortiert und auf die Slots verteilt. Am Ende stand ein voller und interessanter Vortragsplan.

Unconference Programm

Unconference Programm

„Da muss der alte Mann jetzt mal selbst ran“

Im Vorjahr hatte mich der Mitveranstalter gefragt, ob ich nicht auch mal ein Thema vorbereiten möchte. In diesem Jahr nahm ich die Arbeit auf mich und habe einen Vortrag vorbereitet. Er ist betitelt „No KISS – we’re doing it wrong“ und handelt von Trends in der Softwareentwicklung, die ich für problematisch oder gar falsch halte.

Die Kernthese lautet, dass sich viele Trends etablieren, die Software sehr aufblähen, langsam und angreifbar machen und entgegen der Intention auch nicht für bessere Wartbarkeit und Wiederverwendbarkeit sorgen. Als Beispiele nannte ich u.a. fette Frameworks, unbedachter Einsatz von Libraries, Annotations, ORM, Metasprachen und zu viele Basistechnologien im Setup.

Da ich noch nie bei solch einer Veranstaltung vorne stand, war ich auch etwas nervös. Werde ich einen Hänger haben? Interessiert das Thema überhaupt jemanden? Da mein Vortrag etwas gegen den Entwickler-Mainstream gebürstet war war ich auch gespannt, ob meine Thesen in der Luft zerrissen würden. Zudem hatte ich kaum Zeit, mich seelisch vorzubereiten, weil ich gleich in den ersten Slot nach der Einführungsveranstaltung dran war.

Es stellte sich heraus, das meine Bedenken unbegründet waren. Mein Vortrag war flüssig, es waren ca. 20 Zuhörer im Raum, was für diese Veranstaltung gar nicht mal so wenig ist. Zum Ende des Vortrags kam es nochzu einer kurzen Diskussion über den einen oder anderen Punkt, aber alles in allem erntete ich viel Zuspruch, wie sich auch noch in einigen Gesprächen im Tagesverlauf zeigte.

Ein Teilnehmer meinte, dass er ähnliches in letzter Zeit häufiger gehört habe und die Kritik meist von älteren Entwicklern kämen und ob das Zufall sei. Meiner Meinung nach ist das kein Zufall, sondern es hängt damit zusammen, dass wir älteren Entwickler früher an Maschinen entwickelt habe, die sehr beschränke Ressourcen hatten. Der Rechner war immer zu langsam, hatte stets zu wenig Speicher und die Übertragungsgeschwindigkeit war immer langsam. Daher sind wir es gewohnt, auf Ressourcenverbrauch zu achten. Heutzutage spürt man zunächst keine Ressourcenknappheit. Daher ist es sehr einfach, eine Anwendung aus vorgefertigten Elementen „schnell zusammenzustöpseln“. Dass man ein Problem hat, merkt man erst, wenn unerwartet viel Traffic auf den Server einprasselt, aber dann liegt das Kind bereits im Brunnen.

Gutes Programm, spannende Gespräche

Das gute daran, den ersten Slot zu bekommen ist, dass man sich danach entspannt auf die Vorträge der anderen konzentrieren kann. Für mich aktuell einer der wertvollsten Vorträge war „MySQL Profiling“, den Andreas Ziethen von Scale hielt. Sein Vortrag setzte genau dort an, wo mein Wissen aufhörte. Nach einer Einführung in das Tool zur Auswertung von Datenbank Logfiles wurden einige Auswertungen von echten, aktuellen Problemfällen zusammen mit den Hörern vorgenommen – sozusagen Gruppendebugging.

Kontrovers diskutiert wurden die Vorschläge für eine neue Shoparchitektur, die Marcus Franke und Richard Burkhardt in der Session „E-Commerce Performance neu gedacht! Proof of Concept: Schnelle Webshops ohne Caching“. Der Wunsch, das Caching aus den Shops zu entfernen ist groß und Vorschläge dazu sehr willkommen, wie sich an recht vielen Hörern im Saal zeigte. Der präsentierte Prototyp, der eine Kategorieseite aus einem Datensatz von einer halben Million Artikeln in 0.4 Sekunden zeigte, basierte auf dem Konzept eines Application Servers, wie man ihn aus der Java Welt kennt. Aus dem Publikum kamen jedoch recht gewichtige Gegenargumente: Zweifel, ob PHP für lang laufende Prozesse stabil genug ist, hoher Ressourcenverbrauch und Fragen wie die Objektdaten  im Speicher aktuell gehalten werden. Nach meiner Ansicht das stichhaltigste Argument war, dass der Showcase deshalb so schnell sei, weil alles, was einen echten Shop ausbremst (Framework, ungenutzte Features, Konfigurationsmöglichkeiten,…) nicht implementiert ist. Wenn man dasselbe mit plain PHP baut, kommt man vermutlich auf ähnlich schnelle Zeiten.
Zwar ist es nicht schön, wenn einem die eigene Arbeit so zerpflückt wird, aber die Argumente waren plausibel und der Ton kollegial. Ich finde es auf jeden Fall sehr gut, dass die beiden sich nicht nur Gedanken gemacht haben, sondern auch noch viel Zeit in einen Showcase investiert und das Ergebnis zur Debatte gestellt haben.

 

Ein Herz für Nerds

Ein Herz für Nerds

Das abendliche Unterhaltungsprogramm im Paradies Cafe habe ich in diesem Jahr nicht so ausgekostet, wie 2017. Ich war nicht so richtig in Feierlaune und mir schienen auch die anderen Konferenzteilnehmer in diesem Jahre etwas zurückhaltender. Das war aber nicht unbedingt von Nachteil, weil es der Konzentration am Samstag Vormittag zu Gute kam.

Simon Pearce von SysEleven zeigte, wie man mit Hilfe von Kubernetes und einigen einfachen Konfigurationsdateien in wenigen Minuten ein MySQL Datenbankcluster mit einem Master und drei Slave Nodes bauen kann. Bereits am Vortag hatte er demonstriert, wie ein Setup aus NGINX Webservers so aufgesetzt werden kann, dass bei Bedarf automatisch weitere Serverinstanzen gestartet und bei abnehmender Last wieder gestoppt werden können.

Kurz vor bevor ich zurück nach Berlin fahren wollte, bekam ich in einem sehr interessanten Gespräch nebenbei eine Vorführung eines begeisterten Shopbetreibers in Echtzeitprofiling seines Shops mit Tideways und eine Diskussion über den Umgang mit der Datenschutzgrundverordnung. Zu meiner Verblüffung erfuhr ich von einem mir bekannten Shop, der mittlerweile völlig auf die Speicherung von personenbezogenen Daten verzichtet. Das Shopsystem selber ist „clean“, so wie ich es von Bankenanwendungen kenne. Ich bin gespannt, ob sich so etwas rumspricht und durchsetzt.

Fazit

Dieses spontane Gespräch am Rand zeigt auf, was diese Veranstaltung in meinen Augen so wertvoll macht: Der spontane, offene und ehrliche Austausch über Probleme und Lösungen. Ich hoffe sehr, dass diese Veranstaltung auch in den nächsten Jahren fortgeführt wird.

 

 

eCommerce ist Scheisse

Ich verdiene mein Geld seit 20 Jahren im Bereich eCommerce. Hauptsächlich dadurch, dass ich Onlineshops entwickele. Und jetzt kommt der Witz:

Ich kaufe selber fast nie online ein. Ich hasse es.

Dafür gibt es Gründe:

Einerseits die unfassbare Datenschnüffelei durch das Onlinemarketing und die totale Nachverfolgbarkeit meiner Interessen und Geldflüsse. Gut – damit oute ich mich als Dinosaurier aus dem letzten Jahrhundert, der noch an das Konzept von Privatsphäre glaubt. Ich verwirrter alter Mann. Aber lassen wir den Punkt einfach mal außen vor.

Das wirklich Killerkriterium gegen Onlineshopping ist für mich, dass es zu umständlich, nervenaufreibend und zeitfressend ist.

Nanu?

Soll nicht gerade der Vorteil von Onlineshopping sein, dass es so fürchterlich spontan, praktisch und zeitsparend ist?

Was die Shops selbst betrifft, stimmt das mittlerweile auch. Es haben sich bestimmte Standards durchgesetzt und die Benutzbarkeit ist in der Regel recht gut.

Das Problem ist die Logistik. Ich kann mir nichts nach Hause bestellen, weil ich in der Regel nicht zu Hause bin, wenn der Paketdienst kommt. Das bedeutet, dass ich mir Dinge ins Büro liefern lassen muss, was in den meisten Firmen aus gutem Grund nicht gerne gesehen wird.

Oder ich muss mir die Lieferung aus den verwegensten Teilen der Stadt zusammensuchen, weil irgendwo ein obskures Geschäft so freundlich war, die Lieferung anzunehmen. Leider haben diese Geschäfte meist recht eigenwillige Öffnungszeiten. Jetzt habe ich dasselbe Problem: Dieser Laden hat vermutlich nur dann geöffnet, wenn ich im Büro sitze.

Wenn ich Mittags ausnahmsweise mal in die DHL Filliale im nächsten Shopping Center gehe, steht da schon eine 50m lange Schlange von Frauen, die ihre Zalando Retouren abgeben wollen.

Im Moment kommt für mich der Online-Einkauf nur in folgenden Fällen in Frage:

  • Digitale Einkäufe. Auswählen, bezahlen, runterladen, fertig.
  • Flugtickets direkt bei der Airline
  • Spezialprodukte, die in der eigenen Gegend nicht zu haben sind.

Ein komplettes No-Go hingegen in folgenden Fällen:

  • Kleidung, Schuhe und andere Dinge, die ich mit hoher Wahrscheinlichkeit noch mal umtauschen muss.
  • Waren des täglichen Bedarf, die ich überall auf dem Heimweg bekomme – insbesondere Essen.
  • Komplette Reisen. Unfassbar schlechte Websites, totales Chaos bei Sortiment und Preisen.

Bevor ich es vergesse – bei den Reiseportalen kommt noch der Nagativpunkt „heftige Verarsche“ hinzu. Beispiele:

  • Ich sehe das selbe Hotel bei drei verschiedenen Anbietern für drei verschiedene Preise. Dann kehre ich zum ersten Anbieter zurück und der Preis ist um 100,- gestiegen – in zwei Minuten. Wie bitte?
  • Ich möchte mit einer Freundin verreisen. Sie surft bei sich zuhause auf ihrem Mac durch die Angebote, ich bei mir zu Hause auch und wir chatten derweil. Sie findet ein gutes Angebot, und schickt mir den Link und ich bekomme einen anderen Text und einen anderen Preis angezeigt. Ach so…?
  • Ich gebe im Filter genau an, in welchem Zeitraum die Reise liegen darf (7 Tage in der Zeitspanne von X bis y). Als Ergebnis eine Liste von 100 Angeboten,die zu 2/3 außerhalb dieses Zeitraums liegen. Hallo Mc Fly – irgendjemand zu Hause?
  • Ich finde ein passendes Angebot und will es buchen – plötzlich heißt es „Wir können nicht garantieren, dass das Angebot zum Angegebenen Zeitpunkt für den genannten Preis verfügbar ist. Zur verbindlichen Reservierung hier klicken“. Euch habe Sie doch wohl ins Gehirn…

Das letzte Mal habe ich 2011 versucht eine Reise online zu buchen und dabei sind mir alle o.g. Dinge passiert. Insgesamt habe ich zwei Abende ergebnislos am Rechner verbracht. Danach hatte ich die Nase voll und die Reise war in 30 min im Reisebüro gebucht. Sie war nicht teuer, das Hotel in Ordnung, die Lage super. Klasse Urlaub. Seitdem buche ich nur noch im Reisebüro.

Ein Buch zur digitalen Frühantike und ihrer ersten Hochkultur

Vor ein paar Wochen bin ich 50 geworden und habe ein Buch geschenkt bekommen: „The friendly orange glow“ von Brian Dear mit dem Untertitel „The untold story of the PLATO System and the dawn of cyberculture“. Es thematisiert PLATO – ein Computersystem von früher. Nach Maßstäben der Computerhistorie sogar von noch früher. Quasi von der digitalen Frühantike.

The friendly orange glow

The friendly orange glow

Was hatte es mit dem PLATO System auf sich?

Dazu kurz ein Rückblick auf meine Jugend.

Für mich fing die Digitalisierung der Gesellschaft ungefähr 1980 an. Damals hatte in der Bevölkerung fast niemand etwas mit Computern zu tun gehabt und plötzlich gab es überall Homecomputer und kurze Zeit später Personal Computer zu kaufen. Ich habe mich Hals über Kopf in das Thema gestürzt, bin um 1990 das erste Mal Online gegangen und habe noch vor dem Internet in den Mailboxen (oder BBS) Foren, Chats, E-Mail und Online Spiele kennengelernt. Damit habe ich mich lange zu den Online Pionieren gezählt.

Damit lag ich allerdings ganz schön falsch!

Zunächst fand ich heraus, dass das erste BBS bereits 1978 von Ward Christensen entwickelt und in Betrieb genommen wurde. Etwas später habe ich gelernt, dass das Internet nicht etwas mit dem World Wide Web 1991 begann, sondern seine Wurzeln bis in die 1960er Jahre zurückreichen und dass der erste Computer mit grafischer Benutzeroberfläche nicht etwas die Apple Lisa von 1983 war, sondern der XEROX Alto von 1973.

Und dann bin ich über ein Bild von gestolpert, auf dem ein Terminal mit orangefarbenem Gas-Plasma Touch Display zu sehen war, auf dem eine einfache Art 3D Shooter zu sehen war. Und darunter stand „PLATO IV Terminal (ca. 1975)“.

Wie bitte? 1975?

Zu dem Zeitpunkt liefen viele Computer noch mit Lochkarten und wurden über Fernschreiber oder Textterminals bedient, und dann so etwas? Um das zu verdeutlichen: Hier ist ein Bild vom PLATO V Terminal, das sich nicht sehr vom VI unterscheidet:

PLATO V Terminal

PLATO V Terminal By Mtnman79 [1] [CC BY 3.0 (http://creativecommons.org/licenses/by/3.0) or GFDL (http://www.gnu.org/copyleft/fdl.html)], via Wikimedia Commons

PLATO war ein Computersystem, das in den 60er Jahren an der Univerity of Illinois für die Lehre konzipiert war und tatsächlich bis Ende der 80er Jahre für Onlinekurse genutzt wurde. Es lief auf den seinerzeit schnellsten Computern der Welt und ging stets an die Grenzen des damals technisch machbaren.

Über das Buch

Das Buch beschäftigt sich aber nicht so sehr mit der Technik, sondern mit den Menschen dahinter. Es stellt und beantwortet die folgenden Fragen:

Was hat sie zur Entwicklung dieses brillianten Meilensteins der Computergeschichte motiviert und wie sind sie vorgegangen?

Wieso wollte man computerunterstützte Lehre fördern, zu einer Zeit als selbst Taschenrechner noch Science Fiction waren?

Wie konnte es geschehen, dass minderjährige Hacker die millionenteure Technik nutzen konnten, um Multiuser-Onlinespiele zu programmieren und zu spielen?

Wieso hat niemand erkannt, dass auf diesem System die Zukunft der Online Zusammenarbeit mit Chats, Mails und Foren entwickelt wurde?

Was führte nach dem technischen Höhenflug zu dem unrühmlichen Niedergang ab Mitte der 80er Jahre?

Ich habe das Buch mit Vergnügen gelesen und mir dabei Zeit gelassen. Ich habe viel gelernt – insbesondere, dass es auch schon vor über 40 Jahren „Digital Natives“ gab, die sich die digitalen Werkzeuge angeeignet und abseits vom eigentlichen Einsatzzweck eigene Nutzungen und Umgangsformen entwickelt haben.

Absolut lesenswert!

Meine Musik aus 2017

Neulich haben wir in der Firma festgestellt, dass erstaunlich viele von uns musizieren. Ein Kollege spielt in einer Punkband, eine Kollegin spielt Ukulele, eine andere erzählte von ihrem Setup aus einem alten Synthesizer und eine Drummaschine. Mehrere Kollegen – einer davon ich – bauen ab und zu mal ein paar elektronische Tracks.

Immer war die Frage „…und wo kann man Deine Sachen hören?„.

Ich habe bisher einigen Freunden eine CD gebrannt oder einen USB-Stick kopiert. Nach einigen Überlegen habe ich mich nun dafür entschieden, meine Musik auf meiner eigenen Website zu veröffentlichen. Das mache ich in der traditionellen Form von „Alben“. Mein Rechner ist voll von musikalischen Fragmenten und Versatzstücken. Immer wenn eines dieser Teile die Form eines Songs annimmt, den ich auch mehrfach hintereinander hören mag, kommt der zum nächsten Album. Ich bilde mir ein, dass die Lieder von Album zu Album etwas besser werden, aber das muss jeder Hörer für sich entscheiden. Vier Alben gibt es bis jetzt:

Raw Fragments – 10 Stücke von 2009/2010. Meine ersten Gehversuche. Ich hatte nicht das Gefühl, dass es sich um „richtige Lieder“ handelt, sondern eher um kurze Soundschnipsel, daher der Name.

Furthermore – 5 Stücke von 2011/2012, die sich stilistisch an die ersten anlehnen, also immer noch eher experimentell sind.

Red Green – 11 Stücke aus dem Jahr 2016. Hier hatte ich das erste mal das Gefühl „richtige“ Lieder produziert zu haben.

Four Seventeen – 10 Stücke aus dem Jahr 2017. Hört sie Euch doch einfach mal an:

Sounds good – IMSTA FESTA Berlin 2017

Am gestrigen Samstag besuchte ich das IMSTA FESTA Berlin 2017, das in den Räumen der SAE in Berlin Kreuzberg stattfand.

Hmm, „Bahnhof“?

Es drehte sich alles um Musikproduktion.

IMSTA Festa Berlin

IMSTA Festa Berlin

Das SAE Institute ist eine private Bildungseinrichtung, die seit 40 Jahren in vielen Ländern Kurse rund um Musik- und Medienproduktion anbietet. IMSTA ist die International Music Software Trade Association. Offensichtlich sind auch einige der Berliner Musiksoftwarehersteller dort Mitglied und so fand der Event nun auch in Berlin statt. Ich wusste nicht so genau, was mich erwartet, aber da man sich zwar registrieren musste, aber der Eintritt frei war machte ich mich auf den Weg nach Kreuzberg.

Zunächst wuselte ich wie die anderen Besucher durch die Räume der SAE und schaute mal hier und mal dort rein. Die Räumlichkeiten in dem ehemaligen Speicher in der Cuvrystr. auf zwei Geschossen sind noch neu. Alles ist modern. Interessant fand ich den Grundriss im Musikbereich im oberen Stockwerk. Dort gab es keine rechten Winkel und keine parallel laufenden Wände um Schallreflexionen zu minimieren. Es gab kleine und mittlere Übungsräume, in denen Workshops und Vorführungen stattfanden und natürlich auch ein vollwertiges Tonstudio.

Danach habe ich die Showrooms der Hersteller abgeklappert.

Hard- und Software

Akai hatte seine aktuelle MPC Hardware am Start. Mit dieser Art Instrument werde ich aber irgendwie nicht warm. Mir liegt die Bedienung und Arbeitsweise nicht.

Arturia hatte auch etwas Hardware aufgebaut. Das kompakte Keylab49 Masterkeyboard hat ein schönes Design, ist recht leicht und ziemlich preiswert. Da ich aber stolzer und zufiedener Besitzer eines Keylab88 mit gewichteter „Klavier“ Tastatur bin, habe ich dafür keinen Bedarf. Nachdem ich etwas an dem winzigen Analogsynthesizer MicroBrute und etwas länger an dem ebenfalls analogen Drumcomputer DrumBrute herumgeschraubt hatte, vertiefte ich mich für längere Zeit in den Soundsphären des großen Analogsynthesizers MatrixBrute. Im Gegensatz zu den anderen Instrumenten hing der an Lautsprechern. Da mich in der Zeit fünf Leute angesprochen haben und mich für einen Arturia Mitarbeiter hielten, kann mein Geklimper nicht so schlecht gewesen sein. Ein sehr schönes Instrument. Klingt gut, fühlt sich gut an und macht Spaß.

Neben Hardware gab es natürlich auch viel Software zu sehen. Die Berliner Szene war mit Native Instruments (die sitzen ungefähr drei Häuser weiter), U-HE und Bitwig gut vertreten. Ableton konnte ich hingegen nicht entdecken, obwohl sie auch IMSTA Mitglied sind. Steinberg aus Hamburg waren auch dabei, wie Hersteller aus anderen Ländern, wie z.B. Image Line mit FL Studio (A.K.A Fruity Loops).

Mein Interesse galt aber vornehmlich Bitwig. Diese Software nutze ich selber gerne und ich finde das Team nett. Am Stand wurde ich sogar wiedererkannt („Du warst doch auch auf der Party damals in Neukölln, oder?“). Nice! Leider hat mir das letzte Update auf 2.2 mein Audio Setup zerschossen und dazu hatte ich einen kleinen Schnack. Mal sehen, ob wir die Ursache finden.

Workshops

Den ganzen Nachmittag hindurch gab es Song Reviews und diverse Workshops. Die drei, die ich besucht habe, waren interessant.

Bitwig gab einen einstündigen Überblick in das User Interface ihrer Software. Obwohl ich das System seit zwei Jahren nutze, habe ich einige neue Dinge erfahren.

Im Mischraum des Tonstudios gab der Produzent Sonus030 einen Einblick in FL Studio. Ich habe ihm offen gesagt, dass das HipHop Genre nicht so meins ist, und ich Bitwig als Audio Workstation verwende, aber gerne mal sehen würde, wie er daran geht, einen Track zu bauen. Und so gab er mir Einblick in seine Arbeitsweise anhand eines Songs, den er mit anderen Musikern Tags zuvor aufgenommen hatte. Interessanterweise unterscheidet sich das gar nicht so sehr davon, wie ich arbeite, abgesehen davon, dass er mehr Audiomaterial verwendet und ich mehr über die Keys einspiele. Netter Kerl und der fertige Song hat mir dann übrigens sogar gut gefallen.

Im Studio

Im Studio

So richtig überrascht war ich dann von dem Vortrag über Modular Sythesizer. Ich bin völlig ahnungslos in den Raum, in dem Wohnzimmeratmosphäre herrschte. Ein Teil des Publikums saß auf Stühlen, der Rest fläzte entspannt auf 70er Jahre Sitzsäcken. Ich sitze in Reihe zwei. Vorne stand ein modulares Synthesizerrack von Doepfer und ein Keyboard und davor saß ein netter Herr aus den USA in seinen 60ern mit Karohemd und Ecco Schuhen, die Haare zum Zopf zusammengebunden. Er fing mit seinen Erklärungen ganz vorne an: Was ist ein Oszillator, wie klingt ein Sinus, wie sind die Obertöne einer Dreieckswelle usw.

Modular Synthesizer 101

Modular Synthesizer 101

Parallel zur Erklärung hat er immer alles sofort gezeigt, am Gerät zusammengesteckt und eingestellt. Als er dann zum Thema Rauschen und Filtertypen kam, musste er ein wenig am Rack suchen und einmal kam der Kommentar, dass etwas anders, als bei seinem Moog funktionieren würde. Er hat sich artig bei Döpfer bedankt, dass sie ihm das Rack zur Verfügung gestellt haben und gemeint, dass er noch nie vorher an einem Eurorack System gearbeitet hat. 10 Sekunden später hat er dann aber die Einstellung so geändert, dass es weitergehen konnte. Zweifellos ein Profi.

Und was für ein Profi er tatsächlich ist, dämmerte mir im zweiten Teil des Vortrags. Irgendwann fing er dann an so typische 80er Jahre Songs anzuspielen, unser geneigtes Ohr auf einen bestimmten Klang zu lenken und dann zu erzählen, wie der produziert wurde. Hier ein Oberheim OB-8, hier zwei gestackte Prophet 5, hier ein Moog Modular etc…

Okay – der kennt sich aus, dachte ich mir.

Dann spielte er den Anfang von Michael Jacksons „Bad“ und sagte, wir sollen auf diesen hohen Sound im 16tel Takt hören („tschackatschackatschackatschacka“). Dann erklärte er, wie er diesen Sound hinbekommen hat.

Ähm wie jetzt ???

Gleich danach dasselbe Spiel mit Linonel Ritchies „Hello“ und nochmal mit einem Song aus Flashdance. Und so ging das ’ne ganze Weile weiter.

Was zum… Wer ist dieser Kerl?

„Der Kerl“ war Michael Boddicker. Eine Sythesizer-Koryphäe aus der Musikszene von L.A., der nicht nur Filmmusik komponiert und produziert, sondern so ungefähr schon mit allen Stars zusammegearbeitet hat: Quincy Jones, Whitney Houston, Diana Ross, Neil Diamond,…

 

Und ich bin so ungefähr aus Versehen in den Vortrag gegangen. Wahnsinn!

Das sind dann so die Augenblicke, in denen ich total glücklich bin, in Berlin zu leben, obwohl mir die Stadt manchmal unfassbar auf die Senkel geht.

Vintage Computing Festival Berlin 2017

Auch in diesem Jahr fand wieder das Vintage Computing Festival Berlin statt. Im Gegensatz zu dem vergangenen Jahren (siehe 2014, 2015 und 2016) wurde die Veranstaltung nicht mehr in der Humbuldt Universität, sondern im Deutschen Technikmuseum am Gleisdreieck abgehalten. Veranstaltugsort war nicht das Hauptgebäude, sondern die Räume am Ende der Ladestrasse auf dem Gelände des ehemaligen Anhalter Güterbahnhofs. Besucher des VCFB hatten auch freien Eintritt in der Dauerausstellung „Das Netz – Menschen, Kabel, Datenströme“. Den Wechsel halte ich für gelungen, weil die Ausstellung nunmehr räumlich luftiger und großzügiger ausfällt (1400qm statt 700qm).

Deutsches Technikmuseum – Ladestrasse

Die Veranstaltung in Zusammenarbeit von Humbold Universität, dem Berliner Hackerspace AFRA mit Unterstützung des CCC Berlin war war auch in den vergangenen Jahren bereits auf hohem Niveau. Da das Technikmuseum in diesem Jahr nicht nur die Räume stellt, sondern auch Personal – insbesondere Ordner – fühlt sich das ganze aber nun noch professioneller an.

Die Schwerpunkte der Veranstaltung waren auch diesmal wieder Vorträge, ein Games-Bereich und natürlich die oft recht besonderen Exponate der privaten Aussteller.

Besucher

Mit 2100 Besuchern ist das VCFB nochmals deutlich größer, als in den vergangenen Jahren. Zudem schien es mir so, dass die Besucher nun gezielt kommen, während in der HU manche Besucher eher „aus Versehen“ in die Ausstellung kamen, weil sie ohnehin gerade in Berlin Mitte spzieren gingen.

Zumindest bei den Besuchern war der Frauenanteil erfreulich hoch. Sehr schön fand ich die vielen Kinder, die sich unvoreigenommen an die teilweise über 30 Jahre alten Systeme gesetzt haben. Computerspiele funktionieren immer – auch mit Pixelgrafik. Selbst eine Pong-Konsole aus Mitte der 70er war fast durchgehend belegt. So lernt der Nachwuchs, dass Computer mehr bedeutet, als Windows und Apple.

Für die Kinder gab es neben den Bereich klassischer Videospiele auch zwei Möglichkeiten selbst aktiv zu werden: Einen Workshop um „Zahnbürstenroboter“ zu basteln und einen Lötworkshop.

Ausstellung

Die Ausstellung bot sowohl einen großen Umfang, als auch eine sehr interessante Spannbreite.

Es gab verschiedene Exponate an denen man mechanisches Rechnen erleben konnte – von klassischen Tischrechnern, über eine Curta bis zu einem für Lehrzwecke neu entwickelten elektromechanischen Mini-Rechner.

Mechanisches Rechnen - Curta

Mechanisches Rechnen – Curta

Selbstgebaute Rechner waren ebenfalls ein Thema: In der ehemaligen DDR war das häufig die einzige Möglichkeit überhaupt an einen Rechner zu kommen. Im Westen stand eher der Erkenntnisgewinn im Vordergrund. Zwei Brüder führten ihren im Jahr 1974 selbst entwickelten Rechner vor. Er nutzt keinen Microprozessor, sondern die 12-Bit CPU ist aus TTL Bausteinen selbst gebaut – mit selbst entwickeltem Befehlssatz. Sehr beeindruckend!

Selbstbaurechner von 1974

Selbstbaurechner von 1974

Daneben stand ein Exemplar des NDR-Klein Computers. Ein Modulares System aus den 80er Jahren, das mit unterschiedlichen Microprozessoren bestückt werden konnte. Einige verschiedene 70er Jahre Single Board Computer waren ebenfalls zu sehen.

Natürlich gab es auch wieder eine schöne Auswahl an Heimcomputern zu sehen, mit einem Schwerpunkt auf Atari Rechnern, aber auch Apple war gut vertreten. Daneben gab es weitere Klassiker, wie TRS-80 Model 1, diverse Spectrum Modelle, Amstrad/Schneider, MSX.

Optisch eindrucksvoller waren die Racks mit Rechnern von Digital Equipment. Die PDP-8/e auf der linken Seite war an ein VT-05 Videoterminal angeschlossen, die lab8/e auf der rechten Seite wurde über einen Teletype Model 33 Fernschreiber bedient.

Rechner von DEC

Rechner von DEC

Zum ersten Mal konnte ich ein Frontpanel einer IBM System/360 in Verbindung mit einer Kugekopfschreibmaschine in Aktion sehen. Der Originalrechner wurde leider verschrottet, aber auf der Rückseite des Panels steckte ein kleines FPGA Board, das den Rechner originalgetreu nachbildete.

IBM System/360 Model 30

IBM System/360 Model 30

Das teilweise oder komplette Ersetzen von originaler Hardware durch moderne Rechneremulationen oder FPGA Nachbauten scheint ein Trend zu werden, wie verschiedene Exponate zeigten. Angesichts des nun bereits mehrjährigen Versuchs, die PDP-11/34 des Hackerspaces AFRA wieder in Betrieb zu nehmen ist das ein verständlicher Weg.

Ebenso gab es aus heutiger Sicht exotische Bürocomputer (8Bit Commodore, 32 Bit Risc Workstation, HP-Grafikworkstations,…) und alternative Betriebssysteme (OS/2, BeOS, GEOS, …) zu sehen.

Interessant fand ich noch die Kollektion verschiedener Handheldsysteme, die die Evolution bis zu aktuellen Smartphones zeigte. Ich konnte neben einem mir unbekannten Z-80 basierten PDA von Amstrad auch das erste Mal einen Apple Newton ausprobieren. Mein Fazit: Die Handschrifterkennung des Amstrad ist langsam und unbrauchbar, die des Newton schneller und genauso unbrauchbar. Den Palmpilot brauchte ich nicht auszuprobieren, da ich selber einmal ein Modell III besessen habe.

Handhelds

Handhelds

Vorträge

Ich habe mir in diesem Jahr lediglich zwei Vorträge angehört, weil man dank des Videoteams des Chaos Computer Clubs alles auch nachträglich im Netz ansehen kann (https://media.ccc.de/c/vcfb2017).

Wolfgang Stief erweitertete auch dieses Jahr seine Vortragsreihe über Seymour Cray und seine Rolle im Supercomputing. Nach den Vorträgen „Wie das Supercomputing auf die Welt kam“ aus dem Jahr 2015 und „Defining Supercomputing — Seymour Cray und die CDC 6600“ aus dem Jahr 2016, ging es thematisch weiter in die 70er Jahre mit dem Thema „Cray-1, Ikone des Supercomputing – Wie die Maschine zur Welt kam, und was danach passierte„.

Eine kleine Anekdote: Als ich ihn nach dem Vortrag auf die CRAY-2 hinwies, die keine 30m von dem Vortragsraum entfernt steht, zeigte sich Wolfgang Stief überrascht. Ich hatte mich schon gewundert, weshalb er in seinem Vortrag darauf hingewiesen hatte.

Cray 2 im Deutschen Technikmuseum

Cray 2 im Deutschen Technikmuseum

Den anderen Vortrag, den ich mir angehört habe, hielt Rolf-Dieter Klein, der leider kurzfristig verhindert war, aber  per Skype hinzugeschaltet wurde. Er stellte die Entwicklung des bereits genannten NDR-Klein Computers vor, der Anfang der 80er Jahre in einer 26-teiligen Fernsehserie vorgestellt wurde um dem Publikum die Grundlagen des Computing nahezubringen.

Fazit

Das vierte Vintage Computing Festival Berlin war wieder sehr interessant und anregend. Der neue Veranstaltumgsort ermöglicht es, die Spannbreite historischer Rechentechnik einem breiteren Publikum nahezubringen. Zudem ist es eine hervorragende Ergänzung zu den anderen Artefakten des Museums, die in der Regel nicht operativ betrieben werden und so den Charakter der historischer Rechentechnik nicht so gut transportieren können. Insofern hoffe ich, dass sich das Deutsche Techniskmuseum dazu entschliessen kann, seine Räume auch für das VCFB 2018 zur Verfügung zu stellen.

Pro oder Contra Tegel

In Berlin findet parallel zur Bundestagswahl auch ein Volksentscheid zum möglichen Weiterbetrieb des Flughafens Tegel (TXL) statt. Ich habe meine Stimme bereits vor über einer Woche per Briefwahl abgegeben und möchte mich jetzt mal bekennen:

Ich habe dafür gestimmt, den Flughafen Tegel weiterhin offen zu halten.

Bäng!

Bevor jetzt mit faulen Tomaten oder Eiern nach mir geworfen wird, bitte ich darum, meine Argumente anzuhören.

Ich bin nämlich eigentlich dafür, ihn zu schließen, glaube aber, dass das in der jetzigen Situation nicht richtig wäre.

Was mich an der ganzen Diskussion pro und contra Tegel stört, ist die Oberflächlichkeit der Diskussion. Wer gegen TXL ist, wohnt in der Einflugschneise und will seine Ruhe haben und wer für TXL ist, ist ein Nostalgiker, der zu faul ist, nach Schönefeld zu fahren. Meine Stimmabgabe lässt sich also ganz einfach erklären:

Ich bin halt so ein Pfeffersack, der im Prenzlauer Berg wohnt, viel fliegt und es toll findet, dass der Flughafen nicht so weit weg ist.

Das stimmt zwar – ist aber irrelevant.

Die Fahrzeit nach Tegel und nach Schönefeld (bzw dann BER) ist beinahe identisch. Vom Fluglärm bekomme ich nur dann etwas mit, wenn in Richtung Osten gestartet wird, aber dass man nicht in Ruhe am Weissensee oder in Pankow spazieren gehen kann (geschweige denn dort wohnen) finde ich auch nicht so klasse.

Worum geht es mir also dann?

Der Hintergrund meiner Entscheidung liegt ca. 25 Jahre zurück. Damals habe ich Stadt- und Regionalplanung an der TU-Berlin studiert. Kurz nach dem Fall der Mauer war in Berlin alles zusammengebrochen. Der Osten sowieso, aber auch die hoch subventionierten Betriebe im Westteil wurden geschlossen. Die Zukunft völlig offen. Welche Rolle sollte und könnte die Stadt in Zukunft spielen? Welche Anforderungen würden sich daraus ergeben? Es gab jede Menge Meinungen, die in alle möglichen Richtungen gingen, aber in zwei Punkten herrschte relative Einigkeit:

  • Die Zeiten, in denen in Berlin eine nennenwerte Industrieproduktion hatte, sind endgültig vorbei
  • Egal welche Rolle Berlin zukünftig spielen würde – Eine moderne und leistungsfähige Verkehrsinfrastruktur wäre in jedem Fall nötig

Vor diesem Hintergrund haben wir an der TU eine Luftverkehrsplanung erstellt. Zu diesem Zeitpunkt dienten Tegel, Tempelhof und Schönefeld der Zivilluftfahrt. Die Zahlen von 1993 als Ausgangsbasis unseres Konzeptes waren:

Flughafen Startbahnen Flugbewegungen Passagiere
Tegel (TXL) 2 90.000 7 Mio.
Schönefeld (SXF) 2 31.300 1,6 Mio
Tempelhof (THF) 2 54.000 1,1 Mio

Die Randbedingungen der Überlegungen waren weiterhin:

Keine weitere militärische Nutzung der Flughäfen. Die Russen waren bereits abgezogen, die Franzosen hatten Tegel verlassen, die Amerikaner waren gerade dabei Tempelhof Air Force Base zu räumen und der britische Militärflugplatz Gatow wurde gerade geschlossen.

Berlin würde wieder Regierungssitz werden und daher auch einen Regierungsflughafen benötigen.

Aufgrund des witschaftlichen Zusammenbruchs Berlins wurde kurzfristig nicht mit einem starken Wachstum der Verkehrszahlen gerechnet. Mittel- und langfristig wurde jedoch ein sehr hohes Verkehrswachstum prognostiziert.

Unklar war dabei der Anteil an Luftfracht, die Entwicklung der Privat- und Geschäftsfliegerei und die Frage, ob Berlin mittelfristig wieder zu einem Hub werden würde. Die Optionen sollte auf jeden Fall offen gehalten werden.

Es galt nun, die Hauptfaktoren Ausbaufähigkeit, Lärmschutz, Naturschutz, Anbindung, externe Infrastrukturkosten abzuwägen.

Zu Beginn der Planungen war zunächst alles denkbar. Die Extrempositionen waren der Weiterbetrieb aller bestehenden Flughäfen oder die Schließung aller Flughäfen und Neubau weit im Süden (Sperenberg) oder weit im Norden (Prignitz mit Transrapidanschluss von Berlin und Hamburg).

Nach sehr lebhaften, aber sachlich gut begründeten Diskussionen entschieden wir uns damals für folgende Variante:

Aus Gründen des Lärmschutzes und aufgrund von Sicherheitsbedenken sollte Tempelhof geschlossen werden.

Schönefeld sollte aufgrund seiner guten Erreichbarkeit zum einzigen Flughafen für die Verkehrsfliegerei ausgebaut werden. Um die angestrebte hohe Kapazität zu erhalten, mussten die beiden Startbahnen einen größeren Mindestabstand erhalten. Zudem lag die damalige Nordbahn zu dicht an Bohnsdorf. Unser Vorschlag war, die damalige Nordbahn zu schliessen, die Südbahn zur neuen Nordbahn zu machen und südlich davon den neuen Flughafen zu bauen und südlich davon eine neue Start- und Landebahn.
Das entspricht ziemlich genau dem späteren offiziellen Konzept des BER. So wurde er auch gebaut.

Für Tegel hatten wir vorgesehen, Verkehrsfliegerei dort nicht weiterzuführen, ihn aber als Regierungsflughafen, sowie als Standort für die Privat- und Geschäftsfliegerei weiter zu betreiben. Dadurch hätte man eine saubere Trennung von der Verkehrsfliegerei erreicht, die Kapazität in Schönefeld würde nicht durch Kleinflugzeuge beeinträchtigt, die Berliner würden erheblich weniger Fluglärm als bisher ausgesetzt sein.

Diese Überlegung finde ich auch noch immer richtig. Insbesondere vor dem Hintergrund, dass der BER noch immer nicht eröffnet ist, aber bereits jetzt zu wenig Kapazität aufweist. Es geht dabei ja nicht nur um die Terminals, sondern vor allem um die Slots. Der BER hat nur zwei Startbahnen. Hierüber die normale Verkehrsfliegerei plus Regierungsfliegerei plus General Aviation abzuwickeln halte ich mittelfristig für unrealistisch.

  Startbahnen Flugbewegungen Passagiere
1993 TXL, SXF, THF 6 175.000 9,7 Mio
2016 TXL, SXF 3 282.000 32,9 Mio
Zukünftig BER 2 426.000 max. 27 Mio, 50 Mio max.

Ein Flughafen reicht für eine Stadt, wie Berlin nicht aus. Zwei sind genau richtig.

Paris hat 3, London gar 5 Flughäfen. Oder wir bauen solche Monster wie Chicago O’Hare oder Atlanta Hartsfield, was ich aber in Deutschland für unrealistisch halte.

Meine Erfahrung mit Espressomaschinen

Ich bin zwar kein richtiger Kaffee-Nerd, aber ich lege schon Wert auf eine schöne, schmackhafte Tasse. Im Zweifelsfall ziehe ich einen gut gemachten Filterkaffee einem lieblosen Espresso vor, aber seit ich um 2000 herum in Zürich gearbeitet habe, gibt es bei mir zu Hause eine Espressomaschine.

Damals hatte ich mir eine nette kleine Siebträgermaschine von Krups gekauft, die nach ein paar Jahren den Geist aufgegeben hatte und von mir durch einen Jura Vollautomaten ersetzt wurde.

Das war ein Fehler. Die Maschine, die mich damals immerhin €750,- gekostet hatte machte nur am Anfang schmackhaften Kaffee. Trotz regelmäßiger Reinigung wurde der Kaffee irgendwann etwas muffig. Nach zweieinhalb Jahren ging die Maschine dann kaputt. Ich habe sie für €150,- reparieren lassen und nach weiteren 5 Monaten ging sie wieder kaputt. Das war dann für mich das Zeichen, nur noch Siebträgermaschinen nutzen zu wollen. So einfach wie möglich.

Gesagt – getan. Ich kaufte mir eine klassische kleine Saeco Aroma, die zu dem Zeitpunkt bereits 20 Jahre gebaut wurde.

Saeco Aroma

Ich mag diese Maschine, obwohl sie durchaus ein paar unschöne Eigenschaften hat. Bei der Pflege des sehr robusten Metallgehäuses muss man aufpassen, weil es extrem scharfkantig ist. Zudem passen nur sehr kleine Tassen unter den Siebträger. Auf die Durchlaufmenge des Wassers muss man selber aufpassen und richtige Kaffee-Nerds bemängeln das Druckventil im Siebträger. Aber am Ende zählt, was unten rauskommt – nämlich leckerer Kaffee und die Maschine sieht auch ganz knuffig aus.

Leider hat sie sich vor ein paar Tagen nach sieben Jahren Betrieb ebenfalls verbschiedet. Während der Zubereitung eines Kaffees gab es einen lauten Knall und statt Kaffee aus dem Siebträger lief heißes Wasser aus dem Gehäuse.

Also mal wieder Zeit für eine Neuanschaffung. Ich hätte mir durchaus dasselbe Modell noch einmal gekauft, aber nach über 25 Jahren Produktionszeit wurde die Maschine aus dem Programm genommen. Schade.

Nach zwei Tagen Recherche habe ich mich nun für eine De Longhi Dedica EC685(Hier gibt es Infos zum Vorgänger EC680) entschieden. Die Maschine gibt es in mehrere Farben. Ich fand das gedeckte rot als Farbtupfer in meiner weiß/grauen Küche ganz schick. Überhaupt ist das schmale Design der Dedica schon recht speziell. Nach etwa Überlegung kam ich dann darauf, woran es mich erinnerte; An eine Ständerbohmaschine 😀 .

De Longhi Dedica

Die Bedienung ist etwas weniger rudimentär, als bei der Aroma, weil man Wasserhärte, Kaffeetemperatur und Durchlaufmenge einstellen muss, allerdings waren die Voreinstellungen für mich richtig. Ein paar Kleinigkeitene finde funktional nicht so gut:

  • Die Maschine ist so schmal, dass man keine zwei Espressotassen nebeneinander stellen kann. Man muss die zwei Kaffee wirklich nacheinander zubereiten.
  • Beim Festziehen des Siebträgers muss man die Maschine festhalten, weil sie nicht so schwer ist. Ich habe das instinktiv vorne gemacht und bin dabei an die Knöpfe gekommen und habe damit den Brühvorgang zu früh gestartet. Das scheint jedem so zu gehen, der die Maschine das erste Mal nutzt.
  • Der Dampfhahn ist direkt über dem Milchschäumer angebracht. Ich hätte es beim ersten Mal fast geschafft, mich an dem Dampf zu verbrühen.
  • Einige Gehäuseteile bestehen aus verchromten Plastik. Sieht etwas billig aus und die Frage ist, ob die Beschichtung in 5 Jahren noch komplett ist. War das nötig?
  • Der Netzschalter ist im Fuss so unscheinbar angebracht (im Foto gleich neben der Dampfdüse), dass man gerne übersieht, die Maschine wieder auszuschalten.

Nach etwas Nörgelei will ich aber vor allem auf die positiven Seiten hinweisen:

  • Die Dedica ist ein echter Hingucker in de Küche
  • Es passen auch größere Tassen unter den Siebträger, wenn man die Tropfschalte entfernt (darunter ist noch eine weitere sehr flache Schale).
  • Die Maschine ist extrem schnell auf Betriebstemperatur
  • Der Kaffee ist lecker. Richtig lecker. Und genau darum geht es ja letztlich.

Nächste Seite »