Ich war eben in Hamburg um Marco zu treffen. Marco ist als Webentwickler in San Francisco tätig und gerade für kurze Zeit in Deutschland zu Besuch. Wir kennen uns seit zwölf Jahren und sind beide seit geraumer Zeit für grosse E-Commerce Websites zuständig. Er im Bereich Publishing und Buchungssysteme und ich für Onlineshops. Den halben Nachmittag haben wir unter anderem für einen Erfahrungsaustausch genutzt. Obwohl “unsere” Systeme völlig unterschiedlich sind, ähneln sich die Herausforderungen, mit denen wir konfrontiert werden. Zwei der wichtigsten Kriterien sind Belastbarkeit mit vielen Besuchern und Transaktionen sowie Geschwindigkeit.
Zeit ist Geld. Nutzer warten nicht gerne. Ist die Website zu langsam, ziehen sie weiter. Google straft seit einiger Zeit ebenfalls Seiten im Pagerank ab, die langsam laden. Daraus folgern nochmals weniger Besucher. Wenige Zehntelsekunden können auf diese Weise durchaus einige tausend Euro ausmachen. Es lohnt sich also, Zeit und Geld in die Beschleunigung der Website zu investieren. Wir haben in unserer Firma in den letzten zehn Monaten sehr viele kleine und grosse Massnahmen zur Beschleunigung der Shops durchgeführt, die in Summe wirklich sehr viel gebracht haben.
Im Groben gibt es drei Bereiche, die für die Geschwindigkeit der Website verantwortlich sind:
Der Client
Letztlich zählt, wie schnell der Browser des Nutzers reagiert. Es geht also um die Zeit zwischen Klick und fertiger Seite. Gegen langsame Rechner und Browser kann man als Websitebetreiber nichts machen. Aber man kann die Seiten so ausliefern, dass der Browser möglichst wenig Mühe mit dem Rendern hat. Stichworte sind: Weniger komplexe Seiten, Reduzierung der Requests, mehr parallele Downloads.
Das Netzwerk
Hiermit ist alles zwischen Rechenzentrum und Nutzer gemeint. Hier hat man als Betreiber jedoch wenig Einfluss. Bei der Auswahl des Rechenzentrums sollte man auf redundante Anbindung aller relevanten Backbones und ausreichend verfügbarer Bandbreite achten. Wenn die Zielmärkte global verteilt sind, sollte die Nutzung eines spezialisierten Content Delivery Networks in Erwägung gezogen werden.
Die Systemarchitektur
Wie baut man ein komplexes Setup aus unterschiedlichen Servern und Netzwerkgeräten im Rechenzentrum um die Inhalte möglichst schnell ausliefern zu können? Genau das war der Schwerpunkt unseres Erfahrungsaustauschs.
Interessanterweise sahen wir beide einige der momentan angesagten Methoden zur Realisierung von E-Commerce Sytemen eher etwas kritisch. Wir sind zum Beispiel beide für möglichst schlanke Systeme zu haben, weil diese sowohl Ressourcen sparen, als auch Geschwindigkeit bringen.
Problembereich Frameworks
Komplexe Frameworks für eCommerce Systeme, auf die potentiell unbegrenzt viele Nutzer zugreifen können, sind unter den Aspekten Geschwindigkeit und Ressourcen eher schwierig. Zumal die Erfahrung zeigt, dass die damit beabsichtigte Beschleunigung von Entwicklungszyklen in der Realität oftmals nicht eintritt. Teilweise wird die Entwicklung sogar langsamer und fehleranfälliger.
Cache as cache can
Auch der gerade sehr angesagte Einsatz von Full-Page Caches hat nicht nur Vorteile. Bei Publikationen (Onlinemagazine o.ä.) sind sie voll in ihrem Element, können enorme Geschwindigkeitsvorteile bringen und die Content Management System entlasten. Ihre Geschwindigkeit kommt daher, dass sie fertige Seiten vorhalten und ohne grosse Verzögerung an jeden Nutzer ausliefern können.
Im eCommerce Umfeld macht aber genau die daraus resultierende geringe Flexibilität Probleme, wie ich am Beispiel einer Kategorieseite eines Onlineshops erläutern möchte.
Problemfeld Caching – ein einfaches Beispiel
Eine Kategorieseite besteht aus vielen Elementen, die erst aus der Datenbank zusammengesucht und dann zusammengebaut werden müssen. Die Daten der Produkte, die in der Kategorie sind und der aktuellen Seitenzahl entsprechen, weitere Daten zur Kategorie selber (Titel, Beschreibungen, Links auf Headergrafiken usw.) und weitere Elemente, wie Kategoriebaum, Breadcrumbnavigation usw.
Um solch eine Seite aufzubauen können durchaus hunderte einzelne Datenbankabfragen nötig sein. Klar, das sowas dauert. Die Seite nur einmal zusammenzubauen und dann immer wieder fertig auszuliefern ist doch toll, oder?
Darauf kann ich nur mit einem beherzten „jein“ antworten. Die Seiten werden aus dem Cache teilweise 5-10 mal schneller ausgeliefert und belasten die Applicationserver nicht mehr. So weit so toll.
Das gilt allerdings nur, solange die Standardseiten angezeigt werden. Sobald der Nutzer die Anzahl der anzuzeigenden Artikel pro Seite oder die Sortierung (nach Preis, Aktualität, Beliebtheit oder sonstwas, auf- oder absteigend) ändert oder sogar Filter setzt, greift das tolle Caching nicht mehr, weil man derart viele mögliche Seiten nicht mehr sinnvoll vorhalten kann.
Ein weiteres Problem ist die Invalidierung der gecachten Seiten. In einem hochdynamischen System müssen die erzeugten Seiten genauso schnell gelöscht und neu erzeugt werden, wie sich die zugrundeliegenden Daten ändern. Ansonsten bekommt der Nutzer unentwegt veraltete und inkonsistente Daten angezeigt, wie z.B. Artikel, die gerade ausverkauft wurden.
Wenn z.B. ein Artikel, der auf der ersten von 50 Kategorieseiten steht, gerade ausverkauft wurde, muss nicht nur seine Detailseite aus dem Cache entfernt werden, sondern ausserdem 50 Kategorieseiten neu erzeugt werden; die erste, weil er dort nicht mehr enthalten sein darf, und die 49 folgenden, weil sich die Position aller nachfolgenden Artikel geändert hat.
Dieses noch recht einfache Beispiel zeigt bereits viele potentielle Fehlerquellen. Hinzu kommt, dass sich personalisierte Seiten, die individuell für den Nutzer zusammengebaut werden, prinzipiell überhaupt nicht cachen lassen. Von Problemfällen wie mitgeführten Sessions (Warenkörben, personalisierten Einstellungen, Logins, Kampagnentracking) und so weiter ganz zu schweigen. Alles lösbar, aber bei weitem nicht trivial und zum Teil hebelt man damit den Geschwindigkeitsvorteil des Full Page Caches wieder aus.
Less is more
Bleibt die Frage offen “…und wie bekommen wir das Ding nun schnell?”
Platt gesagt durch Weglassen und Datenoptimierung.
Full Page Caches sind toll für Publikationen, aber problematisch bei Transaktionssystemen. Nehmen wir diesen Komplexitätslayer lieber aus dem System raus.
Optimieren wir stattdessen den Applicationserver. Die verwendeten Frameworks müssen schlank und schnell sein. Wenn für die Initialisierung der Anwendung mit Konfiguration und Aufbau der Datenbankverbindung schon 200ms draufgehen, brauchen wir gar nicht erst weitermachen.
Pro anzuzeigender Seite dürfen nur wenige und einfache Datenbankabfragen nötig sein. Es kann sinnvoll sein, hochgradig normalisierte Datenstrukturen für die Anzeige zu Flattables zusammenzufassen.
Der Erfolg eines solchen Vorgehens ist spürbar. Marco meinte zu einem Kunden, der den Einsatz eines Full-Page-Chaches anregte, sinngemäss:
„Die Seite in 200 Millisekunden fertig. Was willst Du da noch beschleunigen?“
Nebenbei sei bemerkt, dass dieses System nicht nur pfeilschnell ist, sondern zudem mit sehr wenig Hardware betrieben wird.
Gerade bin ich bei Tech Crunch über einen interessanten kurzen Artikel gestolpert. In “All Your Metadata Shall Be In Water Writ” wirft Devin Coldewey das Problem auf, dass man sich nicht wirklich auf die Korrektheit von Daten aus dem Internet verlassen kann. Er bezieht sich auf die Unbeständigkeit von Daten, zum Beispiel Artikel in Blogs, Homepages, Wikipedia und sonstwas.
Man findet leicht Unmengen von Informationen zu fast jedem denkbaren Thema, aber man kann sich nicht auf deren Beständigkeit und Integrität verlassen.
Die Information kann zwischem den letzten Abruf und dem aktuellen verändert worden sein.
Das ist zum Beispiel bei Publikationen (“Internetzeitungen”) oder auch Blogs durchaus üblich.
Die Information kann vollständig verschwunden sein.
Der Betreiber existiert nicht mehr, hat das Interesse verloren, verfolgt jetzt andere Ziele oder wurde verklagt.
Die Information kann beim Transport vom Server zum Client verändert worden sein.
Stichwort Zwangsproxy zum Beispiel bei UMTS Verbindungen. Hier wird bereits heute von den Providern der auszuliefernde Inhalt verändert.
Die Angaben zum Ort, an dem die Information vermutet wird, können manipuliert sein.
Das passiert bei nahezu allen DSL Anbietern in Deutschland, wenn im Browser fehlerhafte URL eingegeben werden.
Die Information kann personalisiert sein, d.h. in Abhängigkeit meinem Browser, Betriebssystem, Standort, Netzwerkanschluss, Login oder sonstigen Parameter kann mir abweichender Inhalt angezeigt werden.
Das ist unter Umständen sogar sinnvoll, wenn Websites an Smartphones angepasst werden. Hingegen zumindest fragwürdig, wenn Google in Abhängigkeit vom Land aus dem eine Suchanfrage kommt, bestimmte Ergebnisse unterdrückt.
An den Beispielen wird jedenfalls deutlich, dass keine Verlässlichkeit gegeben ist. Coldewey schreibt:
There is no simple and reliable way to tell whether the information you are looking at has been altered in any way. Every word, every image, every byte has to some significant degree an unknown provenance.
Die o.g. Methoden können in bestimmten Szenarien durchaus nützlich und sinnvoll sein. In anderen Szenarien können es gezielte Manipulationen sein, um z.B. bestimmte Reaktionen auszulösen, Daten abzugreifen, Falschinformationen weiterzugeben, Reputation zu zerstören, rechtliche Massnahmen zu beeinflussen oder sonstige dunkle Machenschaften durchzuführen.
Auf jeden Fall sollte man sich stets bewusst sein, dass es bei Daten aus dem Internet keine Verlässlichkeit gibt, wenn man auf der Basis dieser Daten wichtige Entscheidungen treffen will.
In letzter Zeit habe ich wieder verstärktes Interesse an Themen aus meinem früheren Leben gefunden. Ende der 80er, Anfang der 90er Jahre studierte ich Stadt- und Regionalplanung an der TU Berlin. Seinerzeit haben wir schon sehr intensiv Themen wie “Die autofreie Stadt”, “zunehmende Nomadisierung im Arbeitsleben”, “zunehmende Bedeutung weicher Standortfaktoren”, “Auswirkung digitaler Vernetzung auf Raumstrukturen” diskutiert. Wir kamen uns schlau vor und hielten uns für die Avantgarde. Doch die 90er und 00er Jahre sahen so aus, als hätten wir uns in vielen Dingen geirrt und alles würde einfach immer so weiter laufen: Globalisierung, Verkehrszunahme, weitere Zersiedlung und so fort.
In letzter Zeit scheinen sich aber die Zeichen zu mehren, dass wir doch nicht ganz so sehr daneben lagen, sondern uns vor allem im Zeithorizont geirrt hatten. Immer mehr Artikel berichten über Entwicklungen, wie die folgenden:
Ein zunehmender Teil der jungen Menschen in den traditionellen Industrieländern verzichten auf ein eigenes Auto – teils aus Umweltgewissen, teils aus finanziellen Gründen, teils weil sie den Besitz und die damit verbundenen Verpflichtungen zu lästig finden.
Damit einher geht ein Trend, wieder zentral wohnen zu wollen. Lange Pendlerwege sind zunehmend uncool. Firmen an abgelgeneren Orten haben zunehmend Schwierigkeiten, qualifiziertes Personal zu rekrutieren.
Nach Jahrzenhnten des Lohndumpings und der Haltung, die Menschen sollen froh sein, wenn sie überhaupt irgendwo arbeiten dürfen, geschieht nun langsam das unfassbare: Arbeitnehmer stellen zunehmend Ansprüche an ihre Arbeitgeber. Und dabei geht es häufig nicht um Geld, sondern um Work/Life Balance.
Das Internet hat seine Rolle als Spielplatz für Techniker abgelegt. Die Normalos haben das Netz übernommen. Medienkonsum, Onlinebanking, Einkauf,… immer mehr Tätigkeiten werden zumindest teilweise von zuhause aus gemacht.
Nicht nur Arbeitsverhältnisse, sondern auch die Büroarbeitsplätze selbst werden flexibler. Es wird mit Büros auf Zeit experimentiert.
Der Flächenbedarf von Handel und Dienstleistungen stagniert und beginnt teilweise bereits zurückzugehen.
Überhaupt leben wir in einer Zeit zunehmender Miniaturisierung und Entstofflichung. Viele technische Dinge um uns herum werden ständig kleiner. Aus grossen Maschinen werden kleine. Hardware wird durch Software ersetzt – bei Maschinensteuerungen genauso wie bei Tonträgern oder Druckerzeugnissen.
Treibende Faktoren hinter allem sind zunehmende Verknappung von Ressourcen und immer bessere globale Kommunikationsmöglichkeiten.
Immer mehr Menschen wird klar, dass die Energiewende unausweichlich ist. Das Ziel, weniger Rohstoffe und Energie zu verbrauchen ist in breiten Bevölkerungsschichten angekommen. Diejenigen, die noch anderer Meinung sind, werden durch stark steigende Preise zum Umdenken gezwungen werden.
Systeme haben eine unglaubliche Trägheit. Aber wenn erst einmal etwas in Bewegung gerät, kann sich schnell eine unheimliche Dynamik des Umbruchs ergeben. Wer glaubt, dass sich unserer Welt in den letzten 50 Jahren stark verändert hat, wird sich in den nächsten 20 Jahre schwer umschauen und seinen Sinnen nicht mehr trauen.
Wir leben in spannenden Zeiten.
(Future Shock ist der Titel eines Buches von Alvin Toffler aus dem Jahr 1970. Es sagte damals einige gesellschaftliche und wirtschaftliche Megatrends voraus, von denen viele heutzutage auf die eine oder andere Art bewahrheitet haben)
Im Moment bastele ich an einer neuen Version von zzap – meinem Micromessaging Tool, das ich zwischen 2005 und 2008 entwickelt hatte. Zu jeder Nachricht soll dabei der Ort gespeichert werden, an dem die Nachricht versendet wurde.
Das ist eigentlich kein Problem mehr, seit die modernen Smartphones HTML 5 mit der geolocation API unterstützen. Die Methode
navigator.geolocation.getCurrentPosition
wird mit den Namen von zwei Callback Functions für success und error aufgerufen, an die dann das Positionsobjekt mit Angabe zu Längen- und Breitengrad übergeben wird. Interessierten sei hier die offizielle Dokumentation nahegelegt (W3C: Geolocation API Specification).
Eigentlich ganz einfach. Genau – eigentlich!
Der Teufel steckt natürlich mal wieder im Detail. Eine entsprechende Seite war schnell gebaut. zur Darstellung der Karte verwende ich OpenStreetMaps und alles wäre so schön – wenn die zurückgelieferten Koordinaten nicht so schrecklich ungenau wären.
Warum so ungenau?
Ich habe in den letzten zwei Wochen etliche Positionsbestimmungen in Berlin (Kreuzberg, Mitte, Prenzlauer Berg), Hannover und Kirchhorst (einem Vorrort von Hannover) und im Stau auf der A2 ausprobiert. Die Ergebnisse lagen häufig um bis zu 200-300m daneben – egal ob im hochverdichteten Kreuzberg oder auf dem Land. Manchmal stimmten sie aber auch bis auf 5m.
Ich hatte zunächst mein Handy – ein immer nocht recht aktuelles HTC Desire S mit Android 2.3.5 im Verdacht. Andererseits funktioniert die Peilung bei Google Maps sehr schnell und präzise.
Immer exakt gleich falsch
Als ich mir dann die Daten ansah, entdeckte ich, dass ich bei den Meldungen aus Kirchhorst immer um ca. 300m auf den Acker verschoben wurde – und zwar bis auf 8 Nachkommastellen immer auf exakt dieselbe falsche Position. Das machte mich dann doch etwas stutzig. Bei Recherchieren fand ich dann den Artikel “Präzise GPS-Daten über die W3C Geolocation API bekommen” von Rolf Dormann. Seine zusammenfassende Erkenntnis (Zitat):
Es ist möglich, über die W3C Geolocation API an die GPS-Daten zu kommen.
Die ersten Daten, die die beiden dafür vorgesehenen Methoden liefern, sind nie GPS-Daten.
Irgendwann kommen GPS-Daten.
Über einen einmaligen Aufruf von getCurrentPosition kommt man nicht an GPS-Daten.
Mann bekommt zwar sehr schnell Positionsdaten, allerdings aus einer Funkzellenabfrage. GPS Daten kommen erst später, und man muss die Position dazu mehrfach abfragen.
So – und damit soll man nun eine intuitive, schnelle Mobile Website bauen, die dann auch noch auf allen wichtigen Geräten funktioniert. grrrr…
Im Moment beschäftige ich mich mal wieder etwas mit dem Thema Karten – genauer Google Maps vs. Open Street Map. Bei stöbern im OSMBlog bin ich gerade über eine superschöne Erweiterung von Open Street Map gestolpert: Den Watercolor Map Renderer. Ein Renderer ist ein Stück Software, das die Kartengrafik aus den Kartendaten erzeugt, die im Vektorformat vorliegen – also aus der mathematischen Beschreibung der Verlaufslinien und Umrisse von Gewässern, Strassen, Gebäuden usw. die eigentliche Grafik berechnet.
Jetzt schreibe ich meinen für gestern geplanten Schmähartikel doch noch. Es ist einfach un-glaub-lich scheisse, eine Reise online zu buchen. Ich habe jetzt zwei komplette Abende dafür geopfert und letztlich nichts gebucht.
<zynismus>Wahrscheinlich sind meine Ansprüche einfach zu speziell. Die Auswahl ist ja auch extrem eng, wenn man entweder irgendwo auf die Kanaren, oder irgendwo nach Malle möchte, oder ersatzweise eine Städtereise nach Rom oder Venedig in Erwägung zieht.</zynismus>
Ich habe exakt eine Woche Urlaub. Der maximale zeitliche Spielraum sind die beiden Wochenenden davor und danach. Daran ist nun mal nicht zu rütteln. Aber alleine das Kriterium scheint ja schon zuviel zu sein. Ich bekomme ungerührt Angebote präsentiert, die eine halbe Woche später liegen.
HALLO – IRGENDJEMAND ZU HAUSE???
Dazu kommen massenweise Angebote, die nicht verfügbar sind, wenn man sie buchen will. DANN ZEIGT MIR DEN SCHEISS NICHT AN!
Oder man stellt nur eine Anfrage, ob das möglicherweise verfügbar ist.
ICH KANN JA AUCH MAL VERSUCHEN EUCH WAS ZU VERKAUFEN, WAS ICH NUR EVENTUELL HABE, IHR HEIMCHEN.
Oder der Preis ist plötzlich doch €230,- teurer.
LÜG MICH NICHT VORHER AN MIT DEM PREIS.
Oder die Flüge liegen nicht etwa früh oder spät – nein, sie liegen mitten in der Nacht. Und zwar so mittig (4:30!!!), dass man nicht einmal theoretisch schlafen könnte.
ICH WILL MICH ERHOLEN UND NICHT NOCH MEHR SCHLAFMANGEL SAMMELN!
Mir reichts. Mir ist meine Zeit für den Dreck zu schade. Wir machen das jetzt anders: Outsourcing!
Ich werde meine Kriterien echten Menschen im echten Reisebüro nennen und die für mich suchen lassen. Das mag dann etwas mehr kosten, aber ich habe keine Lust, meine kostbare Freizeit, für so einen unausgegorenen Scheiss wie diese Onlineportale zu vergeuden.
Ich mache da auch keinen Unterschied zwischen den Anbietern – weil es de facto keinen gibt. Es greifen sowieso alle auf dieselben Datenbanken zu. Da ist das Label oben Links auch egal.
Dirk Ollmetzer | Monday, 26 September 2011 | Online Dienste
Gerade war ich dabei, einen wirklich ätzenden Schmähartikel über einige E-Commerce Anbieter zu verfassen, als ich kurz vor dem Publizieren gottseidank doch noch mal kurz innehielt und den heutigen Abend rekapitulierte.
Ich habe zwar gerade einen Ärztemarathon hinter mir, der mich aber auch nicht vor dem heutigen abendlichen Anfall von PKG (Partielle Kognitive Dysfunktionalität) bewahrt hat.
Was war passiert?
Ich habe versucht, für meinen heute genehmigten Resturlaub eine nette Reise zu buchen und dafür einige der einschlägigen Internetportale abgeklappert. Es ist mir aber in zwei Stunden nicht gelungen, etwas zu finden, was meinen – in diesem Fall relativ gemässigten – Ansprüchen insbesondere in Hinblick auf Wunschziel und Reisedatum ausreichend nahekommt.
Etliche durchaus vorhandene Unzulänglichkeiten in den Portalen haben mich derart in Rage gebracht, dass ich irgendwann schwerwiegende Fehler sah, wo gar keine waren. Ich sage jetzt mal nicht, was ich falsch verstanden habe – es ist für einen eCommerce Fachmann einfach zu peinlich.
Typisches Layer 8 Problem, wie Netzwerker flachsen würden. Oder auch:
“User error: Please remove user and try again!”
Nun ja, das Gute daran: Ich habe jetzt mal am eigenen Leib verspürt, wie die teilweise haarsträubenden Fehlermeldungen von Nutzern zu Stande kommen. Erst mal tief Luft holen und morgen versuche ich es dann nochmal…
So deutlich hat es bis jetzt kaum jemand ausgedrückt: “Zerschlagt das Internet” hat Zeit vermutlich seinen Artikel zunächst genannt und dann die etwas konstruktiver klingende Schlagzeile “Baut ein neues Internet” geändert. Das folgere ich jedenfalls aus der Diskrepanz zwischen Schlagzeile und SEO-optimierter URL. Jedenfalls ist das wohl der feuchte Traum unserer strauchelnden “Eliten”.
Wie dem auch sei – etwas Wahres ist schon dran an dem Artikel. Auch ich finde es bedenklich, dass immer mehr und wichtigere Teile unserer Infrastruktur vom Funktionieren des Internets abhängt und damit die Bedrohung durch Cyberkriminelle jeglicher Couleur im realen Leben enorm zunimmt.
Ob am 5. November tatsächlich Facebook platt gemacht wird, wie es einige grosspurige Hacker ankündigen, interessiert mich dabei eigentlich eher wenig. Wenn Ingenieure mit glänzenden Augen erzählen, dass die Steuerelektronik in teuren Autos automatisch per Funk upgedatet werden kann, ohne dass der Wagen in die Werkstatt muss, kann ich eigentlich nur noch den Kopf schütteln, genau sowie bei Themen wie Gesundheitskarte und RFID-Personalausweis.
Gänzlich am Verstand einiger Beteiligter zweifele ich aber, wenn ich über die Pläne vom Smartgrid lese – also der Stromversorgung der Zukunft, die per Internet gesteuert werden soll. Ohne eine stabile und verlässliche Stromversorgung können wir Deutschland doch gleich zumachen.
Insofern ist dem Artikel zuzustimmen:
“Die wichtigste Infrastruktur unserer Zeit wird zur Gefahr für Wohlstand und Sicherheit.”
Nur – ist das Internet daran Schuld? Oder sind es die “schlampigen” Digital-Hippies, die seit Ende der 60er Jahre das Internet gebaut haben (immerhin ursprünglich im Auftrag des Pentagon – DARPA um genauer zu sein)? Oder sind es die heutigen Cyberkriminellen? Oder ist nicht streng genommen der alltäglich Missbrauch des Internets die Hauptschuld daran?
Alltäglicher Missbrauch des Internet?
Damit meine ich eigentlich fast alles, wofür wir das Internet heute so benutzen. Das Netz ist einfach nicht für die Steuerung von Industrieanlagen, Banktransaktionen oder Onlineshopping konzipiert worden. Es ist für den denkbar einfachen und offenen Austausch von Informationen gedacht gewesen.
Um mal einen hinkenden Vergleich zu konstruieren:
Vor 40 Jahren wurde das digitale Equivalent zu einem Fahrrad erfunden: Vergleichsweise leicht und elegant, bringt es Menschen zueinander. Und heute beschweren wir uns, dass dieses dumme Fahrrad unsicher ist, wenn wir es mit 280Km/h und drei Tonnen Gepäck auf dem Rücken über Feldwege peitschen wollen.
Wo liegt hier also der Fehler?
Zur Zeit verdiene ich mein Geld mit dem Internet – und dennoch ist mir extrem unwohl, wenn ich an unsere ständig steigende Abhängigkeit denke. Eigentlich wünsche ich mir eine schlichte Holzhütte mit weitestgehender Unabhängigkeit (off-grid, wie es die Amerikaner nennen) – sozusagen als mein persönliches “Back-up”, falls es irgendwann zum Crash kommen sollte.
Das Internet war toll – damals, als wir noch unbefangen damit rumspielten und es nicht allzu ernst genommen haben. Aus dieser Zeit stammt auch die Behauptung “the internet is for porn”.
Eigentlich muss die Forderung nicht heissen das Internet zu ersetzen, sondern alle wichtigen und ernsthaften Anwendungen daraus wieder zu entfernen.