Ich hatte mich ja neulich schon mal darüber ausgelassen, dass mir die ganze Entwicklung mobiler Betriebssysteme nicht schmeckt. Unsere ach-so-tollen Hyper-Super-Duper-Hi-End-Smartphones schmiessen neuerding immer mehr Funktionen raus, die seit mindestens 10 Jahren (in Mobilfunkzeit: „schon immer“) Standard waren. Neueste Entdeckung:
Android kann offensichtlich nur noch normale HTTP(S) Links.
Ich hatte gerade mir JQuery Mobile versucht, mir ein kleines Telefonbuch zu basteln und musste feststellen, dass alle Links, die mit tel:// sms:// oder mailto: anfingen, nicht mehr unterstützt werden.
Wirklich grossartiges Krüppelzeug, Ihr Arschlöcher!
Kann Nokia mal bitte wieder vernünftige Handies bauen – ich sehne mich wirklich danach, diesen unausgegorenen Ami-Rotz (Apple, Google, Microsoft, RIM) wieder loszuwerden.
Der 69. Webmontag fand am 12.11.2012 wieder in den Räumen der Mobilsuite in der Pappelallee statt. Das Thema des Abends war E-Learning. Auch diesmal war der Anteil der neuen Besucher erstaunlich hoch; ebenso wie der Frauenanteil.
Los – lern!
Den ersten Vortrag mit dem Title „The future of textbooks“ hielt Stefan Bayer von Sofatutor – einer Plattform, die im weiteren Sinne auf Nachhilfeunterricht mit Videos, Tests und Chats für Schüler anbietet.
Interessant fand ich unter anderem, dass sich die Angebote auf one-to-one Kommunikation konzentrieren, während sich der Lerncommunities oder Gamification Ansätze nicht bewährt hätten. Die Schüler kommen mit einer gezielten Nachfrage, wie „Ich will die nächste Matheklausur bestehen“ und konzentrieren sich daher auf direkte Kommunikation mit dem Lehrer.
Interessant war auch, dass sich Sofatutor zwar auf den unregulierten „afternoon market“ konzentriert, weil im „morning market“ Freigaben von den Kultusministerien der Länder erforderlich sind, sich die Angebote aber trotzdem eng an die jeweiligen Lehrpläne anlehnen (müssen).
Für die weitere Zukunft ist laut Bayer geplant, das Angebot sukzessive auf den Hochschulbereich auszudehnen.
Spielend lernen
Den zweiten Vortrag hielt Christian Knop von Outermedia. Sein Vortrag handelte von den Herausforderungen bei der Erstellung von Lernspielen. Sowohl die zu vermittelnden Lerninhalte, als auch die Art der Präsentation müssen auf die jeweilige Ziegruppe und ihre Motivation zugeschnitten werden; es war von Charakterdesign und „Flow“ die Rede.
Knops Credo lautet „Learning should be fun“. Da möchte ich zwar nicht widersprechen – ob aber Spiele dafür der richtige Ansatz sind, erscheint mir eher zweifelhaft. Ich selbst habe mich im zarten Alter von 12 Jahren durch extrem trockene Computer Fachliteratur durchgebissen – freiwillig und hartnäckig. Es hat mir deshalb Spass gemacht, weil sofort versucht habe, das Gelernte umzusetzen. Das Wichtigste war aber, dass ich interessiert war und den ganzen scheinbar trockenen Kram wirklich lernen wollte.
Im Gegensatz dazu habe ich viele Dinge, die ich lernen sollte, nie vollständig verstanden – weil es mir einfach vollkommen gleichgültig war. Eine spielerische Darbietung hätte da vermutlich auch nicht viel geholfen. Aber bei anderen Menschen mag das ja durchaus anders sein.
Exzellenz für Millionen
Den letzten Vortrag des Abends hielt Hannes Klöpper von iversity. Er stellte die Frage nach der Universität des 21. Jahrhunderts und erzählte viel über die Erfolge der offenen E-Learning Angebote der amerikanischen Ivy League Universitäten wie Stanford und dem MIT, die zu einer Demokratisierung hochwertiger Lehre führen könne. Das sei notwendig, weil sich anders die explosionsartig ansteigende Nachfrage nicht befriedigen liesse.
Im Nachgang zu dem Vortrag kam es zu einigen berechtigten, kritischen Nachfragen.
Wenn diese hochwertigen Kurse umsonst angeboten werden und von jedermann belegt werden können – was bedeutet das für die Zukunft kleinerer Universitäten, wie z.B. Ilmenau oder Kansas State?
Letzlich geht es hier ja um eine Rationalisierung der Hochschulausbildung. Ein sehr berechtigter Einwand war, dass sich so zwar prinzipiell die Qualität der Lehre steigern liesse, es aber wahrscheinlicher ist, dass diese Effizienzsteigerung eher dazu missbraucht würde, weitere massive Einsparungen an den Universitäten durchzuführen.
Einig war sich das Publikum, dass zu einem wissenschaftlichen Studium nicht nur die Aneignung von Faktenwissen, sondern auch der Diskurs mit möglichst guten geistigen Sparringspartnern gehört. Das könne mit diesen Angeboten nicht abgedeckt werden.
Alles in allem war auch dieser Webmontag wieder recht anregend.
Dirk Ollmetzer | Samstag, 3 November 2012 | Gizmos
Gestern Nachmittag setzte ich einen Kopfhörer auf und zog damit quer durch die Tastenabteilung des Musikalienhändlers meiner Wahl in die Kulturbrauerei. Ich stöpselte mich in alle Geräte, die mir irgendwie interessant erschienen, insbesondere bezahlbare Synthesizer. Ich meine damit nicht nicht diese 1000-Fertig Sound Abspielgeräte mit den üblichen Klavier, Bläser und Fläschensounds, sondern diese lustigen Geräte, wo man sich die Klänge noch selber zusammenschrauben kann. Drei davon, die eine lange Ahnenreihe haben, fand ich so interessant, dass ich sie hier mal kurz gegenüberstellen möchte:
Moog Little Phatty
In den 70ern war der Begriff Synthesizer fast gleichbedeutend mit Moog. Die Maschinen – insbesondere der Minimoog – des Amerikaners Bob Moog sind auf unzähligen berühmten Aufnahmen zu hören. In den 80ern schaffte die Firma nicht den Sprung von Analog- auf Digitaltechnik. Im Zuge der Retrowelle der letzten 10 Jahre wollten viele Musiker den fetten Analogsound wiederhaben. Nach etlichen Interpretation und Nachbauten gibt es seit einiger Zeit auch wieder Instrumente von Moog selber. Ich habe das Modell Little Phatty ausprobiert. Einen Eindruck davon kann man in diesem Video eines Frankfurter Musikgeschäftes bekommen.
Waldorf Blofeld
Die Wurzeln der deutschen Firma Waldorf gehen in die frühen 80er Jahre zurück. Die Firma PPG (Palm Products GmbH) brachte mit dem Wave und seinen Nachfolgern Instrumente auf den Markt, die analoge Synthesizertechnik mit digitalen Oszilatoren kombinierte, die gespeicherte Wellenformen abspielten. Dadurch hatten die Geräte einen sehr eigenen Charakter und wurden bei den Produktionen von David Bowie, Trevor Horn, Depeche Mode, Gary Numan, Robert Palmer und vielen anderen Musikern verwendet.
Der Blofeld funktioniert immer noch nach einem ähnlichen Prinzip. Auch hierzu gibt es ein Video, das einen guten ersten Eindruck verschafft.
Roland Gaia SH-01
Die japanische Firma Roland hat ebenfalls eine lange Historie, wohlklingender elektronischer Instrumente, die bis in die 70er Jahre zurückreicht. Der Gaia steht dabei in direkter Linie mit den SH-1 von 1978 und dem berühmten SH-101 von 1983. Auch für den Roland gibt es ein kurzes Video.
Mein Fazit
Die drei Geräte des amerkanisch- deutsch- japanischen Vergleichs haben einige Gemeinsamkeiten: Sie sind für vergleichsweise kleines Geld zu bekommen, klingen toll und haben richtig schöne Hardware. Im Charakter sind sie jedoch sehr unterschiedlich.
Der Moog orientiert sich am deutlichsten an seinem Vorgänger. Er liefert einen fetten, runden Analogsound, bleibt dabei allerdings recht konventionell und mono! Die Bedienung ist semi-analog. Man hat nicht jeden Parameter in direktem Zugriff, sondern braucht manchmal ein- oder zwei zusätzliche Tastendrücke. Dennoch ist die Bedienung der übersichtlichen und gut verarbeiteten Hardware schnell und intuitiv. Mit knapp €1.400,- kostet er doppelt soviel, wie die anderen beiden Geräte.
Der Roland fasziniert mit seiner absolut intuitiven Bedienoberfläche. Er hat kein LCD Display, sondern wird ausschliesslich über Knöpfe, Schiebe- und Drehregler bedient. Der Sound ist sehr gut, auch wenn die Factory Presets für meinen Geschmack ein bischen zu sehr nach Vorstandt-Techno klingen – aber die Virtuell-Analoge Klangerzeugung kann auch anders. Für ein Gerät dieser Preisklasse (ca. €700,-) hat mich die gute Qualität der vielen Regler beeindruckt.
Der Waldorf schliesslich hat den vielseitigsten und bösesten Sound. Das Gerät klingt erheblich teurer, als es mit seinem schmalen Preis von €700,- ist. Leider ist auch die Benutzeroberfläche schmal bestückt. Man findet zwar alles, aber zunächst muss der zu verändernde Parameter ausgewählt werden, bevor man ihn verändern kann. 80er Jahre like. Die komplette Gegenthese zum „Ein Griff und die Hüllkurve sitzt“ Prinzip des Roland.
Dieses Wochenende war Besuchswochenende. Das Jahr neigt sich so langsam dem Ende entgegen und plötzlich kommen viele Bekannte noch mal schnell nach Berlin. Neulich Besucher aus USA und Finnland, dieses Wochenende Besucher aus Argentinien und sogar aus Niedersachsen.
Das Wetter war kalt aber überwiegend freundlich.
Nachmittags gab es leckeren selbstgebackenen Schoko-Topfkuchen, und hier sind noch zwei Bilder von heute.
Seit mindestens einem halben Jahr hat HTC ein Update auf Android 4 für das Desire S angekündigt – und beständig nicht geliefert. Vor kurzem ist es dann doch erschienen. Also habe ich versucht, irgendwo einen Windows-Rechner aufzutreiben und das Telefon geflasht.
Jetzt hat es Android 4.0.4 und die HTC Sense Oberfläche 3.6.
Mein Fazit – Finger weg!
Mal abgesehen davon, dass man den Bootloader entsperren muss um das Update aufzuspielen, was vorsichtigeren Naturen nicht angeraten werden kann, bringt das Update fast nur Nachteile.
An der Bedienung hat sich kaum etwas geändert. Die Benutzeroberfläche sieht sogar eher etwas schlichter aus, als vorher. Ich sehe zwei winzige Vorteilchen:
Jetzt gehört ein Task Manager zum Standard. Schön auch, dass der Android USSD-Bug behoben ist, mit dem präparierte Webseiten GSM-Kurzbefehle auf dem Telefon ausführen können (Siehe Testseite bei Heise.de). Aber das sind Punkte gewesen, die ich sowieso durch zwei kleine Downloads behoben hatte.
Und jetzt, was schlechter geworden ist:
Der Browser: Einerseits hakt er bei vielen Seiten (Twitter, Financial Times…) und zeigt zunächst eine weisse Seite und zum Anderen scheint man die URL-Suggest Funktion nicht abschalten zu können. Toll dass Google jetzt absolut JEDE URL mitbekommt, die ich eintippe. Nein, nicht toll!
Dazu passend lädt jetzt auch der Mail Client IMMER alle Bilder. Schlecht für Geschwindigkeit, schlecht für die Datenmenge und schlecht für die Privatsphäre, weil mittels nachgeladener Bilder die Öffnungsrate gemessen wird. Also schon wieder weniger Kontrolle über meine Daten.
Irgendwie verändert sich Android nicht gerade zum Guten. Zu der Verschlimmbesserung des Browsers und des Mail Clients kommt hinzu, dass jetzt noch mehr sinnlose Apps fest installiert sind, die ich niemals freiwillig nutzen würde. Zum Beispiel das unvermeidlich Dropbox und natürlich die toxischen Zwillinge Twitter und Facebook, die schön die Kontaktdaten abgreifen und versauen. Dafür kann der Kalender noch immer kein CalDAV und Kontakte können immer noch nicht per CardDAV synchronisert werden. Klar – dann bräuchte man ja Google nicht mehr, sondern könnte eigene Services nutzen.
Ach so – Bluetooth ist übrigens auch nochmals schlechter geworden (obwohl man das kaum für möglich hält). Mit der Freisprechanlage im Auto koppelt er gerade noch, aber man bekommt die Fotos nicht mehr auf den eigenen Rechner – weder durch push, noch durch pull.
Was zum Geier reitet die Entwickler eigentlich, eine bereits vorhandene Standardfunktion einfach abzuschalten?
Diese ganze Smartphone-Kacke geht mir mittlerweile so richtig auf den Senkel. Ich will Eure Scheiss Cloud nicht. Ich will, dass meine Daten bei mir bleiben und dass ich entscheide, was auf meinem Computer/Smartphone/whateverdevice installiert ist.
Das ist alles Mist, Mist und nochmal Mist. Apples iOS ist erst recht Mist und Windows Phone – ach, vergiss es. Alles Scheisse – alles kommt aus USA und hat dieselben Macken, was ich nicht für einen Zufall halte.
Ich sehe schon, dass ich demnächst meine Schublade aufmache und die alten Nokias wieder raushole.
[Update] Im zweiten Anlauf hat das Aufspielen von Cyanogenmod 7.2 funktioniert. Bis auf Probleme mit der Kamera läuft nun alles sehr zufriedenstellend. Siehe „Cyanogenmod auf HTC Desire S„
Trevor Horn war mir „nur“ als Produzent extrem knalliger Popsongs aus den 80ern bekannt (Art of Noise, Franke goes to Hollywood, Propaganda,…). Nach über 25 Jahren habe ich heute zwei Dinge gelernt:
Der Mann ist ja tatsächlich richtiger Musiker und hat 1979 mit den Buggles (Video killed the radio star) selber auf der Bühne gestanden.
Einige Songs, die man schnell als Plastikpop abtut, haben es musikalisch ganz schön in sich, wenn man mal genauer hinhört.
Der zweite Punkt wird deutlich, wenn man sich dieses wirklich schöne Video ansieht. Bei den Filmaufnahmen zu „The Producers“ kam die Diskussion auf, ob der Basslauf von Frankie goes to Hollywoods Megahit „Two Tribes“ damals live in einem Stück eingespielt wurde. Kurzerhand schnappte sich Trevor Horn zusammen mit Lol Créme, Stephen Lipson und Ash Soan die Instrumente und los ging es…
Dirk Ollmetzer | Sonntag, 21 Oktober 2012 | Gizmos
Am Freitag zeigte mir ein Kumpel das nagelneue Netbook seiner Freundin. Ein typisches 10″ Gerät von Asus mit 1,6 GHz und 1GB Ram, ausgestattet mit Windows 7. Das Ding sei so lahm, dass man nicht damit arbeiten kann, meinte er. Ich habe mir das Ganze mal angesehen und auf die typischen Schwachstellen abgeklopft: Unnötige Hintergrundprozesse, Vorinstallierte Bloatware usw.
Aber an der Stelle war nicht mehr viel zu optimieren. Als ich dann den Firefox öffnete um probeweise mal Spiegel aufzurufen, haben wir spontan eine kurze Kaffepause eingelegt. Ich musste Ihm Recht geben – so ist das Gerät einfach unbrauchbar. Das Problem liegt natürlich darin, dass Windows 7 einfach viel zuviel Ressourcen verbraucht, um auf so einem kleinen Rechner akzeptabel zu laufen.
Die Lösung hiesse Linux – aber welches?
Zu Hause angekommen machte ich mich auf die Suche nach einer geeigneten Linux Distribution. Früher mochte ich Ubuntu ganz gerne, aber mit der aktuellen Benutzeroberfläche werde ich nicht warm und mittlerweile verbraucht das Ganze ausserdem zuviele Ressoucen. Auf meinem Lenovo Thinkpad X121e habe ich Mint 12 installiert (aktuell ist 13) und bin im Großen und Ganzen auch recht zufrieden, bloss die Benutzeroberfläche würde ich mir etwas schlichter wünschen.
Und da kommt LXDE ins Spiel – ein schlanker Desktop Manager für Linux, der schnell ist und mit wenig Speicher auskommt. Spannenderweise gibt es ein entsprechend angepasstes Ubuntu Release namens LUBUNTU. Ich habe das aktuelle 12.10 ISO Image runtergeladen und mit UNetbootin auf einen USB Stick geschrieben. Thinkpad Bootreihenfolge geändert und das Live Image gestartet.
lubuntu - frisch gestartet
Blam – selbst direkt vom Stick läuft das System sehr flüssig. Was daran liegt, dass neben dem schlanken LXDE nur Software vorinstalliert ist, die von Hause aus schnell ist. Der Standardbrowser ist zum Beispiel Chromium. Aber am wichtigsten ist: Dank Ubuntu Unterbau lief alles out of the Box: Grafik, WLAN, Bluetooth. Nur im ALSA Soundtreiber musste noch die richtige Hardware ausgewählt werden (ein Dropdown-Feld). Zudem hat man natürlich das ganze Ubuntu Repository zur Verfügung. Das Nachinstallieren von Standardanwendungen (Office, Gimp,…) geschicht problemlos per Mausklick.
lubuntu - schneller Desktop, schneller Browser
lubuntu - leicht zu ergänzen
Ich bin beim Test nun nicht in die Tiefe gegangen, aber mein erster Eindruck ist gut. LUBUNTU ist eine ganz hervorragende Möglichkeit, ein ansonsten unbrauchbares Stück Hardware zu einem nützlichen Mitglied unserer Gesellschaft Werkzeug zu machen.
Dirk Ollmetzer | Mittwoch, 10 Oktober 2012 | Development
Das Thema des 68. Webmontags in Berlin lautete “Tech. Architectures (from Dev’s to Dev’s)“. Es ging um skalierbare IT Architekturen für webbasierte Anwendungen. In den Räumen der Mobile Suite in der Pappelallee in Prenzlauer Berg gab es drei interessante Vorträge von Berliner Startups zu hören.
Grosse Spielwelten
Knut Nesheim von Wooga sprach im ersten Vortrag von den Herausforderungen, die speziell Simulationsspiele für die Backend IT darstellen. Im Gegensatz zu einfacheren Casual und Mobile Games, die meist noch auf LAMP-ähnlichen Software Stacks laufen, ist hier das ständige Aktualisieren von Statusdaten die wichtigste Herausforderung. Interessanterweise läuft selbst bei solch komplexen Spielen die Kommunikation zwischen Client und Server auf Basis von HTTP.
Das beständige Aktualisieren der Daten durch die Clients verbietet den Einsatz einer Datenbank, da ein Cluster mit den ununterbrochenen Schreib- und Synchronisationsvorgängen überforderte wäre.
Wooga setzt stattdessen einen in Erlang programmierten Applicationserver ein, der pro User einen eigenen Prozess im Speicher hält, wobei jeder User seine eigene Maps hat. Die Antwortzeit liegt so bei bemerkenswerten 1ms. Pro Server können bis zu 20.000 Spieler aktiv sein, wobei die Maschinen nie bis an die Leistungsgrenze gefahren werden. Zu Beginn eines Spiels fragt der Client nach einem Server und Prozess und bleibt bei diesem (stickiness). In kurzen Zeitintervallen wird der Status des gesammten Spiels auf eine Datenbank gesichert.
Entkopplung von Drittsystemen
Im zweiten Vortrag stellte Francis Varga von Cloudpark die für die technisch weniger anspruchsvollen Casual Games von Cloudpark verwendete IT Architektur vor. Die Server sind in PHP programmiert, wobei die Daten für das Spiel und das Tracking in getrennten CouchDB Instanzen verwaltet werden. Die grösste Herausforderung für Cloudpark liegt in der Anbindung externer Dienste, wie E-Mail versenden, Facebook Social Graph API usw. Hier liegen die Antwortzeiten zwischen 300ms und 3s; im Schnitt bei 900ms.
Cloudpark setzt zur Entkopplung von Spiel und externem Service auf einen „Railgun“ genannten Server. Dieser nimmt die Anfragen des Applicationservers entgegen. Hier wird pro Anfrage ein Job im Beanstalk Daemon gestartet, der jeweils einen Job im AWS (Amazon Web Service) verwaltet.
Wer nicht misst, misst Mist
Im letzten Vortrag erzählte Bastian Hoffmann von ResearchGate viel über KPIs, Tracking und Monitoring. Interessant fand ich die Aussagen, dass man sich zu Beginn noch nicht ganz klar war, was das Ziel jeder einzelnen Seite sei und deshalb die KPIs nicht definieren und messen konnte. Erst wenn dies geschehen ist, kann man den Erfolg messen und herangehen, jede einzelne Seite in A/B Tests zu optimieren, wobe diese Tests serverseitig ausgespielt werden.
Research Gate nutzt im Grossen und Ganzen eine typische Web-Architektur mit Load-Balancer, Cluster von Application Servern, server- und clientseitigem Tracking. Technische Besonderheiten in meinen Augen waren der Einsatz von ActiveMQ zur zeitlichen Entkopplung von Aktionen und die Tatsache, dass die Ausgabe im Frontend in kleine, verschachtelte Komponenten unterteilt ist, die jeweils eine eigene URL haben und sämtlichen, benötigten Javascriptcode mitbringen. So können bestimmte Seitenteile bequem nachgeladen werden (z.B. beim Blättern von Veröffentlichungen in einem Nutzerprofil). Eine angefragte HTML-Seite wird aber trotz Modularisierung aus Performancegründen in einem Stück ausgeliefert.
Fazit
Alles in Allem war es ein recht informativer Abend, bei dem für drei sehr unterschiedliche webbasierte Anwendungen jeweils passende Systemarchitekturen vorgestellt wurden.
Ich gehe derweil mal kotzen. Nicht wegen der Wiedervereinigung – die finde ich trotz aller Schwierigkeiten immer noch gut. Was mich wütend, ohnmächtig und traurig macht, ist der Weg auf dem sich dieses Land befindet. Der innere Zustand. Was ich damit meine, mache ich mal an einem aktuellen Beispiel fest: Dem Ausgang der Verfassungsbeschwerde zur GEZ Pflicht.
Die Urteilsbegründung kann man nur noch als haarsträubend bezeichnen. Ich bin bei nahezu jeder einzelnen Aussage genau entgegengesetzter Meinung. Es fand scheinbar überhaupt keine Abwägung statt. Das Urteil klingt, als wäre es von den Hausjuristen der Landesmedienanstalten geschrieben worden. Mal abgesehen von dem unglaublichen Stuss, ein PC sei ein Rundfunkempfangsgerät, der schlicht und einfach technisch falsch ist finde ich interessant, dass das Gericht zwar durchaus anerkennt, dass der Klagende in seinen Grundrechten behindert wird – das aber letztlich egal sei.
WOW! Etwas zugespitzt sagt das Bundesverfassungsgericht: „Grundrechte? Scheiss drauf!“
Warum? Geht es hier um Fragen der nationalen Sicherheit? Steht der Fortbestand Deutschlands auf dem Spiel? Bei dem neulich verkündeten, ebenfalls durchaus nicht unumstrittenen Urteil zur Rechtmässigkeit des sogenannten Euro-Rettungsschirms kann man ja durchaus noch von Staatsräson ausgehen, weil die Folgen für die europäische Volkswirtschaft bei einem anderen Ausgang unabsehbar wären.
Nein, hier geht es nur um die blöde Glotze. Genauer gesagt geht es um ein System, das irgendwas zwischen 7 und 9 Mrd Euro pro Jahr einnimmt und dabei da Facto keiner echten Kontrolle oder Rechfertigung unterliegt. Das Urteil, so das BVerfG sei nötig, um „Die Flucht aus den Rundfunkgebühren“ zu stoppen.
Ja guck mal – genau darum geht es eigentlich. Selbst über den eigenen Medienkonsum und den eigenen Geldbeutel bestimmen zu können. Und das darf ich offensichtlich nicht, obwohl es im GG steht. Wo kämen wir denn hin? Möglicherweise würde ich dann mit dem Geld auch noch etwas sinnvolles anfangen, oder mir gar eine echte eigene Meinung bilden. Ganz nebenbei wird so über den ökonomischen Hebel übrigens auch effektiv die Bildung einer echten, unabhängigen Medienberichterstattung behindert. Wie praktisch!
The big picture
Aber dieses Urteil – so ärgerlich es ist – ist letztlich nur ein Mosaiksteinchen in einem grossen, hässlichen Bild. Und dieses Bild ist, dass sich Organisationen ALLES herausnehmen können, jederzeit unbegrenzten Zugriff auf unser Geld haben und Bürgerrechte – falls überhaupt – nur noch auf dem Papier stehen, aber de facto nicht mehr durchsetzbar sind. Passend dazu sei auf die jüngsten Beschlüsse des Deutschen Juristentags im Bereich Strafrecht verwiesen. Anonymität? Ist strikt abzulehnen. Totalüberwachung der Kommunikationswege ist unabdingbar usw…
Starker Tobak!
Das entspricht wiederum nur konsequent die Haltung, die alle westlichen Staaten seit dem Zusammenbruch des Ostblocks in tausenden kleinen Entscheidungen, Gesetzen und im Handeln zeigen: Weg mit Bürgerrechten, Einrichtung totaler Überwachung jeder Bewegung, ständig erweiterte Sonderrechte für Militär und Sicherheitsapparate usw.
Ich erinnere mich noch, wie wir in der Schule beim Thema Drittes Reich gefragt haben, wie es passieren konnte, dass ein Staat in die Diktatur abkippt. Die Antwort war damals: Weil es weite Teile der Funktionselite (Justiz, Verwaltung,…) so wollte und es der Bevölkerung bis auf wenige egal war.
So, ich gehe jetzt mal Luft holen. Wer Zynismus in meinem Artikel findet, darf ihn übrigens gerne behalten und mit nach Hause nehmen.