tiny little gizmos

4032

Auf dem letzten Vintage Computing Festival hat mir Mario von einem Commodore 4032 erzählt, von dem er sich trennen wollte. Er wollte ihn nicht einfach an den meistbietenden auf Ebay verkaufen, sondern sicher sein, dass er in gute Hände kommt. Ich hatte zwar starkes Interesse, aber leider keinen Platz. Ein alter Freund von mir hatte hingegen noch Platz neben seinem gepflegten Vectrex (=gute Hände). Wir haben abgemacht, dass der Rechner bei ihm stehen wird und ich mich um die Programmierung kümmern soll. So sind wir schließlich zu dritt Handelseinig geworden.

Es kam dann noch reichlich Alltag dazwischen, weil das gute Stück nicht gerade um die Ecke, sondern im Berliner Umland stand. Heute war es dann endlich soweit und ich konnte das historische Maschinchen aus dem Jahr 1980 abholen.

Commodore 4032 als Beifahrer

Commodore 4032 als Beifahrer

Bei dem Rechner handelt es sich um die amerikanische Version, was am Namen „PET 4032“ erkennbar ist. In Deutschland wurde aus markenrechlichen Gründen der Name „CBM 4032“ verwendet. Abgesehen vom Namen und der unterschiedlichen Betriebsspannung gibt es keine Unterschiede, denn die Rechner gab es nur mit amerikanischer Tastatur.

PET 4032 aufgestellt

PET 4032 aufgestellt

Der Grünmonitor hat stattliche 12″ Diagonale. Es gab das Modell auch mit einer kompakteren 9″ Bildröhre. Das Bild ist auch nach 37 Jahren noch immer scharf und stabil. Das Metallgehäuse weist keinen Rost auf, die Platine war etwas staubig aber in bester Verfassung. Lediglich einige Tasten möchten mit etwas Nachdruck gedrückt werden.

Dem Rechner in den Speicher geschaut

Dem Rechner in den Speicher geschaut

Nach dem Einschalten ist der Rechner nach 2 Sekunden betriebsbereit und wartet auf Basic Befehle. Mit dem Aufruf von SYS40960 kann man das nachgerüstete Monitorprogramm aufrufen und sich direkt im Speicher tummeln. Jetzt fehlt nur noch ein geeignetes Speichermedium und der Spaß kann beginnen…

Semi-Retro-Nerd-Zeugs: Ein Königreich für ein Terminal

Im letzten Jahr habe ich mir die tolle Replika der PDP-8 von Oscar Vermeulen gekauft und zusammengebaut (siehe „Semi-Retro-Nerd-Zeugs: Die PiDP-8 mit OS/8„). Das Gerät ist hübsch und niedlich, aber eines hat mich gestört: die Benutzung per Terminalprogramm auf einem normalen PC. Das funktioniert zwar ganz hervorragend, ist aber nicht stilecht. Wenn schon Retro, dann richtig. Ein Terminal muss her. Richtig cool wäre ein Fernschreiber, aber dafür habe ich einfach keinen Platz und die Dinger sind höllisch laut. Ein Videoterminal wäre auch toll, aber schwer zu bekommen und auch noch zu groß.

Da hatte ich die Idee, mir selber ein kleines, kompaktes Terminal zu bauen: Ein Raspberry Pi mit kleinem Display und kompakter Tastatur. Dazu das Programm Cool Retro Term – und schon käme etwas „Damals“-Feeling auf. Die Datenübertragung per Ethernet ist O.K, weil ich in die PDP auch keine serielle Schnittstelle eingebaut habe.

Gesagt, etwas nachgedacht und getan. Ich hatte einen Raspberry Pi 3 mit dem offiziellen 7″ Touchscreen zu Hause rumliegen und habe mich daran gemacht, ein erstes Mockup aus braun kaschierter Pappwabenplatte zu bauen. Die Pappe ist tatsächlich gut geeignet: Superleicht und stabil, leicht zu bearbeiten aber die Kanten müssen mit Klebeband ummantelt werden, damit nicht alles so ausgefranst aussieht.

Material und Werkzeug

Das fertige Gehäuse ist 32cm breit, 45cm tief und ca. 23cm hoch. Damit ist es ungefähr so groß wie ein BTX– oder Minitel-Terminal aus den 80ern. Dafür benötigte ich eine 1cm starke Platte in der Größe 100 x 75 cm. Als Werkzeug dienten mir ein scharfer Cutter, ein Stahllineal und eine Schneideunterlage. Als Kleber nahm ich Ponal, das Abdeckband wurde zum Fixieren und Tesa eco zum Umrändeln der Kanten verwendet.

Gehäusezuschnitt

Gehäuserohbau

Nachdem die Teile ausgeschnitten waren, habe ich die Passgenauigkeit der Tastatur und des Bildschirms geprüft und anschließend das Gehäuse zusammengeklebt.

Die eigentliche Technik: übersichtlich

Die Technik ist sehr übersichtlich: Eine USB Kompakttastatur, das Display mit fest montiertem Raspberry Pi und ein 2,4A USB Netzteil. Das Ganze habe ich in das Gehäuse eingesetzt und die Kanten mit Tesa eco ummantelt. So sieht das Gerät nun aus:

Das 7″ Terminal

Natürlich kann man vieles besser machen: Holz oder Kunststoff als Gehäusematerial, ein größeres Display, sauberes Herausführen von Anschlüssen, eine „richtige“ mechanische Tastatur und so weiter.

Das Terminal sieht recht grob gestrickt aus, aber es funktioniert, hat Charme und für einen ersten Prototyp bin ich recht zufrieden.

Leider hat der Versuch das Programm Cool-Retro-Term auf dem Raspi zum Laufen zu bringen, nicht richtig funktioniert. Das Compilieren ging problemlos, aber der Start bricht mit einer Fehlermeldung ab. Daher erst einmal Plan B:

Den Raspi startet anstatt auf der grafischen Nutzeroberfläche direkt auf der Konmandozeile (kann man in raspi-config einstellen). Leider ist die verwendete Schrift etwas klein. Um noch etwas authentischer zu sein, hätte ich gerne einen „typischen“ Textmodus. Man kann mit folgendem Programm den Textmodus einstellen:

sudo dpkg-reconfigure console-setup

Beim Durchblättern der Optionen habe ich die Kodierung auf UTF-8 belassen, ebenso wie „vermutlich optimaler Zeichensatz“. Die Schriftart habe ich auf Terminus Bold geändert, weil hierfür die benötigte Schriftgröße zur Verfügung steht. Standardmäßig wird 8×16 genutzt, aber ich habe 10×20 (nur Framebuffer) eingestellt. Das Terminal zeigt nun stilechte 80×24 Zeichen an und die Schrift erinnert an alte VGA Grafikkarten.

Semi-Retro-Nerd-Zeugs: Die PiDP-8 mit OS/8

Wenn man sich wie ich schon in den frühen 80er Jahren mit Heimcomputern beschäftigt hat, gehört man bereits zu den Veteranen des Digitalzeitalters. Dennoch ist mir in den letzten Jahren immer stärker klar geworden, dass ich kaum Ahnung von den Rechnern habe, die vor dieser Zeit im Einsatz waren. Das hat natürlich auch damit zu tun, dass es nicht allzuviele Geräte aus der Computerfrühzeit gibt. Die Stückzahlen waren damals noch sehr gering und es haben auch nicht viele Maschinen überlebt, weil es extrem aufwändig ist, solch alte Geräte lauffähig zu halten.

Als ich auf dem Vintage Computing Festival 2014 endlich zwei der legendären Computer der Firma Digital Equipment in Natura im Betrieb sehen konnte, war ich daher schwer fasziniert. Es wurden damals eine sehr stylische 12-Bit PDP-8/e aus dem Jahr 1970 mit VT-05 Videoterminal und die 16-Bit PDP-11/34 aus dem Jahr 1976 mit Teletype 33 ASR Terminal vorgeführt.

Damals war auch schon Oscar Vermeulen dabei, der einen Bausatz für eine Mini-Replika der PDP-8/i entwickelt hatte. Das Gerät sieht fast genauso aus, wie das Original, ist allerdings erheblich kleiner und hat einen sehr hohen Niedlichkeitsfaktor. Die Bedienung ist tatsächlich genauso, wie beim Original und man kann natürlich die alte Software aus den 60er und 70er Jahren laufen lassen. Beim diesjährigen VCFB habe ich mich dann endlich dazu durchgerungen, Oscar einen dieser mittlerweile weiterentwickelten Bausätze abzukaufen – für den Nerd-Preis von 2 hoch 7 Euro (€128).

Vier Wochen später ist es soweit: Meine PiDP-8 läuft und ich habe die ersten Stolperschritte im Betriebssystem OS/8 gemacht. Die Ein- und Ausgabe auf einem Laptop erfolgt stilecht über Cool-Retro-Term im Look eines VT-05 Terminals.

PiPD-8 mit Terminal

PiPD-8 mit Terminal

Weshalb der Name PiDP-8 anstatt PDP-8? Der Bausatz ist eigentlich gar kein Computer, sondern nur „Blinkenlights“ – also das Frontpanel mit LEDs und Eingabetastern. Dazu wird noch ein Raspberry Pi benötigt, auf dem die Software SimH läuft, die die eigentliche Rechneremulation ausführt. Trotzdem bleibt noch genügend Bastelei übrig.

Zunächst sollte mal den Raspberry Pi und die Software vorbereiten. Dazu benötigt man den Raspberry Pi, eine Micro SD Karte, einen SD-Karten Adapter, einen USB Speicherstick, einen Computer mit SD-Karten Steckplatz, ein USB Ladegerät, eine Tastatur, eine Maus und einen Bildschirm. Ich habe den Raspberry Pi einfach per HDMI an den Fernseher angeschlossen. Wenn alles läuft, braucht man Tastatur, Maus und Bildschirm nicht mehr.

Raspberry Pi vorbereiten

Raspberry Pi vorbereiten

Auf der PiPD-8 Homepage werden zwei Varianten beschrieben, wie man die Software zum Laufen bekommt. Variante 1 ist das Image einer fertigen PDP-8 Distribution und in Variante 2 wird die Software auf einer normalen Raspbian Dsitribution installiert.

Empfehlen kann ich nur Variante 2. So benötigt der Rechner zwar 30 Sekunden anstatt 10 Sekunden zum Starten, lässt sich aber wie gewohnt einrichten und anpassen. Bei der Fertigdistribution hatte ich Probleme mit Tastatur, Netzwerk und Systemaktualisierung.

Nachdem die PDP-8 Emulation läuft, kann man sich an das Basteln der Hardware machen. Dazu benötigt man neben dem Bausatz vor allem Lötkolben, Lötzinn, Seitenschneider und für das Gehäuse Bohrmaschine, Laubsäge, Feile und feine Kreuzschlitzschraubendreher.

Fertig zum Löten

Fertig zum Löten

Wichtig ist, die Anweisung genau zu lesen. Es gibt einige typische Stolperfallen, in die man sonst leicht tappen kann:
Vorder- und Rückseite des Boards verwechseln, Dioden und LED mit falscher Polung oder Sockelleisten falsch einlöten, Schaltertypen verwechseln usw..
Davon abgesehen ist der Bausatz einfach, und auch für einen Hardwarelegastheniker wie mich machbar.

Tip: Achtet auf richtiges Werkzeug. Ich habe mir extra einen neuen Lötkolben mit feiner Spitze besorgt. Der auf dem Foto gezeigte war wenig geeignet.

Tag 1: Dioden, Widerstände und erste LEDs sitzen

Tag 1: Dioden, Widerstände und erste LEDs sitzen

Wenn man vernünftiges Wekzeug hat, jedes Teil dorthin setzt, wo es hin muss, man auf die kleinen Stolperfallen achtet und Lötbrücken und kalte Lötstellen vermeidet, kann eigentlich nichts schief gehen. Der Rest ist Fleißarbeit: für 26 Dioden, 15 Widerstände, 89 LEDS, einen IC Sockel, eine Stiftleiste und 26 Schalter braucht man schon ein wenig Zeit. Ich habe das Board an drei Tagen zusammengelötet.

Tip: Zwischendurch immer mal prüfen, ob die LED und die Schalter gerade sitzen, indem man das Board hinter das Frontpanel hält

Tag 3: Das PiDP8 Board ist fertig

Tag 3: Das PiDP8 Board ist fertig

Nachdem ich das Board fertiggebaut und den Raspberry Pi auf der Rückseite montiert hatte, lief zu meiner großen Freude alles ohne Probleme. Damit hatte ich eigentlich gar nicht gerechnet.

Ich hatte allerdings auch nicht damit gerechnet, dass die größten Schwierigkeiten beim Einbau des Rechners in die Bambusholzkiste auftreten würden. Als ich das Loch an der linken Gehäuseseite für Ethernet und USB heraussägte, splitterte der Bambus, die große Holzleiste hinter den Schaltern ließ sich nicht mit den 9,5mm Schrauben befestigen, weil diese nicht in das Montageloch unter den Schaltern eingeführt werden konnte und fast alle Micro-USB Kabel, die man für die Stromversorgung braucht, waren zu lang und unflexibel um in die Kiste eingebaut werden zu können. Ein Kabel, das oben aus der Kiste herausragt, wollte ich aber nicht haben.

Aber wenn man schon mal so weit ist, lässt man sich von solchen Kleinigkeiten nicht aufhalten. Der Rechner sitzt jetzt im Gehäuse und sieht aus, wie ich ihn mir vorgestellt hatte. Jetzt kann ich mich durch fast 50 Jahre alte Dokumentation bei Bitsavers durchwühlen, um den Umgang mit der Maschine zu lernen. Und nächstes Jahr baue ich dann die PiDP-11/70… :-D

PiDP-8: fertig und läuft

PiDP-8: fertig und läuft

Langes Nerd Weekend

Der Tag der Deutschen Einheit hat uns Anfang Oktober zu einem langen Wochenende verholfen, das Wetter schwenkte aber nun endgültig in Richtung Herbst.

In Berlin gab es für Nerds zwei Veranstaltungen, an denen man sich die Zeit vertreiben konnte: Die Maker Faire hatte ihre Publikumstage am Samstag und Sonntag und das Vintage Computing Festival am Sonntag und Montag.

Maker Faire Berlin 2016

Die Veranstaltung fand in der Station am Gleisdreieck statt. Ich besuchte sie zum ersten Mal und ich wusste im Vorfeld noch nicht so recht, was ich davon halten sollte, obwohl ich natürlich das Eine oder Andere im Vorfeld gelesen hatte.

Maker Faire in der Station Berlin

Maker Faire in der Station Berlin

Gut besucht

Gut besucht

In zwei Hallen ging es im Prinzip darum, Leute fürs Selbermachen zu interessieren, inspirieren und zum Kauf von entsprechenden Materialien und Werkzeugen zu bewegen. Es gab Stände, die handwerkliche Dinge zeigten, wie Bootsbau mit selbstgebogenen Hölzern, textiles Gestalten, Ringe schmieden usw. Der Schwerpunkt lag aber auf elektronischen Basteleien, 3D Druck, Lasercutter und Robotik.

R2-D2 in Aktion

R2-D2 in Aktion

Der R2-D2 Builders Club zeigte mehrere, sehr realistisch anmutende „Androiden“, teilweise in Aktion und in verschiedenen Montagestufen. Dennoch kann man hier eigentlich nicht von Robotern sprechen, da es sich am Ende doch „nur“ um ferngesteuerte Robotermodelle handelt.

Nao Roboter

Nao Roboter

Der knapp 60cm große Nao von Aldebaran Robotics ist hingegen ein echter autonomer, humanoider Roboter. Er war massenweise auf der Maker Faire vertreten, weil hier mehrere Mannschaften im Robo-Cup gegeneinander antraten.

Robocup

Robocup

Man konnte hier einen netten Nachmittag verbringen, wobei ich die eigenartige Kombination aus „wir zeigen mal, was wir tolles machen“, „probier mal selber“ und „hier kannst Du Werkzeug und Material kaufen“ immer noch seltsam finde. Da ich regelmäßig thematisch entsprechende Websites (Hackaday, Adafruit, Make:,…) besuche, hat mich allerdings inhaltlich nichts wirklich überrascht.

Familien, die ihre Kinder spielerisch an den Umgang mit Technik und vor allem an die Idee heranführen wollen, dass man Dinge auch selber bauen kann, anstatt sie fertig zu kaufen, sind hier richtig gewesen.

Vintage Computing Festival 2016

Wie auch schon in den letzten Jahren fand im Pergamon Palais der Humboldt Universität Berlin das Vintage Computing Festival statt. Es gab auch in diesem Jahr wieder Vortäge, viele interessante Exponate, einen Game Room, in dem Spiele auf diversen alten Videospielen und Computern gespielt werden konnten und eine Party mit Chiptunes.

Die gezeigte Hardware fand ich im Vergleich zu den Veranstaltungen in den letzten Jahren vom Umfang insgesamt etwas schwächer, obwohl auch wieder einige originelle Highlights gezeigt wurden. Beispielhaft sei ein selbstgebautes Vectordisplay genannt, auf dem man u.a. Mazewar (einem Multiplayer, First Person Shooter aus dem Jahr 1974!) und das Vectrex Spiel Minestorm bewundern konnte.

MazeWar auf selbstgebautem Vectordisplay

MazeWar auf selbstgebautem Vectordisplay

Die TU Berlin war ebenfalls wie in den letzten Jahren mit selbstgebauter Hardware vertreten: Diesmal mit dem Space Age II, einem 32-Bit-Computer, dessen CPU aus 490 TTL-Bausteinen aufgebaut ist und eine MIPS 1 kompatiblen Befehlssatz unterstützt.

Space Age 2 TTL Computer

Space Age 2 TTL Computer

 

Für mich waren in diesem Jahr die Vorträge interessanter. An der „Kurztagung „Hello, I’m ELIZA.“ – Zum 50. Geburtstag eines Chatbots“ habe ich leider nicht teilgenommen. Das war insofern schade, als Chatbots ja momentan von den großen Treibern aus den USA (Google, Facebook, Amazon, Apple, Microsoft,…) zum „next big thing“ hochgepusht werden. Ich bleibe da eher etwas skeptisch.

Sehr beeindruckt hat mich der Vortrag „Spracherkennung mit dem Z9001„, in Volker Pohlers zeigte, wie in den 80er Jahren in der DDR mit unglaublich geringen Mitteln eine rudimentäre Sprachsteuerung (50 gesprochene Befehle) entwickelt wurde.

Wolfgang Stief führte seine interessante Vortragsreihe über den „Vater des Supercomputings“ unter dem Titel „Defining Supercomputing – Seymour Cray und die CDC 6600“ weiter. Zu der etwas desolaten Raumsituation der Großcomputersammlung Sammlung in München gab es leider nichts Neues. Die Halle ist noch immer gesperrt und der Ersatz nicht fertiggestellt.

Aber auch die robuste 8-Bit Technik der 70er Jahre wurde wieder ausführlich behandelt. Hans Franke referierte nach etwas holperigem Start über Vor- und Nachteile der Speicherorganisation typischer 8-Bit Computer.

Dr. Frederik Holst erzählte in seinem Vortrag „Die inneren Werte zählen – Perspektiven- und Paradigmenwechsel beim Übergang von Hoch- zu Maschinensprache“ von seinen Schwierigkeiten, Maschinensprache zu lernen. Hochsprachen sind problemnah (z.B. „Zeichne ein Kreis auf den Grafikbildschirm“), was sie zunächst verständlicher macht, obwohl es viele unterschiedliche Befehle gibt. Maschinensprache hat im Vergleich dazu nur sehr wenige Befehle (z.B. „Schreibe Wert X in Speicherstelle Y“). Allerdings muss man die Hardwarearchitektur des Rechners bis ins Detail verstehen und sich selber um jedes winzige Detail kümmern. Es ist also eine vollkommen andere Sicht auf das Problem und den Computer nötig.

Ich hatte noch eine Diskussion mit Wolfgang Stief zum Thema Software auf Großrechnern. Zwar ist es fantastisch, dass sich Menschen finden, die die alten Rechendinosaurier funktionsfähig halten, aber mir fehlen die Anwendungen. Wie will man den Sinn und Zweck der alten Technik demonstrieren?

Während es für die alten Heimcomputer massenhaft Spiele gibt, die katalogisiert und gesammelt werden, und die für die ersten PCs typischen Softwarepakete, wie Wordstar und Visicalc (trotz der rechtlich problematischen Situation) verfügbar sind habe ich noch keine Software für Grossrechner gesehen. Wo sind die Buchhaltungs- und Bankprogramme? Wo ist Software zur Wettervorhersage und zu Crashtests? Hier hat die Medienarchäologie noch ein weites Feld zu beackern.

Der VCFB hat für mich ein wenig den Charakter eines Klassentreffens. Einerseits, weil man mittlerweisle viele der Aktiven kennt, andererseits auch wegen dem robusten Do-it-yourself Charme der Veranstaltung. Dabei meine ich ausdrücklich nur das Ambiente, denn was der Fachbereichs Medienwissenschaften der HU Berlin zusammen mit dem Hackerspace AFRA und der technischen Unterstützung des Chaos Computer Clubs hier seit Jahren auf die Beine stellt ist bemerkenswert professionell organisiert. Leider fand das VFCB in diesem Jahr zum letzten Mal in den Räumen der Humboldt Universität statt. Im nächsten Jahr wird dafür das Technikmuseum Berlin Räumlichkeiten auf seinem Gelände am Gleisdreieck zur Verfügung stellen. Man darf gespannt sein.

Digital ist besser – aber nicht immer

Während manche Leute riesengroße Touchscreens in Autos wie dem Tesla Model S für tollen modernen Kram halten, sind andere Branchen schon wieder ein paar Jährchen weiter. In Bereichen, die bereits seit Jahren oder Jahrzehnten digitalisiert sind und wo es für die Nutzer auf schnelle und intuitive Bedienung ankommt, sind digitale Benutzeroberflächen schon längst wieder auf dem Rückzug, weil sie zu sperrig in der Bedienung sind.

Ein Beispiel sind Musikinstrumente. Der Siegeszug der digitalen Klangerzeugung bei Synthesizern in den 80er und 90er Jahren führte zu Benutzeroberflächen mit Displays und wenigen Knöpfen. Aktuelle Modelle dagegen strotzen wieder vor Drehknöpfen und Schiebereglern, die den Musikern eine virtuose, „blinde“ Bedienung überhaupt erst ermöglichen.

Digitale Technik ist toll, digitale Bedienung aber nicht

Ein anderes Beispiel sind Fotoapparate. Auch hier gibt es einen Trend zurück, den manche als Retrowelle missverstehen. Ich hatte mir vor fünf Jahren eine spiegellose Systemkamera im Micro-Four-Thirds Standard gekauft: Eine Panasonic Lumix DMC-GF2. Ausschlaggebend waren gute technische Werte, hohe Bildqualität, gute Verarbeitung und ein Standard, der von mehr als einem Hersteller unterstützt wird zu einem attraktiven Preis.

Allerdings sind wir nie so richtig miteinander warm geworden. Die Kamera hat zwar 1000 Möglichkeiten, die sind aber alle irgendwo in -zig Untermenüs verteilt. Wenn man etwas verstellen will, muss man auf das Display gucken. In der Zeit ist dann das Motiv weg. Das hat dazu geführt, dass ich eigentlich nur im Automatikmodus fotografiert habe. So eine Kamera holt man sich aber eigentlich nicht nur zum „knipsen“.

Bei meinem Besuch auf der Festung Suomenlinna bei Helsinki ist mir 2013 eine komplette Fotoserie durch einen verstellten Weißabgleich unrettbar verlorengegangen. Irgendwie war ich aus Versehen in das Menü gekommen und hatte die falsche Grundeinstellung nicht mehr bemerkt. Danach war ich so verstimmt, dass ich die Kamera nicht mehr angefasst habe.

Die analogste Digitalkamera, die ich je angefasst habe

Vor ungefähr einem halben Jahr bin ich ziellos durch ein Geschäft geschlendert und habe dabei die Olympus OM-D E-M 10 Mark II entdeckt. Ich habe sie spontan in die Hand genommen, weil sie so niedlich und Retro aussah. Ungefähr wie eine Olympus OM aus den 70ern und 80ern – bloß viel kleiner. Interessanterweise ist das ebenfalls eine Micro-Four-Thirds Kamera und somit systemkompatibel zur Panasonic mit vergleichbaren technischen Eckwertern.

 

Olympus OM-D E-M 10 Mark II

Olympus OM-D E-M 10 Mark II


Mein Interesse war geweckt, ich habe Tests gelesen, Beispielfotos angesehen und das Teil noch ein paar mal in die Hand genommen. Nach langem hin- und her habe ich sie nun in einem Berliner Fachgeschäft gekauft.

Nicht weil sie niedlich ist, sondern weil sie sich unheimlich gut bedienen lässt.

Bei der Olympus lässt sich alles Wichtige mit den drei Rändelrädern extrem schnell und vor allem blind einstellen. Zudem hat sie zusätzlich zum normalen Display auf der Rückseite einen sehr guten elektronischen Sucher. Die Raterei, was man eigentlich aufnimmt, während von hinten die Sonne auf das Display fällt, ist mit diesem Gerät jedenfalls kein Problem. Das Spiel mit Schärfentiefe, Belichtungsspielereien, wie Bewegungsunschärfe usw. klappten nach wenigen Minuten, ohne das Handbuch bemühen zu müssen. Das ist insofern praktisch, als auch gar kein richtiges Handbuch in der Packung lag, sondern nur ein Schnelleinstieg in ca. 725 Sprachen.

Keine Besserwisserei des Geräts

Ein weiterer Vorteil gegenüber der Panasonic ist, dass die Olympus nichts automatisch und ungefragt wegkorrigiert. Zwei Beispiele:

  • Wenn man mit der Panasonic versucht hat ein Portrait aufzunehmen, war es nahezu unmöglich die Tiefenunschärfe einzustellen um den Hintergrund unscharf zu bekommen, weil auf dem Display einfach das komplette Bild scharfgerechnet angezeigt wurde. Die Olympus zeigt die Tiefenunschärfe im Display richtig an.
  • Das Aufnehmen von tollen Farben von Himmel und Wolken bei Sonnenuntergang hat mit der Panasonic regelmässig nicht geklappt, weil eine automatische Helligkeitskorrektur alles auf 60% Standardbelichtung „korrigiert“ hat. Mit der Olympus hat das hingegen bereits im Automatikmodus gut funktioniert. Und eine Belichtungsreihe mit Blendenautomatik war in 10 Sekunden im Kasten.

Fazit: Nix mit Retro – digitale Technik und analoge Bedienung ist die ideale Kombination

Bei beiden Kameras sind die technischen Eckdaten aufgrund des gemeinsamen Micro-Four-Thirds Standards vergleichbar: Gleiche Sensorfläche, 16MP Bildqualität usw. Aber in der Bedienung liegen Welten zwischen den beiden Kameras:

Auf der einen Seite die Panasonic GF2: Ein Touchscreen Computer mit angebautem Objektiv, der die kreative Arbeit am Bild nicht nur nicht unterstützt, sondern sogar behindert oder gar besser als der Nutzer wissen will, wie das Bild auszusehen hat. Im Prinzip ist das eine Automatikknipse. Dafür ist der Spass aber viel zu kompliziert und teuer, weil man diese Art Bilder mittlerweile auch mit einem guten Smartphone hinbekommt.

Auf der anderen Seite die Olympus: Mein erster, spontaner Eindruck war falsch. Das ist kein Retromodell, sondern ein echter Fotoapparat, der einem schnelle und unkomplizierte Bildgestaltung ermöglicht, sofern man sich mit den Grundlagen der Fotografie ein wenig auskennt. So muss es sein.

 

Hier sind ein paar Probefotos:

Modellboot auf dem Weissensee

Modellboot auf dem Weissensee

Harte Licht/Schatten-Kontraste, Vordergrund, Mittelgrund, Hintergrund, Fokus auf dem Modellboot. Blätter im Vordergrund nicht zu dunkel, MIlchhäuschen überstrahlt nicht.
Brennweite 42mm (84mm KB), Blende f/10,0, Belichtungszeit 1/320s, Empfindlichkeit ISO 200.

Baumstumpf

Baumstumpf

Graues Motiv vor grauem Hintergrund im Schatten.
Brennweite 19mm (38mm KB), Blende f/5,6, Belichtungszeit 1/125 Sek., Empfindlichkeit ISO 200.

Baumstumpf Detail

Baumstumpf Detail

Abendlicht

Abendlicht

Abendstimmung, verschiedene Lichtquellen (Himmel, Strassenlaternen, Autoscheinwerfer). Die Farben sind stimmig bei leichtem Überstrahlen des Himmels.
Brennweite 14mm (28mm KB), Blende f/2,5, Belichtungszeit 1/15 sek., Empfindlichkeit 1600 ISO

Google Play und MP3 Tags

Früher hat man seine Schallplatten auf Compact Cassetten aufgenommen um die Musik auch unterwegs auf dem Walkman hören zu können. Heute ist alles als MP3 auf dem Handy gespeichert. Ich finde es immer noch verblüffend, wenn die Musik, die früher mindestens ein ganzes Regal gefüllt hätte auf einer Micro SD Karte passt, die kleiner als ein Daumennagel ist.

Aber irgendwas ist ja immer. Wenn die MP3 Sammlung ein bisschen größer wird, nerven falsche Tags kolossal. Klassiker sind notorisch falsch gepflegte Erscheinungsjahre, unterschiedliche Schreibweisen von Interpreten die daher mehrfach in den Auflistungen der Player angezeigt werden und ähnliches.

In letzter Zeit habe ich einige meiner alten Vinylplatten mit Audacity digitalisiert. Beim Speichern als MP3 Datei habe ich natürlich die wichtigsten Angaben Interpret, Titel, Erscheinungsjahr, Tracknummer usw. gepflegt. Das dauert alles so seine Zeit, aber man möchte ja ordentlich sein.

Nachdem ich die Songs auf meinem Handy hatte, wollte Google Play davon aber leider nichts wissen. Alle sechs Alben wurden unter „Unbekannter Interpret“ aufgelistet. Wie lästig!

Nach etwas Recherche wurde deutlich, dass Google Play ziemlich zickig mit den MP3 Tags ist.

Was nun?

Es gibt diverse Software, mit der MP3 Tags nachbearbeitet werden können. Ich habe MusicBrainz Picard genutzt, dass eine Art Autovervollständigung hat. Nachdem ich die fraglichen Dateien entsprechend bearbeitet habe, erkannte nun auch Google Play die Interpreten.

Bei solchen Dingen muss ich immer daran erinnern – Computer machen das Leben einfacher :-D

Linux als Audio Workstation

Vor ungefähr einem Jahr bin ich endgültig von Apple Macintosh auf PC/Linux umgestiegen. Da ich seit 2004 fast ausschließlich freie Software nutze, die auf allen Betriebssystemen verfügbar ist, war der Umstieg unproblematisch. Es blieb nur ein Sorgenkind:

Die Musiksoftware.

Ich nutze die Audio Workstation Reason seit der Version 3.0 – damals noch unter Windows XP – bis zur Version 8.0 auf dem Mac. Für Linux sah es aber düster aus. Es ist fast keine kommerzielle Musiksoftware für das System verfügbar.

Vor einger Zeit hörte ich von einer neuen Firma, die eine Audio Workstation neu entwickelt, die nicht nur wie üblich auf Windows und Mac läuft, sondern auch auf Linux. Da diese Firma – die übrigens ganz bei mir in der Nähe im Prenzlauer Berg sitzt – zum Teil aus ehemaligen Mitarbeitern von Ableton besteht, hatte ich schon mal ein Grundvertrauen in deren professionalität. Vor einem Monat habe ich mir dann Bitwig Studio in der Version 1.3 gekauft und seitdem spiele ich damit rum.

Bitwig Studio 1.3

Bitwig Studio 1.3

Die Software ist schnell installiert, recht intuitiv bedienbar, läuft stabil und klingt gut. In diesem Artikel soll es aber um eine andere Frage gehen:

Wie geht professionelle Audio Verarbeitung unter Linux?

Im Gegensatz zu Windows oder Mac OS gibt es Linux in 1000 unterschiedlichen Geschmacksrichtungen und auf unterschiedlichster Hardware. Darum soll hier erstmal die Basis geklärt werden: Bitwig ist freigegeben für Ubuntu Linux auf normaler PC Architektur mit X86 Prozessoren.

Ich nutze ein Lenovo Thinkpad der T-Serie mit Intel i5 Prozessor und 8GB RAM. Als Betriebsystem kommt Linux Mint 17.2 zum Einsatz. Unter der Haube ist das im Wesentlichen Ubuntu was der breiten Hardwareunterstützung zugute kommt, und die Benutzeroberfläche Cinnamon ist in meinen Augen erheblich angenehmer als das bei Ubuntu eingesetzte Unity.

Musik Setup

Musik Setup

Alsa, Pulseaudio, Jack – WTF?

Die Standardinstallation von Ubuntu/Mint nutzt als Audiosystem ALSA und Pulseaudio und alles funktioniert out-of-the-box. Nachdem ich Bitwig Studio installiert und ALSA als Audiosystem eingestellt hatte, konnte ich auch sofort damit loslegen. Zum Ausprobieren und für die ersten Schritte ist das auch absolut in Ordnung, wenn man aber richtig loslegen will reicht das leider nicht. Es gibt zwei Probleme: Hohe Latenz (Also Zeitversatz zwischen dem Einspielen einer Note und dem Klang selber) und Aussetzer, wenn die Musik komplexer wird.

Professionelle Audiosysteme unterstützen mehrere Soundkarten mit jeweils mehrere Ein- und Ausgängen, wie man sie benötigt, wenn man auch mal ein Mikrofon, eine Gitarre oder sonstige Instrumente anschließen möchte. Sie bieten internes Audiorouting, geringe und zudem einstellbare Latenzzeit und gehen auch bei komplexen Arrangements nicht in die Knie.

Beim Mac ist sowas fest im Betriebssystem eingebaut, bei Windows muss man es nachrüsten (ASIO) und für Linux ist ebenfalls ein solches System verfügbar. Es nennt sich Jack (wie Stecker).

Welches Audiointerface?

Professionelle Audiointerfaces gibt es wie Sand am Meer. Von RME, Roland, Tascam, Focusrite, M-Audio und etlichen anderen Anbietern. Mit Firewire, USB oder Lightning Anschluss. Mit wenigen oder vielen Audioanschlüssen, von günstig bis sehr teuer.

Allerdings nicht für Linux – zumindest nicht offiziell unterstützt.

Nachdem ich mich lange in den entsprechenden Foren herumgetrieben habe, fiel meine Wahl auf das Focusrite Scarlett 2i2. Ein kleines USB Audio Interface mit Ausgängen für Monitore und Kopfhörer sowie zwei Eingängen, die wahlweise als Line/Instrumen oder Microfoneingang mit Phantomspeisung geschaltet werden können. Es kostet ca. 140,- und funktioniert tatsächlich ohne weitere Treiberinstallation mit Jack.

focusrite Scarlett 2i2

focusrite Scarlett 2i2

Get Jack

Jack lässt sich einfach per Synaptic oder apt-get nachinstallieren. Herauszufinden welche Pakete das sind, hat mich allerdings einen kompletten Abend und meine gute Laune gekostet. Man benötigt eigentlich nur:

jackd2 – Jack Audio Verbindungs-Kit
libjack-jackd2-0 – Die Libraries
qjackctl – Benutzerschnittstelle zur Kontrolle des Jack Soundservers

Damit nun ein richtig knackiges Timing der Audiosignale hinbekommt, muss man dem Betriebssystem mitteilen, dass Jack bitte auch entsprechend Rechenzeit und eine hohe Priorität beim Multitasking bekommt. Früher brauchte man dafür einen speziell kompilierten Kernel, aber jetzt genügt ein richtige Konfiguration. Dazu bearbeitet man mit Rootrechten die Datei /etc/security/limits.conf. Dazu gibt man im Terminal ein:

sudo gedit /etc/security/limits.conf

Am Ende der Datei, aber noch vor der Zeile # End of file gibt man folgende Zeilen ein:

# Settings for real time audio
dirk             -       rtprio          99
dirk             -       memlock         unlimited
dirk             -       nice            -10

Mein Unix Benutzername ist – wenig originell – dirk. Hier muss natürlich jeder seinen eigenen Account verwenden und dabei auf Groß/Kleinschreibung achten. Man kann die Rechte auch Gruppen zuweisen (z.B. mit @audio).

Jetzt den Rechner neu starten und es kann losgehen. Man startet das Kontrollinterface von Jack und wählt in den Einstellungen die neue Soundkarte für Ein- und Ausgabe. Bevor man nun auf Start klickt, sollte man zumindest beim erstan Mal das Fenster für die Meldungen öffnen. Falls Jack nicht startet ist meist die Ursache, dass versucht wird, die Soundkarte zu verwenden, die bereit von ALSA belegt ist.

jack_settings

Wenn bis hierher alles gut gegangen ist, kann man Bitwig Studio auf Jack umschalten und sich über ein professionelles Setup freuen. Toll ist, dass die herkömmliche Soundausgabe für Systemsounds oder den MP3 Player Banshee weiter auf der eingebauten Soundkarte läuft.

…irgendwas ist ja immer

Ein Wehmutstropfen bleibt jedoch: Youtube Videos und alles, was normalerweise sonst noch aus dem Browser heraus tönt, bleibt stumm. Irgendwie verhaken sich dabei ALSA, Jack und Pulseaudio. Der Versuch, dem Rechner das nun auch noch beizubringen hat mich den gesammten Sonntag gekostet. Ich habe 10 verschiedene Tutorials durchgearbeitet, die angeblich das Problem lösen, dabei die Benutzeroberfläche zerschossen, so dass ich den Cinnamon Desktop neu installieren musste und letztlich habe ich aufgegeben.

Das Problem habe ich nicht gelöst, aber einen Workaround gefunden: Ich schaue Youtube Videos jetzt einfach über den VLC Player. Der funktioniert nämlich weiterhin einwandfrei… ;-)

Nachtrag [24.12.2015]

Das Youtube Problem lässt sich ganz einfach lösen: Durch das Deinstallieren des Flash-Plugins.
Wenn der Browser kein Flash unterstützt, liefert Youtube die Videos nämlich im MP4 Format aus, was von allen modernen Browsern direkt abgespielt werden kann.

Wer Flash nicht gleich völlig deinstallieren will, kann auch erst einmal zum Zweibrowser greifen (bei mir war das Chromium) und Flash dort deaktivieren.

Erkältungszeit – Retrocomputing Zeit

Am Dienstag hat mich die Erkältung doch noch erwischt. Also brav im Bett mit Wärmflasche schwitzen und ordentlich ausschlafen. Den Rest des Tages muss man aber auch irgendwie rumbringen. Neben ständigem Nase putzen, Musik hören und etwas lesen bleibt noch mein liebstes Hobby – Retrocomputing.

Beim herumstöbern durch das Zwischennetz bin ich auf einen Blog aufmerksam geworden, den ich noch nicht kannte; „Jungsis Corner – Ein Blog über Retro-Computer. Und Retrokram. Und Anderes.“ . Thematisch geht es einmal quer durch den Retro-Gemüsgarten, aber Gerhard Jungsberger scheint einen gewissen Schwerpunkt auf Tests von neuen(!) Spielen für den Sinclair ZX Spectrum zu legen. Mir war gar nicht klar wie viele neue Spiele für den Speccy erscheinen und wie hoch das technische Niveau heutzutage liegt. Im Gegensatz zu früher sind das heute ja Hobbyprojekte und fast alles wird kostenlos angeboten. Daher musste ich gleich einmal einige vielversprechende Titel ausprobieren.

Wirklich umgehauen hat mich „Wanderers – Chained in the Dark“ für den ZX Spectrum 128K. Ein RPG (Role Playing Game) im Stil von Legend of Zelda. Wäre das Spiel vor 30 Jahren erschienen, hätte es definitiv zu den Top10 Spectrum Titeln gehört und wäre heute Legende.

Wanderers - Dialog

Wanderers – Dialog

Wanderers - Im Untergrund

Wanderers – Im Untergrund

Das Programm hat lediglich 69(!)KB und spielt sich wirklich flüssig. Wie schwierig es ist, so viel Story in so wenig Speicher zu packen, habe ich selber lernen müssen, als ich 2003 mein Spiel Kings Castle für Nokia Serie 40 Telefone entwickelte und dort ebenfalls nur 64KB Speicher zur Verfügung hatte.

Das Prinzip „Grosser Spielspass in winzigem Speicher“ kann man aber noch weiter auf die Spitze treiben. Das Spiel „Demons of Dex“ für den Commodore VC-20 ist ein Hack’n Slay Spiel, wie das berühmte und beliebte Diablo. Es gehört somit zur Reihe der „Roguelikes“ bei denen der Verzicht auf Grafik nichts ungewöhnliches ist. Dass ein komplettes Rollenspiel in winzige 3,5 KB (genauer: 3.585 Bytes) Speicher passt, ist trotzdem bemerkenswert.

demonsofdex

Falls jemand wissen will, wie das geht: Petri Häkkinen hat die Entwicklung offen diskutiert (http://sleepingelephant.com/ipw-web/bulletin/bb/viewtopic.php?f=10&t=7618) und den Code bei Github unter https://github.com/petrihakkinen/demons hinterlegt.

Ich habe zwar eine kleine Heimcomputer Sammlung, aber ich hole natürlich nicht jedesmal die Original Hardware raus, wenn ich mal eben ein Programm ausprobieren möchte. Einen VC-20 besitze ich nicht einmal mehr im Original. Die Spiele probiere ich in einem Softwareemulator aus. Erstens ist das praktischer und zweitens werden einige meiner guten Stücke so langsam etwas zerbrechlich. Trotzdem ist es natürlich nicht das richtige Feeling, wenn man ein Spiel für den ZX Spectrum (256×192 Pixel in 16 Farben) in einem Fenster auf einem HD Monitor spielt. „Richtige Hardware“ ist da schon cooler.

MIST Computer

MIST Computer

Vor einiger Zeit bin ich in der C’t auf einen Computer mit dem etwas ungüstigen Namen MIST aufmerksam geworden. Es handelt sich um einen FPGA-Rechner in kleinem, eher unscheinbaren Blechgehäuse, der es aber ganz schön in sich hat. Aufgrund seiner umprogrammierbaren Hardware kann er eine ganze Reihe historischer Heimcomputer und Videospiele emulieren. Zur Zeit sind das Atari ST, Commodore Amiga, Sinclair ZX 81 und ZX Spectrum, MSX, Apple ][, Colecovision, Sega Genesis und weitere Geräte kommen dazu. Commodore 64, Atari 8 Bit und Schneider CPC sind bereits in Beta Qualität vorhanden. Das ganze finde ich sehr spannend und die Erfahrungsberichte klingen durchwegs positiv. Also habe ich heute spontan solch ein Gerät beim Hersteller Lotharek bestellt. Ich bin gespannt und werde berichten. Bis dahin gibt Euch dieses Video einen ersten Eindruck.

Historische Elektronik en Masse

Am letzten Wochenende fand das zweite Vintage Computing Festival Berlin im Pergamon Palais der Humboldt Universität Berlin statt. Auch in diesem Jahr gab es wieder einen Game-Room, eine Löt- und Reparierecke und diverse Heimcomputer aus den späten 70er und frühen 80er Jahren zu sehen.

Im Gegensatz zu der Ausstellung im letztem Jahr gab es zwar keinen Apple Room, aber dafür eine Sonderausstellung mit Analogcomputern. Analogcomputer, wurden vorwiegend zwischen den 50er und 80er Jahren genutzt. Im Gegensatz zu ihren digitalen Brüdern und Schwestern sind sie keine Universalmaschinen sondern auf die Lösung von Differentialgleichungen spezialisiert. In diesem eng umrissenen Spezialgebiet haben sie für bestimmte Aufgaben der Meß- und Regeltechnik oder zur Lösung finanzmathematischer Probleme durchaus Vorteile gegenüber Digitalrechnern, wie Prof Dr. Bernd Ulmann in einem Vortrag und einem Workshop verdeutlichte.

Zwei Analogrechner mit Plottern

Zwei Analogrechner mit Plottern

Der erste von diversen guten Vorträgen handelte davon, wie für die neue Dauerausstellung „Das Netz“ des Deutschen Technikmuseums eine Interpretation der MEMEX gebaut wurde. Die MEMEX ist eine niemals realisierte teschnische Vision von einem Gerät zum Speichern, Verwalten, Verknüpfen und Austauschen von Informationen auf Basis von Mikrofilmen und analoger Technik, die der amerikanische Wissenschaftler Vannevar Bush im Jahr 1945 veröffentlichte.

MEMEX Schema

MEMEX Schema

Interessant war der Vortrag „Die Geschichte von UNIX 1969 bis OpenSolaris“ von Jörg Schilling, der einen Überblick über die technische, wirtschaftliche und juristische Achterbahnfahrt bei der Entwicklung des erfolgreichsten Betriebssystems der letzten 40 Jahre bot.

Wolfgang Stiefs Vortrag „Wie das Supercomputing auf die Welt kam“, handelte vom den Ideen und Konzepten, die Seymour Cray bei der Konstruktion der schnellsten Großrechnern der 50er und 60er Jahre einführte.

Am unteren Ende der Leistungsskala ist der 65C02 basierte Einplatinencomputer MOUSE angesiedelt, von dessen Entwicklung Mario Keller berichtete.

Die Vorträge wurden aufgezeichnet und können unter http://media.ccc.de/browse/conferences/vcfb/2015/index.html angesehen werden.

Die Besucher honorierten das Selberbauen, so dass der Publikumspreis an Oscar Vermeulen und seine PDP-8 Replika ging, auf der das erste Videospiel der Welt lief: Spacewar! von 1961.

PDP-8 Replika mit Space War

PDP-8 Replika mit Spacewar!

Original PDP-8 zum Vergleich

Original PDP-8 zum Vergleich

Die von immerhin 1000 Gästen besuchte Veranstaltung war auch in diesem Jahr wieder sehr interessant. Ein Vintage Computing Festival 2016 ist daher sehr wahrscheinlich.

Hier sind noch einige Fotos weiterer Spezialitäten zu sehen:

SOL 20 und Osborne 1

SOL 20 und Osborne 1

Meilensteine: Commodore PET 2001, Apple ][, IBM XT

Meilensteine: Commodore PET 2001, Apple ][, IBM XT

DEC VT100 und Bedienpanels

DEC VT100 und Bedienpanels

Zauberwürfel

Ich war zwölf und das Ding trieb mich in den Wahnsinn – wie wahrscheinlich fast jeden damals. 1980 machte der Zauberwürfel des ungarischen Erfinders/ Bildhauers/ Architekten/ Designers Ernő Rubik die Leute kirre. Fast jeder hatte einen und ging durch zwei Phasen der Verblüffung:

  1. Wieso dreht sich alles ohne dass der Würfel auseinander fällt?
  2. Wie bekomme ich die Farben wieder richtig sortiert?

Die erste Frage ließ sich mit Gewalt lösen – indem man so ein Ding einfach mal auseinander nahm. Die zweite Frage war schon kniffeliger. Ehrlich gesagt habe ich es erst geschafft, nachdem mir ein (nicht ganz trivialer) Algorithmus in die Hände fiel. Den habe ich auswendig gelernt und konnte dann den Würfel in weniger als einer Minute lösen.

Alles was der Mensch mit Regeln machen kann, kann eine Maschine auch – und zwar meist besser. Roboter, die den Zauberwürfel lösen gibt es mittlerweile in Hülle und Fülle. Dieser hier ist aber besonders schön gemacht.

 

« Vorherige SeiteNächste Seite »