Der Tag der Deutschen Einheit hat uns Anfang Oktober zu einem langen Wochenende verholfen, das Wetter schwenkte aber nun endgültig in Richtung Herbst.
In Berlin gab es für Nerds zwei Veranstaltungen, an denen man sich die Zeit vertreiben konnte: Die Maker Faire hatte ihre Publikumstage am Samstag und Sonntag und das Vintage Computing Festival am Sonntag und Montag.
Maker Faire Berlin 2016
Die Veranstaltung fand in der Station am Gleisdreieck statt. Ich besuchte sie zum ersten Mal und ich wusste im Vorfeld noch nicht so recht, was ich davon halten sollte, obwohl ich natürlich das Eine oder Andere im Vorfeld gelesen hatte.
Maker Faire in der Station Berlin
Gut besucht
In zwei Hallen ging es im Prinzip darum, Leute fürs Selbermachen zu interessieren, inspirieren und zum Kauf von entsprechenden Materialien und Werkzeugen zu bewegen. Es gab Stände, die handwerkliche Dinge zeigten, wie Bootsbau mit selbstgebogenen Hölzern, textiles Gestalten, Ringe schmieden usw. Der Schwerpunkt lag aber auf elektronischen Basteleien, 3D Druck, Lasercutter und Robotik.
R2-D2 in Aktion
Der R2-D2 Builders Club zeigte mehrere, sehr realistisch anmutende “Androiden”, teilweise in Aktion und in verschiedenen Montagestufen. Dennoch kann man hier eigentlich nicht von Robotern sprechen, da es sich am Ende doch “nur” um ferngesteuerte Robotermodelle handelt.
Nao Roboter
Der knapp 60cm große Nao von Aldebaran Robotics ist hingegen ein echter autonomer, humanoider Roboter. Er war massenweise auf der Maker Faire vertreten, weil hier mehrere Mannschaften im Robo-Cup gegeneinander antraten.
Robocup
Man konnte hier einen netten Nachmittag verbringen, wobei ich die eigenartige Kombination aus “wir zeigen mal, was wir tolles machen”, “probier mal selber” und “hier kannst Du Werkzeug und Material kaufen” immer noch seltsam finde. Da ich regelmäßig thematisch entsprechende Websites (Hackaday, Adafruit, Make:,…) besuche, hat mich allerdings inhaltlich nichts wirklich überrascht.
Familien, die ihre Kinder spielerisch an den Umgang mit Technik und vor allem an die Idee heranführen wollen, dass man Dinge auch selber bauen kann, anstatt sie fertig zu kaufen, sind hier richtig gewesen.
Vintage Computing Festival 2016
Wie auch schon in den letzten Jahren fand im Pergamon Palais der Humboldt Universität Berlin das Vintage Computing Festival statt. Es gab auch in diesem Jahr wieder Vortäge, viele interessante Exponate, einen Game Room, in dem Spiele auf diversen alten Videospielen und Computern gespielt werden konnten und eine Party mit Chiptunes.
Die gezeigte Hardware fand ich im Vergleich zu den Veranstaltungen in den letzten Jahren vom Umfang insgesamt etwas schwächer, obwohl auch wieder einige originelle Highlights gezeigt wurden. Beispielhaft sei ein selbstgebautes Vectordisplay genannt, auf dem man u.a. Mazewar (einem Multiplayer, First Person Shooter aus dem Jahr 1974!) und das Vectrex Spiel Minestorm bewundern konnte.
MazeWar auf selbstgebautem Vectordisplay
Die TU Berlin war ebenfalls wie in den letzten Jahren mit selbstgebauter Hardware vertreten: Diesmal mit dem Space Age II, einem 32-Bit-Computer, dessen CPU aus 490 TTL-Bausteinen aufgebaut ist und eine MIPS 1 kompatiblen Befehlssatz unterstützt.
Space Age 2 TTL Computer
Für mich waren in diesem Jahr die Vorträge interessanter. An der “Kurztagung “Hello, I’m ELIZA.” – Zum 50. Geburtstag eines Chatbots” habe ich leider nicht teilgenommen. Das war insofern schade, als Chatbots ja momentan von den großen Treibern aus den USA (Google, Facebook, Amazon, Apple, Microsoft,…) zum “next big thing” hochgepusht werden. Ich bleibe da eher etwas skeptisch.
Sehr beeindruckt hat mich der Vortrag “Spracherkennung mit dem Z9001“, in Volker Pohlers zeigte, wie in den 80er Jahren in der DDR mit unglaublich geringen Mitteln eine rudimentäre Sprachsteuerung (50 gesprochene Befehle) entwickelt wurde.
Wolfgang Stief führte seine interessante Vortragsreihe über den “Vater des Supercomputings” unter dem Titel “Defining Supercomputing – Seymour Cray und die CDC 6600” weiter. Zu der etwas desolaten Raumsituation der Großcomputersammlung Sammlung in München gab es leider nichts Neues. Die Halle ist noch immer gesperrt und der Ersatz nicht fertiggestellt.
Aber auch die robuste 8-Bit Technik der 70er Jahre wurde wieder ausführlich behandelt. Hans Franke referierte nach etwas holperigem Start über Vor- und Nachteile der Speicherorganisation typischer 8-Bit Computer.
Dr. Frederik Holst erzählte in seinem Vortrag “Die inneren Werte zählen – Perspektiven- und Paradigmenwechsel beim Übergang von Hoch- zu Maschinensprache” von seinen Schwierigkeiten, Maschinensprache zu lernen. Hochsprachen sind problemnah (z.B. “Zeichne ein Kreis auf den Grafikbildschirm”), was sie zunächst verständlicher macht, obwohl es viele unterschiedliche Befehle gibt. Maschinensprache hat im Vergleich dazu nur sehr wenige Befehle (z.B. “Schreibe Wert X in Speicherstelle Y”). Allerdings muss man die Hardwarearchitektur des Rechners bis ins Detail verstehen und sich selber um jedes winzige Detail kümmern. Es ist also eine vollkommen andere Sicht auf das Problem und den Computer nötig.
Ich hatte noch eine Diskussion mit Wolfgang Stief zum Thema Software auf Großrechnern. Zwar ist es fantastisch, dass sich Menschen finden, die die alten Rechendinosaurier funktionsfähig halten, aber mir fehlen die Anwendungen. Wie will man den Sinn und Zweck der alten Technik demonstrieren?
Während es für die alten Heimcomputer massenhaft Spiele gibt, die katalogisiert und gesammelt werden, und die für die ersten PCs typischen Softwarepakete, wie Wordstar und Visicalc (trotz der rechtlich problematischen Situation) verfügbar sind habe ich noch keine Software für Grossrechner gesehen. Wo sind die Buchhaltungs- und Bankprogramme? Wo ist Software zur Wettervorhersage und zu Crashtests? Hier hat die Medienarchäologie noch ein weites Feld zu beackern.
Der VCFB hat für mich ein wenig den Charakter eines Klassentreffens. Einerseits, weil man mittlerweisle viele der Aktiven kennt, andererseits auch wegen dem robusten Do-it-yourself Charme der Veranstaltung. Dabei meine ich ausdrücklich nur das Ambiente, denn was der Fachbereichs Medienwissenschaften der HU Berlin zusammen mit dem Hackerspace AFRA und der technischen Unterstützung des Chaos Computer Clubs hier seit Jahren auf die Beine stellt ist bemerkenswert professionell organisiert. Leider fand das VFCB in diesem Jahr zum letzten Mal in den Räumen der Humboldt Universität statt. Im nächsten Jahr wird dafür das Technikmuseum Berlin Räumlichkeiten auf seinem Gelände am Gleisdreieck zur Verfügung stellen. Man darf gespannt sein.
Dirk Ollmetzer | Sunday, 28 August 2016 | Gizmos, Retro
Während manche Leute riesengroße Touchscreens in Autos wie dem Tesla Model S für tollen modernen Kram halten, sind andere Branchen schon wieder ein paar Jährchen weiter. In Bereichen, die bereits seit Jahren oder Jahrzehnten digitalisiert sind und wo es für die Nutzer auf schnelle und intuitive Bedienung ankommt, sind digitale Benutzeroberflächen schon längst wieder auf dem Rückzug, weil sie zu sperrig in der Bedienung sind.
Ein Beispiel sind Musikinstrumente. Der Siegeszug der digitalen Klangerzeugung bei Synthesizern in den 80er und 90er Jahren führte zu Benutzeroberflächen mit Displays und wenigen Knöpfen. Aktuelle Modelle dagegen strotzen wieder vor Drehknöpfen und Schiebereglern, die den Musikern eine virtuose, “blinde” Bedienung überhaupt erst ermöglichen.
Digitale Technik ist toll, digitale Bedienung aber nicht
Ein anderes Beispiel sind Fotoapparate. Auch hier gibt es einen Trend zurück, den manche als Retrowelle missverstehen. Ich hatte mir vor fünf Jahren eine spiegellose Systemkamera im Micro-Four-Thirds Standard gekauft: Eine Panasonic Lumix DMC-GF2. Ausschlaggebend waren gute technische Werte, hohe Bildqualität, gute Verarbeitung und ein Standard, der von mehr als einem Hersteller unterstützt wird zu einem attraktiven Preis.
Allerdings sind wir nie so richtig miteinander warm geworden. Die Kamera hat zwar 1000 Möglichkeiten, die sind aber alle irgendwo in -zig Untermenüs verteilt. Wenn man etwas verstellen will, muss man auf das Display gucken. In der Zeit ist dann das Motiv weg. Das hat dazu geführt, dass ich eigentlich nur im Automatikmodus fotografiert habe. So eine Kamera holt man sich aber eigentlich nicht nur zum “knipsen”.
Bei meinem Besuch auf der Festung Suomenlinna bei Helsinki ist mir 2013 eine komplette Fotoserie durch einen verstellten Weißabgleich unrettbar verlorengegangen. Irgendwie war ich aus Versehen in das Menü gekommen und hatte die falsche Grundeinstellung nicht mehr bemerkt. Danach war ich so verstimmt, dass ich die Kamera nicht mehr angefasst habe.
Die analogste Digitalkamera, die ich je angefasst habe
Vor ungefähr einem halben Jahr bin ich ziellos durch ein Geschäft geschlendert und habe dabei die Olympus OM-D E-M 10 Mark II entdeckt. Ich habe sie spontan in die Hand genommen, weil sie so niedlich und Retro aussah. Ungefähr wie eine Olympus OM aus den 70ern und 80ern – bloß viel kleiner. Interessanterweise ist das ebenfalls eine Micro-Four-Thirds Kamera und somit systemkompatibel zur Panasonic mit vergleichbaren technischen Eckwertern.
Olympus OM-D E-M 10 Mark II
Mein Interesse war geweckt, ich habe Tests gelesen, Beispielfotos angesehen und das Teil noch ein paar mal in die Hand genommen. Nach langem hin- und her habe ich sie nun in einem Berliner Fachgeschäft gekauft.
Nicht weil sie niedlich ist, sondern weil sie sich unheimlich gut bedienen lässt.
Bei der Olympus lässt sich alles Wichtige mit den drei Rändelrädern extrem schnell und vor allem blind einstellen. Zudem hat sie zusätzlich zum normalen Display auf der Rückseite einen sehr guten elektronischen Sucher. Die Raterei, was man eigentlich aufnimmt, während von hinten die Sonne auf das Display fällt, ist mit diesem Gerät jedenfalls kein Problem. Das Spiel mit Schärfentiefe, Belichtungsspielereien, wie Bewegungsunschärfe usw. klappten nach wenigen Minuten, ohne das Handbuch bemühen zu müssen. Das ist insofern praktisch, als auch gar kein richtiges Handbuch in der Packung lag, sondern nur ein Schnelleinstieg in ca. 725 Sprachen.
Keine Besserwisserei des Geräts
Ein weiterer Vorteil gegenüber der Panasonic ist, dass die Olympus nichts automatisch und ungefragt wegkorrigiert. Zwei Beispiele:
Wenn man mit der Panasonic versucht hat ein Portrait aufzunehmen, war es nahezu unmöglich die Tiefenunschärfe einzustellen um den Hintergrund unscharf zu bekommen, weil auf dem Display einfach das komplette Bild scharfgerechnet angezeigt wurde. Die Olympus zeigt die Tiefenunschärfe im Display richtig an.
Das Aufnehmen von tollen Farben von Himmel und Wolken bei Sonnenuntergang hat mit der Panasonic regelmässig nicht geklappt, weil eine automatische Helligkeitskorrektur alles auf 60% Standardbelichtung “korrigiert” hat. Mit der Olympus hat das hingegen bereits im Automatikmodus gut funktioniert. Und eine Belichtungsreihe mit Blendenautomatik war in 10 Sekunden im Kasten.
Fazit: Nix mit Retro – digitale Technik und analoge Bedienung ist die ideale Kombination
Bei beiden Kameras sind die technischen Eckdaten aufgrund des gemeinsamen Micro-Four-Thirds Standards vergleichbar: Gleiche Sensorfläche, 16MP Bildqualität usw. Aber in der Bedienung liegen Welten zwischen den beiden Kameras:
Auf der einen Seite die Panasonic GF2: Ein Touchscreen Computer mit angebautem Objektiv, der die kreative Arbeit am Bild nicht nur nicht unterstützt, sondern sogar behindert oder gar besser als der Nutzer wissen will, wie das Bild auszusehen hat. Im Prinzip ist das eine Automatikknipse. Dafür ist der Spass aber viel zu kompliziert und teuer, weil man diese Art Bilder mittlerweile auch mit einem guten Smartphone hinbekommt.
Auf der anderen Seite die Olympus: Mein erster, spontaner Eindruck war falsch. Das ist kein Retromodell, sondern ein echter Fotoapparat, der einem schnelle und unkomplizierte Bildgestaltung ermöglicht, sofern man sich mit den Grundlagen der Fotografie ein wenig auskennt. So muss es sein.
Hier sind ein paar Probefotos:
Modellboot auf dem Weissensee
Harte Licht/Schatten-Kontraste, Vordergrund, Mittelgrund, Hintergrund, Fokus auf dem Modellboot. Blätter im Vordergrund nicht zu dunkel, MIlchhäuschen überstrahlt nicht.
Brennweite 42mm (84mm KB), Blende f/10,0, Belichtungszeit 1/320s, Empfindlichkeit ISO 200.
Baumstumpf
Graues Motiv vor grauem Hintergrund im Schatten.
Brennweite 19mm (38mm KB), Blende f/5,6, Belichtungszeit 1/125 Sek., Empfindlichkeit ISO 200.
Baumstumpf Detail
Abendlicht
Abendstimmung, verschiedene Lichtquellen (Himmel, Strassenlaternen, Autoscheinwerfer). Die Farben sind stimmig bei leichtem Überstrahlen des Himmels.
Brennweite 14mm (28mm KB), Blende f/2,5, Belichtungszeit 1/15 sek., Empfindlichkeit 1600 ISO
Früher hat man seine Schallplatten auf Compact Cassetten aufgenommen um die Musik auch unterwegs auf dem Walkman hören zu können. Heute ist alles als MP3 auf dem Handy gespeichert. Ich finde es immer noch verblüffend, wenn die Musik, die früher mindestens ein ganzes Regal gefüllt hätte auf einer Micro SD Karte passt, die kleiner als ein Daumennagel ist.
Aber irgendwas ist ja immer. Wenn die MP3 Sammlung ein bisschen größer wird, nerven falsche Tags kolossal. Klassiker sind notorisch falsch gepflegte Erscheinungsjahre, unterschiedliche Schreibweisen von Interpreten die daher mehrfach in den Auflistungen der Player angezeigt werden und ähnliches.
In letzter Zeit habe ich einige meiner alten Vinylplatten mit Audacity digitalisiert. Beim Speichern als MP3 Datei habe ich natürlich die wichtigsten Angaben Interpret, Titel, Erscheinungsjahr, Tracknummer usw. gepflegt. Das dauert alles so seine Zeit, aber man möchte ja ordentlich sein.
Nachdem ich die Songs auf meinem Handy hatte, wollte Google Play davon aber leider nichts wissen. Alle sechs Alben wurden unter “Unbekannter Interpret” aufgelistet. Wie lästig!
Nach etwas Recherche wurde deutlich, dass Google Play ziemlich zickig mit den MP3 Tags ist.
Was nun?
Es gibt diverse Software, mit der MP3 Tags nachbearbeitet werden können. Ich habe MusicBrainz Picard genutzt, dass eine Art Autovervollständigung hat. Nachdem ich die fraglichen Dateien entsprechend bearbeitet habe, erkannte nun auch Google Play die Interpreten.
Bei solchen Dingen muss ich immer daran erinnern – Computer machen das Leben einfacher :-D
Dirk Ollmetzer | Sunday, 29 November 2015 | Gizmos, Musik
Vor ungefähr einem Jahr bin ich endgültig von Apple Macintosh auf PC/Linux umgestiegen. Da ich seit 2004 fast ausschließlich freie Software nutze, die auf allen Betriebssystemen verfügbar ist, war der Umstieg unproblematisch. Es blieb nur ein Sorgenkind:
Die Musiksoftware.
Ich nutze die Audio Workstation Reason seit der Version 3.0 – damals noch unter Windows XP – bis zur Version 8.0 auf dem Mac. Für Linux sah es aber düster aus. Es ist fast keine kommerzielle Musiksoftware für das System verfügbar.
Vor einger Zeit hörte ich von einer neuen Firma, die eine Audio Workstation neu entwickelt, die nicht nur wie üblich auf Windows und Mac läuft, sondern auch auf Linux. Da diese Firma – die übrigens ganz bei mir in der Nähe im Prenzlauer Berg sitzt – zum Teil aus ehemaligen Mitarbeitern von Ableton besteht, hatte ich schon mal ein Grundvertrauen in deren professionalität. Vor einem Monat habe ich mir dann Bitwig Studio in der Version 1.3 gekauft und seitdem spiele ich damit rum.
Bitwig Studio 1.3
Die Software ist schnell installiert, recht intuitiv bedienbar, läuft stabil und klingt gut. In diesem Artikel soll es aber um eine andere Frage gehen:
Wie geht professionelle Audio Verarbeitung unter Linux?
Im Gegensatz zu Windows oder Mac OS gibt es Linux in 1000 unterschiedlichen Geschmacksrichtungen und auf unterschiedlichster Hardware. Darum soll hier erstmal die Basis geklärt werden: Bitwig ist freigegeben für Ubuntu Linux auf normaler PC Architektur mit X86 Prozessoren.
Ich nutze ein Lenovo Thinkpad der T-Serie mit Intel i5 Prozessor und 8GB RAM. Als Betriebsystem kommt Linux Mint 17.2 zum Einsatz. Unter der Haube ist das im Wesentlichen Ubuntu was der breiten Hardwareunterstützung zugute kommt, und die Benutzeroberfläche Cinnamon ist in meinen Augen erheblich angenehmer als das bei Ubuntu eingesetzte Unity.
Musik Setup
Alsa, Pulseaudio, Jack – WTF?
Die Standardinstallation von Ubuntu/Mint nutzt als Audiosystem ALSA und Pulseaudio und alles funktioniert out-of-the-box. Nachdem ich Bitwig Studio installiert und ALSA als Audiosystem eingestellt hatte, konnte ich auch sofort damit loslegen. Zum Ausprobieren und für die ersten Schritte ist das auch absolut in Ordnung, wenn man aber richtig loslegen will reicht das leider nicht. Es gibt zwei Probleme: Hohe Latenz (Also Zeitversatz zwischen dem Einspielen einer Note und dem Klang selber) und Aussetzer, wenn die Musik komplexer wird.
Professionelle Audiosysteme unterstützen mehrere Soundkarten mit jeweils mehrere Ein- und Ausgängen, wie man sie benötigt, wenn man auch mal ein Mikrofon, eine Gitarre oder sonstige Instrumente anschließen möchte. Sie bieten internes Audiorouting, geringe und zudem einstellbare Latenzzeit und gehen auch bei komplexen Arrangements nicht in die Knie.
Beim Mac ist sowas fest im Betriebssystem eingebaut, bei Windows muss man es nachrüsten (ASIO) und für Linux ist ebenfalls ein solches System verfügbar. Es nennt sich Jack (wie Stecker).
Welches Audiointerface?
Professionelle Audiointerfaces gibt es wie Sand am Meer. Von RME, Roland, Tascam, Focusrite, M-Audio und etlichen anderen Anbietern. Mit Firewire, USB oder Lightning Anschluss. Mit wenigen oder vielen Audioanschlüssen, von günstig bis sehr teuer.
Allerdings nicht für Linux – zumindest nicht offiziell unterstützt.
Nachdem ich mich lange in den entsprechenden Foren herumgetrieben habe, fiel meine Wahl auf das Focusrite Scarlett 2i2. Ein kleines USB Audio Interface mit Ausgängen für Monitore und Kopfhörer sowie zwei Eingängen, die wahlweise als Line/Instrumen oder Microfoneingang mit Phantomspeisung geschaltet werden können. Es kostet ca. 140,- und funktioniert tatsächlich ohne weitere Treiberinstallation mit Jack.
focusrite Scarlett 2i2
Get Jack
Jack lässt sich einfach per Synaptic oder apt-get nachinstallieren. Herauszufinden welche Pakete das sind, hat mich allerdings einen kompletten Abend und meine gute Laune gekostet. Man benötigt eigentlich nur:
jackd2 – Jack Audio Verbindungs-Kit
libjack-jackd2-0 – Die Libraries
qjackctl – Benutzerschnittstelle zur Kontrolle des Jack Soundservers
Damit nun ein richtig knackiges Timing der Audiosignale hinbekommt, muss man dem Betriebssystem mitteilen, dass Jack bitte auch entsprechend Rechenzeit und eine hohe Priorität beim Multitasking bekommt. Früher brauchte man dafür einen speziell kompilierten Kernel, aber jetzt genügt ein richtige Konfiguration. Dazu bearbeitet man mit Rootrechten die Datei /etc/security/limits.conf. Dazu gibt man im Terminal ein:
sudo gedit /etc/security/limits.conf
Am Ende der Datei, aber noch vor der Zeile # End of file gibt man folgende Zeilen ein:
# Settings for real time audio
dirk - rtprio 99
dirk - memlock unlimited
dirk - nice -10
Mein Unix Benutzername ist – wenig originell – dirk. Hier muss natürlich jeder seinen eigenen Account verwenden und dabei auf Groß/Kleinschreibung achten. Man kann die Rechte auch Gruppen zuweisen (z.B. mit @audio).
Jetzt den Rechner neu starten und es kann losgehen. Man startet das Kontrollinterface von Jack und wählt in den Einstellungen die neue Soundkarte für Ein- und Ausgabe. Bevor man nun auf Start klickt, sollte man zumindest beim erstan Mal das Fenster für die Meldungen öffnen. Falls Jack nicht startet ist meist die Ursache, dass versucht wird, die Soundkarte zu verwenden, die bereit von ALSA belegt ist.
Wenn bis hierher alles gut gegangen ist, kann man Bitwig Studio auf Jack umschalten und sich über ein professionelles Setup freuen. Toll ist, dass die herkömmliche Soundausgabe für Systemsounds oder den MP3 Player Banshee weiter auf der eingebauten Soundkarte läuft.
…irgendwas ist ja immer
Ein Wehmutstropfen bleibt jedoch: Youtube Videos und alles, was normalerweise sonst noch aus dem Browser heraus tönt, bleibt stumm. Irgendwie verhaken sich dabei ALSA, Jack und Pulseaudio. Der Versuch, dem Rechner das nun auch noch beizubringen hat mich den gesammten Sonntag gekostet. Ich habe 10 verschiedene Tutorials durchgearbeitet, die angeblich das Problem lösen, dabei die Benutzeroberfläche zerschossen, so dass ich den Cinnamon Desktop neu installieren musste und letztlich habe ich aufgegeben.
Das Problem habe ich nicht gelöst, aber einen Workaround gefunden: Ich schaue Youtube Videos jetzt einfach über den VLC Player. Der funktioniert nämlich weiterhin einwandfrei… ;-)
Nachtrag [24.12.2015]
Das Youtube Problem lässt sich ganz einfach lösen: Durch das Deinstallieren des Flash-Plugins.
Wenn der Browser kein Flash unterstützt, liefert Youtube die Videos nämlich im MP4 Format aus, was von allen modernen Browsern direkt abgespielt werden kann.
Wer Flash nicht gleich völlig deinstallieren will, kann auch erst einmal zum Zweibrowser greifen (bei mir war das Chromium) und Flash dort deaktivieren.
Am Dienstag hat mich die Erkältung doch noch erwischt. Also brav im Bett mit Wärmflasche schwitzen und ordentlich ausschlafen. Den Rest des Tages muss man aber auch irgendwie rumbringen. Neben ständigem Nase putzen, Musik hören und etwas lesen bleibt noch mein liebstes Hobby – Retrocomputing.
Beim herumstöbern durch das Zwischennetz bin ich auf einen Blog aufmerksam geworden, den ich noch nicht kannte; “Jungsis Corner – Ein Blog über Retro-Computer. Und Retrokram. Und Anderes.” . Thematisch geht es einmal quer durch den Retro-Gemüsgarten, aber Gerhard Jungsberger scheint einen gewissen Schwerpunkt auf Tests von neuen(!) Spielen für den Sinclair ZX Spectrum zu legen. Mir war gar nicht klar wie viele neue Spiele für den Speccy erscheinen und wie hoch das technische Niveau heutzutage liegt. Im Gegensatz zu früher sind das heute ja Hobbyprojekte und fast alles wird kostenlos angeboten. Daher musste ich gleich einmal einige vielversprechende Titel ausprobieren.
Wirklich umgehauen hat mich “Wanderers – Chained in the Dark” für den ZX Spectrum 128K. Ein RPG (Role Playing Game) im Stil von Legend of Zelda. Wäre das Spiel vor 30 Jahren erschienen, hätte es definitiv zu den Top10 Spectrum Titeln gehört und wäre heute Legende.
Wanderers – Dialog
Wanderers – Im Untergrund
Das Programm hat lediglich 69(!)KB und spielt sich wirklich flüssig. Wie schwierig es ist, so viel Story in so wenig Speicher zu packen, habe ich selber lernen müssen, als ich 2003 mein Spiel Kings Castle für Nokia Serie 40 Telefone entwickelte und dort ebenfalls nur 64KB Speicher zur Verfügung hatte.
Das Prinzip “Grosser Spielspass in winzigem Speicher” kann man aber noch weiter auf die Spitze treiben. Das Spiel “Demons of Dex” für den Commodore VC-20 ist ein Hack’n Slay Spiel, wie das berühmte und beliebte Diablo. Es gehört somit zur Reihe der “Roguelikes” bei denen der Verzicht auf Grafik nichts ungewöhnliches ist. Dass ein komplettes Rollenspiel in winzige 3,5 KB (genauer: 3.585 Bytes) Speicher passt, ist trotzdem bemerkenswert.
Ich habe zwar eine kleine Heimcomputer Sammlung, aber ich hole natürlich nicht jedesmal die Original Hardware raus, wenn ich mal eben ein Programm ausprobieren möchte. Einen VC-20 besitze ich nicht einmal mehr im Original. Die Spiele probiere ich in einem Softwareemulator aus. Erstens ist das praktischer und zweitens werden einige meiner guten Stücke so langsam etwas zerbrechlich. Trotzdem ist es natürlich nicht das richtige Feeling, wenn man ein Spiel für den ZX Spectrum (256×192 Pixel in 16 Farben) in einem Fenster auf einem HD Monitor spielt. “Richtige Hardware” ist da schon cooler.
MIST Computer
Vor einiger Zeit bin ich in der C’t auf einen Computer mit dem etwas ungüstigen Namen MIST aufmerksam geworden. Es handelt sich um einen FPGA-Rechner in kleinem, eher unscheinbaren Blechgehäuse, der es aber ganz schön in sich hat. Aufgrund seiner umprogrammierbaren Hardware kann er eine ganze Reihe historischer Heimcomputer und Videospiele emulieren. Zur Zeit sind das Atari ST, Commodore Amiga, Sinclair ZX 81 und ZX Spectrum, MSX, Apple ][, Colecovision, Sega Genesis und weitere Geräte kommen dazu. Commodore 64, Atari 8 Bit und Schneider CPC sind bereits in Beta Qualität vorhanden. Das ganze finde ich sehr spannend und die Erfahrungsberichte klingen durchwegs positiv. Also habe ich heute spontan solch ein Gerät beim Hersteller Lotharek bestellt. Ich bin gespannt und werde berichten. Bis dahin gibt Euch dieses Video einen ersten Eindruck.
Dirk Ollmetzer | Tuesday, 6 October 2015 | Gizmos, Retro
Am letzten Wochenende fand das zweite Vintage Computing Festival Berlin im Pergamon Palais der Humboldt Universität Berlin statt. Auch in diesem Jahr gab es wieder einen Game-Room, eine Löt- und Reparierecke und diverse Heimcomputer aus den späten 70er und frühen 80er Jahren zu sehen.
Im Gegensatz zu der Ausstellung im letztem Jahr gab es zwar keinen Apple Room, aber dafür eine Sonderausstellung mit Analogcomputern. Analogcomputer, wurden vorwiegend zwischen den 50er und 80er Jahren genutzt. Im Gegensatz zu ihren digitalen Brüdern und Schwestern sind sie keine Universalmaschinen sondern auf die Lösung von Differentialgleichungen spezialisiert. In diesem eng umrissenen Spezialgebiet haben sie für bestimmte Aufgaben der Meß- und Regeltechnik oder zur Lösung finanzmathematischer Probleme durchaus Vorteile gegenüber Digitalrechnern, wie Prof Dr. Bernd Ulmann in einem Vortrag und einem Workshop verdeutlichte.
Zwei Analogrechner mit Plottern
Der erste von diversen guten Vorträgen handelte davon, wie für die neue Dauerausstellung “Das Netz” des Deutschen Technikmuseums eine Interpretation der MEMEX gebaut wurde. Die MEMEX ist eine niemals realisierte teschnische Vision von einem Gerät zum Speichern, Verwalten, Verknüpfen und Austauschen von Informationen auf Basis von Mikrofilmen und analoger Technik, die der amerikanische Wissenschaftler Vannevar Bush im Jahr 1945 veröffentlichte.
MEMEX Schema
Interessant war der Vortrag “Die Geschichte von UNIX 1969 bis OpenSolaris” von Jörg Schilling, der einen Überblick über die technische, wirtschaftliche und juristische Achterbahnfahrt bei der Entwicklung des erfolgreichsten Betriebssystems der letzten 40 Jahre bot.
Wolfgang Stiefs Vortrag “Wie das Supercomputing auf die Welt kam”, handelte vom den Ideen und Konzepten, die Seymour Cray bei der Konstruktion der schnellsten Großrechnern der 50er und 60er Jahre einführte.
Am unteren Ende der Leistungsskala ist der 65C02 basierte Einplatinencomputer MOUSE angesiedelt, von dessen Entwicklung Mario Keller berichtete.
Die Besucher honorierten das Selberbauen, so dass der Publikumspreis an Oscar Vermeulen und seine PDP-8 Replika ging, auf der das erste Videospiel der Welt lief: Spacewar! von 1961.
PDP-8 Replika mit Spacewar!
Original PDP-8 zum Vergleich
Die von immerhin 1000 Gästen besuchte Veranstaltung war auch in diesem Jahr wieder sehr interessant. Ein Vintage Computing Festival 2016 ist daher sehr wahrscheinlich.
Hier sind noch einige Fotos weiterer Spezialitäten zu sehen:
SOL 20 und Osborne 1
Meilensteine: Commodore PET 2001, Apple ][, IBM XT
Dirk Ollmetzer | Monday, 14 September 2015 | Gizmos, Retro
Ich war zwölf und das Ding trieb mich in den Wahnsinn – wie wahrscheinlich fast jeden damals. 1980 machte der Zauberwürfel des ungarischen Erfinders/ Bildhauers/ Architekten/ Designers Ernő Rubik die Leute kirre. Fast jeder hatte einen und ging durch zwei Phasen der Verblüffung:
Wieso dreht sich alles ohne dass der Würfel auseinander fällt?
Wie bekomme ich die Farben wieder richtig sortiert?
Die erste Frage ließ sich mit Gewalt lösen – indem man so ein Ding einfach mal auseinander nahm. Die zweite Frage war schon kniffeliger. Ehrlich gesagt habe ich es erst geschafft, nachdem mir ein (nicht ganz trivialer) Algorithmus in die Hände fiel. Den habe ich auswendig gelernt und konnte dann den Würfel in weniger als einer Minute lösen.
Alles was der Mensch mit Regeln machen kann, kann eine Maschine auch – und zwar meist besser. Roboter, die den Zauberwürfel lösen gibt es mittlerweile in Hülle und Fülle. Dieser hier ist aber besonders schön gemacht.
Dirk Ollmetzer | Saturday, 29 August 2015 | Gizmos, Retro
Ein Terminal ist die Kombination aus Tastatur und Bildschirm. Diese “dummen” Ein-/Ausgabe Geräte waren seinerzeit über eine (meist serielle) Schnittstelle an Großcomputer im entfernten Rechenzentrum angeschlossen. Ihre größte Verbreitung hatten Terminals zwischen den späten 60er bis in die 80er Jahre.
Umso lustiger ist es, wenn heute jemand diese Technik aus dem Computermittelalter nutzt, um sie mit aktueller Technik zu verbinden. In den beiden Beispielen ist das jeweils ein Raspberry Pi – also ein Bastelcomputer für ca. €35,- der nur etwas größer als ein Scheckkarte ist.
Einerseits finde ich es spannend, dass es überhaupt möglich ist, Hardware zu koppeln, die zeitlich 35 Jahre auseinanderliegt. Andererseits passt das auch ganz gut, weil des Raspberry Pi mindestens so viele Rechenpower hat, wie ein damaliger Großrechner.
Die beiden Beispiele finde ich so wunderbar versponnen, dass ich sie Euch gleich mal vorstellen möchte.
Das zwischen 1979 und 1983 gebaute VT100 Terminal gehörte zu den meistgenutzten Terminals überhaupt. Dieses an einen Raspberry Pi anzuschliessen und Linux über die Kommandozeile zu bedienen ist eigentlich schon fast etwas langweilg – aber darüber die Stereoanlage zu steuern hat dann doch etwas spezielles, wie ich finde.
Im zweiten Beispiel ist die Anwendung selber eher trivial; Lynx als textbasierter Internetbrowser. Dafür ist die Hardware allerdings relativ exotisch: Ein Minitel Terminal. Diese Geräte funktionierten nur als Endgeräte für den französischen Onlinedienst Mintel, der zwischen 1983 und 2012 bis zu 25 Millionen Anwender hatte. Durch die Abschaltung des Dienstes wurden die Geräte quasi alle zu Elektroschrott.
Sehr schön, wenn jemand die solide Hardware kreativ weiterverwendet. Das Ergebnis der Bastelei ist, dass sich aktuelle Webseiten so anfühlen, als wären sie 30 Jahre alt. Spannend.
Die folgende Sendung präsentiert den brandneuen, heissen Scheiss: Computer für Zuhause, eigene Videorecorder und Laser Disc Player, Textinformationen auf dem Fernseher und Videospiele.
Die Aufnahme ist von 1980. Damals war ich 12 und an all dem Kram brennend interessiert. Insbesondere die Szene, in der die neuen Videorecorder (klobige Mechanik, die zig Kilo wog) gezeigt werden, macht einem schmerzlich bewusst, dass das alles nicht einfach nur lange her ist, sondern im letzten Jahrtausend war.
Noch spannender als der leicht amüsierte Rückblick auf alte Technik, ist aber die Frage, wie der Fortschritt der Alltagstechnik uns und unser Zusammenlaben geändert hat. Die BBC hat eine klasse Miniserie darüber produziert, indem sie eine Familie von aus dem Jahr 2009 quasi in das Jahr 1970 katapultiert hat, indem das komplette Haus auf alt getrimmt wurde. Die Eltern hatte noch Kindheitserinnerungen (die manchmal getrogen haben), aber die vier Kinder standen fassunglos in einem Haus nicht nur, ohne Handy, Computer, Video und Mikrowelle sondern mit winzigem Schwarzweissfernseher, Mono-Radio und Wählscheibentelefon,
Sehr spannend, was die Veränderungen mit der Familie machen. Warum sehe ich solche Sendungen eigentlich nie im Deutschen “Qualitäts”fernsehen?
Was ich hier aber wirklich mal herzallerliebst finde, ist das gelungene Design. Ein Pocket Operator ist ein Musikinstrument, sieht aber aus, wie ein Taschenrechner, dem man das Gehäuse geklaut hat und das Display erinnert grafisch an die lustigen LCD-Spiele aus Nintendos Game and Watch Serie der frühen 80er Jahre. Das Rhytmusgerät zeigt eine Nähmaschine, das Bassgerät ein U-Boot und der Lead-Synth eine Art Fabrik. Total sinnlos, aber lustig.
Klar, das die Dinger (Preis knapp unter €70,-) brutal elektronisch klingen. Hier hat mal jemand mit den Teilen passenderweise “Taschenrechner” von Kraftwerk darauf gejamt.
Die Aufnahme ist Live und wurde nicht nachbearbeitet. Beteiligte Instrumente: Pocket Operator PO-16 Factory, Pocket Operator PO-14 Sub, Pocket Operator PO-12 Rhythm, Stylophone und Korg mini KAOSS PAD 2.