Dumb Devices (brunzdumme Dinge)

Dieser Beitrag soll so etwas wie ein Endlos-Container für ein allgemeines Herumgenöle über doofe Dinge werden. „Dumb Devices“ im Zusammenhang kann dabei heute alles nur mögliche meinen – vom „programmierbaren Rasierapparat“ über angeblich smarte Telefone über Autos über Bahn- oder Bankinformationssysteme (die unzureichend informieren) bis irgendwo hin zu Großkraftwerken oder gesamten Systemen. Die verbindende Eigenschaft ist die heutige Vorstellung, Absicht oder der Wunsch, alle möglichen Dinge durch „Software“ oder Systemintegration zu „Smartness“ im Gebrauch zu verhelfen – und das nicht seltene Scheitern dieser Absicht im Kleinen (z.B. im Design oder in der Anwendernützlichkeit) oder im Großen. Dazu im Gegensatz ist ein „Hammer“ zum Beispiel sicher ein „Device“ bzw. ein Ding, aber er kann nicht „dumb“ sein, weil er schon von der Konstruktion her keinerlei Eigen-„Smartness“ behaupten kann, will oder soll. Eine Waschmaschine mit umfangreicher elektronischer Steuerungskomponente mit Dutzenden von „Programmen“ und supportiven Funktionen kann hingegen aufgrund der integrierten „Smartness“ sehr wohl an der Einlösung ihrer Werbeansprüche scheitern.

Es geht dabei um Dinge, die sich infolge der „informationstechnischen Revolution“ auf Konsumentenebene seit etwa Mitte der 90er im Gebrauch zeigen. Es geht aber auch immer um die Hoffnung bzw. die Erwartung, dass solche meist ziemlich auf der Hand liegenden Mängel, die auch an sich gar nicht auftauchen müßten, in einer relativ kurzen Zeitspanne hoffentlich verschwinden (und mal ausnahmsweise nicht durch neu Aufkommende ersetzt werden).


Auto-„Aschenbecher“

Ich war nie heikel in Autofragen. Mein Verhältnis zu den Karren war immer bestenfalls funktional bestimmt und im allgemeinen von tiefer Gleichgültigkeit gegenüber dem Gerät geprägt. Man braucht die Dinger halt als Mittel zum Zweck und wenn sie als Mittel (ungefähr) taugen, dann ist’s gut. Im erinnernden Rückgriff auf die Karren, mit denen ich in den 70/80ern rumgegurkt bin, habe ich schon mal als Merksatz drei Wichtigkeitskriterien formuliert: 1. Die Karre muß dicht sein (sonst könnt‘ ich Fahrrad oder Moped fahren), 2. der Aschenbecher muß gut erreichbar funktionieren und 3., das Wichtigste ist ein einigermaßen gutes Sound-System, damit die Ödnis möglichst gut überbrückbar ist. Auf den Punkt 3 wird noch anderweitig zurückzukommen sein und den Punkt 1 erfüllen die Blechschüsseln, die ich mir in den letzten Jahrzehnten leistete, sozusagen problemlos.

Womit man beim Punkt 2 wäre: der sogenannte „Aschenbecher“ in heutigen Autos bzw. dessen Fehlen. Als ich Anfang der Nullerjahre das letzte Mal einen Neuwagen besorgte, war das zwar schon bei manchen Modellen ein Thema (und mir von Flottenfahrzeugen im Beruf als Problem schon bekannt), aber letztlich im Ankauf noch unproblematisch. Die Kleinschüssel hatte einen. Aus Fahrerperspektive gut erreichbar (weniger als Armlänge), so positioniert, dass die Erreichbarkeit auch ohne Herumgesuche gesichert war und beleuchtet bei Betrieb der Scheinwerfer. Nix Besonderes halt – so wie es etliche Jahrzehnte lang Standard war. Sogar die (de facto nichtexistenten) möglichen Passagiere hinten hätten über einen „Aschenbecher“ verfügen können im Fond (unbeleuchtet, aber leicht zugänglich). Auch üblicher Standard über Jahrzehnte.

Aber irgendwann in den Neunzigern kam es einigen Herstellern aus welchen Gründen auch immer in den Sinn, den Platz des „Aschenbechers“ einzusparen. Mittlerweile sind es anscheinend gar nicht wenige Hersteller und Modelle, bei denen das Ding grundsätzlich fehlt – vorne und hinten. Bei etlichen kann man dann die Dinger als Aufpreis-Zubehör nachordern oder im Verbund mit irgendwelchen Sonderausstattungen nachrüsten lassen (Mittelarmlehne z.B.). Bei anderen Modellen wird als Zubehör „Aschenbecher“ so etwas wie eine Art „Becher“ angeboten, den man dann in irgendwelche „Becherhalterungen“ stecken kann oder soll, die seit geraumer Zeit an allen möglichen Ecken in die Armaturen oder Türverkleidungen eingebaut sind.

Zum Jahreswechsel 16 kam’s, wie’s eben kommen mußte – die bewährte Kleinschüssel der Nullerjahre war so beschädigt, dass eine Reparatur nicht mehr lohnte und ein neuer Ersatz her mußte. Und das Aschenbecher-Fehl-Problem schlug natürlich unweigerlich zu. Das vom Hersteller angebotene Zubehör als „Lösung“ war so ein typischer „Becher“. Natürlich unbeleuchtet. Und wie bei vielen Kleinschüsseln ist das Raumangebot naturgemäß knapp – die „Becherhalterung“, in die man den „Aschenbecher“ stellen soll, befindet sich dementsprechend unten in Bodennähe. Mit so etwas kann man natürlich überhaupt nichts anfangen – bei Dunkelheit kann man den anthrazitfarbenen „Becher“ nicht sehen und ist gezwungen, unten im Bodenraum herumzusuchen, wenn man beispielsweise als Raucher seine Zigarettenasche loswerden muß. Unabhängig davon, dass man dabei nahezu unweigerlich den Blick vom Verkehrsgeschehen abwenden muß und auch bestenfalls eine Hand kurzfristig freimachen kann, kann man in mindestens zwei von vier Fällen davon ausgehen, dass ein Teil des loszuwerdenden Abfalls außerhalb des Bechers landet. Radikaler Schwachsinn by Design.

Im konkreten Fall bietet der Hersteller (derzeit) keine brauchbare Nachrüstung mit „irgendwas“ an, das dem Problem abhelfen könnte (wie etwa beispielsweise eine Mittelarmlehne mit unter anderem einem beleuchteten „Aschenbecher“). Und der arme Händler, der einen Kunden beraten und unterstützen soll, steht bei so einem Hersteller-Ausfall dann hilflos herum und rudert verständnisheischend mit den Armen. Diverse Nachforschungen bei typischen Zubehör-Händlern oder Baumärkten zeigten ebenfalls keine auch nur annähernd funktionale Lösung auf. Letztlich müßte man wohl einen Car-Modder beauftragen, wenn man „was vernünftiges“ haben wollte.

Erst die Suche im Netz erbrachte so etwas wie eine Behelfslösung – ausgerechnet über die Krake „Amazon“ in relativ vielfältiger Auswahl. Dort werden diverse „Becherlösungen“ angeboten, die zumindest mal mit Eigenlicht (LED) ausgestattet sind, entweder per Knopfbatterie und/oder per Mini-Solarpanel versorgt. Des weiteren verfügen etliche dieser Angebote über (zusätzliche) Clip-Befestigungen, die ein Anbringen an z.B. den Lüftungslamellen ermöglicht (*die* gibt es natürlich hübsch zentral und in guter Höhe). Alternativ kann eine gesonderte Clip-Lösung auch die diversen „Becher“ lose bzw. mit Press-Klinken verfestigt aufnehmen. Der Witz dieser diversen Angebote bei Amazon (und sonstwo im Zubehörhandel des Netzes) liegt darin, dass es diesen ganzen Krempel nur direkt über die Anbieter gibt ——–>> in Südostasien (also China, Korea, Singapur etc.). Als Germane muß man sich also derartiges Pfennig-Gerümpel tatsächlich über zigtausende Kilometer zuschippern lassen. Die Händler (Fz oder Zubehör oder Hersteller) bieten so einen Kram von sich aus nicht an – geschweige denn, dass sie es vorrätig hätten.

Da dieser Unfug nun immerhin schon etliche Jahre so geht, sollte man vermuten, dass es zwischenzeitlich schon brauchbare und funktional ausreichende Angebote im Schlaraffenland automobiler Perfektion gäbe – aber Pustekuchen. Smart geht systemisch anders.

Audio-Tags (die Darstellung von solchen Tags)

Es ist möglich, vielleicht sogar wahrscheinlich, dass die weit überwiegende Zahl an Konsumenten weder eine einigermaßen genaue Vorstellung davon hat, was „Audio-Tags“ überhaupt sein könnten noch irgendein Problem mit ihnen und ihrer Darstellung in irgendwelchen Geräten hat. Deshalb muß wohl vor dem fälligen Genöle ein bißchen was an Erklärung stehen. Zuerst mal: es geht um Musikdateien, die auf irgendeinem Gerät abgespielt werden können und sollen. „Datei“ im Zusammenhang heißt schon mal vorweg, dass es sich um „digitalisierte“ Musik im Zusammenhang drehen muß – nicht um hipstergemäße „analoge“ Musikkonserven wie Langspielplatten oder Musikkassetten (die haben das Problem schon deshalb nicht, weil es bei solchem Gemurks keine Audio-Tags gibt). Welches „Format“ die Datei dabei hat ist im Grunde eher nebensächlich (also z.B. wav, mp3, aac, flac….), wobei es allerdings wiederum durchaus gute Gründe dafür gibt, die oftmals unzureichende Anzahl an Formaten zu kritisieren, die von irgendwelchen Geräten abgespielt werden (können). Es ist ebenfalls hier im Zusammenhang nicht wichtig, welche Abspielgeräte genau gemeint sind – es sind im Prinzip alle „smarten“ Geräte gemeint, die Musikdateien abspielen können (sollen). Also etwa Telefone, TV-Geräte, Stand-alone Player (z.B. „Ipod“ oder so was), DVD/BluRay-Player, Autoradios aller Marken und Sorten, Receiver/Verstärker… und was sonst so heute alles digitale Musik erklingen lassen will (inklusive Wecker, Mikrowellengeräte, Herde, Waschmaschinen usw.). Eine Eigenschaft von digitalen Musikdateien (aller Art) ist die Möglichkeit, zusätzlich zu den Daten, die die „Musik“ (den „Ton“) kodieren, alle möglichen Sachinformationen *über* die Musikdaten in den Dateien zu speichern. Also etwa den Namen des Künstlers, den Titel des Stücks, das Erscheinungsjahr und alle denkbaren sonstigen Informationen – falls gewünscht auch Bilder des Plattencovers oder den Liedtext. Solche Zusatzinformationen, die in den Dateien gespeichert sein können, sind hier mit dem Begriff „Audio-Tags“ gemeint. Und von all‘ den Geräten, die Musikdateien abspielen können (sollen), erwartet ein Konsument/Nutzer, dass diese Geräte solche Zusatzdaten dann auch anzeigen – zumindest in dem Fall, wenn die Geräte über irgendein ablesbares Display verfügen.

Um zum Kern des fälligen Genöles vorzudringen: sehr viele Geräte weisen aus Sicht eines Nutzers beim Display der Audio-Tags mehr oder weniger große Unzulänglichkeiten auf.

Um zu verdeutlichen, was ich hier als „unzulänglich“ meine, nenne ich ein paar Beispiele. Nehmen wir etwa ein typisches Display eines klassischen Autoradios der letzten 20, 30 Jahre. Es besteht häufig aus mehreren Anzeigezeilen, von denen mindestens eine die variablen Daten im Betrieb anzeigen soll – also z.B. die Frequenz und/oder den Namen des momentan eingestellten Senders oder eben den Interpreten und Titel eines gerade spielenden Musikstückes von einer CD oder einer sonstigen Quelle (z.B. ein über USB oder sonstwie verbundener externer Speicher auf einem Telefon oder einem Stick). Solche Anzeigezeilen sind zu allermeist als Matrix-LEDs ausgeführt und umfassen zu einer genügend großen Darstellung, um auch aus einer gewissen Entfernung abgelesen werden zu können, irgendwas zwischen 10 bis 20 Zeichen. Man kann oft vorgeben, welche Audio-Tags angezeigt werden sollen – also z.B. Interpret und Titel oder nur Titel oder dergleichen. Bei der in jedem Fall begrenzten Anzahl an gleichzeitig sichtbaren Zeichen ist auf jeden Fall eine Sache klar: in vielen Fällen reicht die Anzeigebreite nicht aus, um die gewünschte Information insgesamt darzustellen. Das führt dann im Effekt zu einer Anzeige wie beispielhaft dieser: „Avenged Sevenfold -„, während die gesamte gewünschte Information gewesen wäre: „Avenged Sevenfold - Desecrate Through Reverence (2003)„. Diese Form des Abschneidens aufgrund Überschreitung irgendeiner Zeichenzahl findet sich auf vielen verschiedenen Geräten – Receiver, alle möglichen Player, Telefone… im Prinzip egal welcher Typ, welche Marke, welche Preiskategorie. Es gibt auch seit ewigen Zeiten eine bekannte und durchaus oft angewandte Methode, die Zeichenbegrenzung zu überwinden: ein Player kann die Anzeige als Laufschrift zeigen (wenn er es könnte). Einige der Autoradios, die ich in den letzten 20 Jahren in Benutzung hatte, konnten bei Betätigung irgendeines winzigen Buttons auch durchaus *einmal* durch die gesamte Zeile scrollen. Aber genau das bringt mir ja als Fahrer nichts – was ich nicht will ist das Herumfummeln an kleinen Knöppchen mit mindestens gelegentlichem Hinblinzeln zur Lokalisierung des Knöppchens und dann noch der wartende Blick auf die laufende einmalige Anzeige, bis sie „komplett“ durchgescrollt ist. Diese Art der notwendig interaktiven Fummelei am Display ist während des Fahrens ganz ausdrücklich unerwünscht. Und auf „großen“ Anzeigeflächen – wie z.B. einem Riesen-TV als Display für einen angeschlossenen BluRay-Player oder einen USB-Stick – ist natürlich eine abgeschnittene Informationsanzeige ganz prinzipiell ein Ärgernis. Ein weiteres oft auftauchendes Darstellungsproblem haben Player-Displays mit „untypischen“ Zeichen – also etwa Umlaute wie ö oder Sonderzeichen. Dieses Problem ist oft mehrstufig – wenn der Audio-Tag in der Datei schon nicht „gut“ kodiert ist, dann kann selbst ein bestprogrammierter Player die Darstellung nicht hinkriegen. Oder aber die Kodierung des Audio-Tags folgt (korrekt) einem bestimmten Standard, der Player kennt aber genau diesen Standard nicht (gut genug), obwohl er ausgezeichnet mit anderen Format-Standards zurecht käme. Schlussendlich kommt bei diesem Problem irgendein Unsinn zur Anzeige, etwa „Mot乹rhead“ statt „Motörhead“ oder so was. Jede Menge weiterer Unzulänglichkeiten können auf beliebigen Anzeigegeräten auftauchen – nochmal, weil vielleicht zu unklar bislang: es hängt dabei *nicht* von der Art des Displays oder seiner „Güte“ (seiner Preishöhe…) ab, es kann einem als Konsument mit jedem Gerät passieren, auch den allerneuesten und allerteuersten.

Ich gebe bei diesem Problem ohne weiteres zu, dass ich nicht der verantwortliche Ingenieur sein möchte für die Chip-Auswahl bzw. -Integration derjenigen Komponente, die Musikdateien dekodiert und die Tags an irgendeiner Schnittstelle bereitstellt. Denn da liegt das Problem „begraben“ – alle möglichen und unmöglichen Geräte „können“ diese Dinge, weil sie einen Chip (oder Komponententeil eines hochintegrierten „Bibliotheks“-Chip) integriert haben. Die Eigenleistung eines Herstellers beschränkt sich hier immer auf die Auswahl des Chips (aus nicht besonders vielen) und die Integration über Firmware/Software in das eigentliche Gerät. Die eigentliche Leistung erfolgt durch den Chip(-Teil) als eine Art „Black Box“. Wenn also etwa ein TV-Geräte-Produzent auf dem Display Lauftext anzeigen können möchte, muß er entweder aufwändig die Software-Routinen in Verbindung mit entsprechenden Hardware-Bausteinen selber anlegen/pflegen oder der eingekaufte Baustein bringt das schon als Fähigkeit mit (dann muß der Geräte-Hersteller es „nur“ noch in seine Geräte-Software umsetzen/einarbeiten). Des weiteren ist es unfraglich richtig, dass die Anzeige von Zeichen im Bereich der Informationstechnologie immer noch unter ganz uralten „Geburtsfehlern“ leidet – eine „gute“ Umsetzung von Zeichendarstellungen mittels Sprachkontext-unabhängigem „Unicode“ (in irgendeiner seiner Ausprägungen) ist bis heute (2016) und vielleicht auch noch für viele weitere Jahre „teuer“, kompliziert und aufwändig. Man kann des weiteren ohne Vorbehalte zugestehen, dass in den letzten drei Jahrzehnten (also etwa seit Aufkommen der Audio-CD als Massendatenträger für digitalisierte Musik Ende der 80er, ein Format, das Audio-Tags praktisch gar nicht unterstützt/e) es den Chip-Herstellern von Generation zu Generation immer besser gelingt, die diversen Formate zu dekodieren und abzuspielen/darzustellen.

Es reicht jedoch angesichts des *Anspruchs* der „Smartness“ der Player mit Stand „heute“ bei weitem noch nicht aus um als „befriedigend“ gelten zu dürfen.

Fehlermeldungen

Wenn es um die Anzeige von Fehlern geht, handelt es sich meist um Bilder wie das folgende, das eine obskure und freiwillig oder unfreiwillig komische Meldung zeigt – meist von einem der beliebtesten und verbreitetsten Übeltäter wie dem Betriebssystem „Windows“ der Firma Microsoft:

Abb.: eine Windows Fehlermeldung
Abb.: eine Windows Fehlermeldung

Das ist im allgemeinen lustig oder schräg – bis man selbst mal auf einem beliebigen Gerät auf eine Fehlermeldung stößt, die nichts aussagt, die man nicht „übersetzen“ kann oder die völlig unverständlich ist. Dann ärgert man sich meist und fängt an, wild auf dem jeweiligen Gerät herumzudrücken, um aus dem Fehlermodus wieder herauszukommen.

Fehlermeldungen sind dasjenige, was ein beliebiger Nutzer von einem beliebig komplexen „Error Management System“ zu sehen bekommt, das in Geräte oder Systeme verbaut ist. Zu einem solchen Teilsystem gehören Messpunkte, alle möglichen Arten von Sensorik, zwischen Bauteilen und Baugruppen ausgetauschte Statusmeldungen und Nachrichten und diverse Firmware und Software-Bestandteile, die den gesamten Überwachungs- und Meldeverkehr steuern. Unabhängig vom konkreten Gerät geht es bei diesem Teilsystem immer darum, mit möglichst gut positionierten Messpunkten einen im vorhinein modellierten Betriebsablauf abzubilden und Abweichungen so zu erfassen, dass entsprechend vorab erstellter Regeln das Gerät/System automatisiert verfährt. So leuchtet zum Beispiel die Tankanzeige auf, wenn ein bestimmter Schwellwert des Tankinhalts unterschritten wird, in einem Kernkraftwerk wird die Kühlleistung hochgefahren oder ein Programm wird durch übergeordnete Betriebssystemroutinen am weiteren Lauf gehindert. Im Idealfall – wenn die vorhergesehene Abweichung vom Modellverhalten durch das Gerät selbst reguliert werden soll und kann – kommt es zu irgendeinem Eintrag in eine Log-Datei und der Anwender/Nutzer bekommt von der Abweichung nichts mit außer im Fall des Überprüfens der Log-Datei. Geräte und Systeme sind dann schlecht konzipiert, wenn sie entweder zu wenige Messpunkte haben oder diese nicht an den Schwachstellen positioniert sind, nicht genügend gute Sollwert/Istwert-Vergleiche anstellen können oder die Modellierung der Funktionalität die realen Sachverhalte im Gerät nicht oder nicht genügend gut abdeckt. Wenn das Fehlerbehandlungssystem eines Gerätes oder eines Systems versagt, ist in aller Regel nicht genügend gut vorausgedacht und zu wenig Sensorik verbaut und/oder zu wenig Steuerungssoftware entwickelt worden.

Ein Beispiel für eine unzulängliche Fehlerbehandlung lieferte letzthin eine Gastherme – natürlich!! während der Heizperiode und praktisch unmittelbar vor den Weihnachtstagen (also de facto: innerhalb eines Zeitraums, in dem für nahezu einen Monat – bis Mitte Januar mindestens – mehr oder weniger alle Distributionsketten sagen wir mal großzügig schwergängig laufen aus „traditionellen“ Gründen). Wenn in einer Wohnung eine Gastherme zickt, ist praktisch immer und sofort Holland in allerhöchster Not – eine Wohneinheit ohne Heizmöglichkeit und Warmwasser kann eine höchst unappetitliche Angelegenheit werden. Alle moderneren Thermen sind seit geraumer Zeit elektronisch aufgerüstet und mit diversen Sonden, Fühlern, jede Menge Messpunkte und Interfaces für Diagnose und Service ausgestattet. Und sie liefern alle möglichen Meldungen – sowohl als Anwendungsmeldung als auch als Fehlerbericht. Hier lieferte das Gerät eine der gem. Dokumentation circa 50 möglichen Fehlerhinweise namens „F.22“. Die Aufschlüsselung in der Doku erklärt: „(Bedeutung:) Trockenbrand – Kabel zu Pumpe defekt; (Ursache:) zu wenig Wasser im Gerät, (oder) Pumpe defekt„. Erstes Problem bei Inaugenscheinnahme durch den Endnutzer: Pumpe läuft und es ist „genug“ Wasser im System gemäß Füll- und Druckanzeige. Tatsächlich war dann die Erläuterung des Notdienstes, dass dieser Fehler bei einer relativ großen Anzahl von Störungen vorkommen kann (bei Wärmetauscher-Defekten, bei Pumpenproblemen, bei Leckagen druckerhaltender Teilsysteme und so weiter…). Dementsprechend hatte der Notdienst aber natürlich außer einem typischen Schlauch zur Auffüllung des Wasserreservoirs und zum Druckaufbau praktisch kein einziges Ersatzteil dabei (unabhängig davon, dass der Monteur sich selbst als „kein Fachmann“ für die Geräte des Herstellers bezeichnete). Das Diagnosemodul erbrachte ebenfalls außer der erwarteten Anzeige von rund tausend Fehlern mit gleicher nebulöser Kodierung keine Aufschlüsse. Trotzdem wurde die Therme durch simples „Herumfummeln“ an der Pumpe zumindest wieder in Gang gebracht. Mitte Januar erfolgte dann eine Sichtung durch einen erfahrenen Monteur, der zu allererst behauptete, diese Meldung erfolge bei diesem Hersteller/Modell *immer nur* aufgrund eines spezifischen Mangels – was er im Verlauf der Begutachtung aber dann selber zu revidieren hatte durch Aufzählung und Untersuchung etlicher möglicher anderer Fehlerquellen. Natürlich hatte auch der „Spezialist“ keine Ersatzteile dabei und bearbeitete einen der aufgefundenen Schwachpunkte durch rustikales Einspritzen von Dichtungsmasse. Letztlich ist so ein geräteinternes Diagnose- und Meldesystem völlig für die Katz. Es erweckt den *Anschein*, als könne es Betrieb und Service in vielen Dingen erleichtern (also zum Beispiel die gezielte Vorbereitung einer Wartung durch Hinweise darauf, welcher Mangel vorliegt und entsprechende Mitführung von just on point-bestellten Ersatzteilen durch den Wartungsverantwortlichen) – scheitert dann aber völlig an der Einlösung des Versprechens. Die Art dieser Anscheinerweckung kann etliche langfristige systemische Folgen haben – z.B. für die Ausbildung und die Arbeits-, Aufbau- und Ablauforganisation von Service-Fachbetrieben, denen hier in der Tendenz durch den Hersteller vorgespielt wird, sie bräuchten fallbezogen „nur“ die geräteeigenen Diagnoseroutinen abrufen und in der Folge keine detaillierten Kenntnisse zu Modell, Mängelwesen und Baugruppen/-teilen (mühselig) erwerben. Schlussendlich führt das auch im Fall von (geplant/gedacht) relativ langlebigen Geräten zu schnelle(re)m Austausch des Gesamtsystems, weil das genaue Nachflöhen von Schäden im Gerät „nicht lohnt“.

Die Folge kann unter dem heutigen Regime „smarter“ (aber möglichst billiger) Geräte eine ziemliche Verschwendung an Material, Geld und Zeit sein. Eine der Folgen dürfte sein, dass ein an sich zu relativ geringen Kosten reparaturfähiges Gerät (Reparatur im weitesten Sinne verstanden, also z.B. auch nur der Austausch/das Update von Softwareroutinen) ausgesondert werden muß, weil z.B. die Herstellerfirma/sonstige Dienstleister schon in kürzester Zeit nach der Produktion mit einem anderen Produktionszyklus beginnen und jedweden Service für ehemalige Produktlinien einstellen oder bestenfalls gegen enorme Summen als Sonderleistung bereitstellen. Speziell elektronische „Gadgets“ aller Art (Smartphones als explizites Beispiel) sind von den im Grunde unglaublich kurzen Betreuungsintervallen betroffen. Für Verbraucher/Nutzer heißt das in der Konsequenz, dass durchaus teure und hochkomplexe Geräte in der Nutzungs- und Lebenszeit stark beschränkt sind. Da überdies auch andere Effekte (Werbung, Modeströmungen, neue „features“…) zu kurzen Lebenszyklen beitragen, entspricht mittlerweile eine beinahe lächerliche Nutzungsdauer von unter ein oder zwei Jahren einem erweckten Bedürfnis der Verbraucher.

Ein ziemlich angegrauter Spruch aus der EDV-Steinzeit sagt, wenn Architekten Häuser so bauen (lassen) würden wie Programmierer Programme konstruieren, der erste daherkommende Specht ganze Zivilisationen zum Einsturz bringen würde. An unzureichenden Fehlerbehandlungssystemen von smarten Geräten kann man gut 40 Jahre nach Prägung dieses Spruches ablesen, dass das Problem selbst zwar immer noch nicht aus der Welt geschafft ist und dementsprechend Architekten sich immer noch nicht an IT-Leuten orientieren dürfen, aber ein Weg gefunden wurde, durch permanentes Neuaufstellen von smarten Gadgets dem umstürzlerischen Specht immer ein paar Schritte voraus zu sein. Ein Ausweis von „Smartness“ ist das allerdings nicht.

epub – no-simple-text-Anzeige

Hier geht es um eine Klasse von Problemen (von mehreren möglichen) bei der Anzeige von „Büchern“ auf elektronischen Anzeigegeräten (eBookReader – was sowohl unter diesem Klassenbegriff verkaufte spezielle Geräte meint als auch sonstige Geräte, auf denen „eBooks“ angezeigt werden können, also etwa Smartphones, Tablets, PC aller Art, Mediencenter…). Es geht mithin um eine Auswirkung für den Nutzer, wenn man ein klassisch produziertes Ding (= Papierbuch) auf ein elektronisches „smartes device“ (= eBookReader) überträgt. Der relativ schlechte „Witz“ an der Sache aus Sicht eines Nutzers ist es, dass die auf einem eBookReader erfahrbaren Mängel nicht auf Schwächen am Gerät oder auf der Technik beruhen, sondern auf der Art und Weise, wie der „Übergang“ von konventionellem Druck auf elektonische Darstellungsmittel gehandhabt wird.

Als Einstieg für diejenigen, die mit „eBooks“ oder deren „Readern“ als Begriff nichts anfangen können, sollten vielleicht ein paar technische Dinge grob angesprochen werden. Der Begriff „epub“ im Zwischentitel bezeichnet einen Standard, mit dem Publikationen (aller Art) als Daten aufbereitet, formiert und beschrieben werden. Er liegt ungefähr ab 2009 in der derzeitigen Version „3“ vor und wurde rund um die Jahre 1996 bis 98 eingeführt. Die Einführung war keineswegs ein zufälliges Ereignis, sondern gebunden an die relativ gleichzeitige Herausgabe eines richtungsweisenden Standards für die Seitenbeschreibung“sprache“ „html“ – also dem Format von Webseiten und der Art ihrer Darstellung im „Internet“. Der innere Zusammenhang der beiden Standards wird deutlich, wenn man etwas verkürzt sagt, dass das „epub“-Format im Grunde eine leicht spezialisierte Form des „html“-Formats ist. Im Prinzip ist es eigentlich so, dass man auf einem eBookReader „Webseiten“ betrachtet, wenn sie im epub-Format vorliegen. Es gibt von vielen Herstellern eigene Versionen des epub-Formats, die für diese Hersteller irgendwelche Vorteile erbringen (z.B. „MOBI“ oder „AZW“ für Amazons Kindle-Reader oder ähnliche), aber der epub-Standard ist die Grundlage für alle Spezialversionen. Wie man beim Durchstöbern des Internets permanent erfahren kann, ist das Darstellen von allen möglichen Inhalten (Text, Bilder, Videos, Audio, Tabellen, Grafiken, Listen, ……) mithilfe dieses Standards prinzipiell sehr gut möglich.

Wenn man nun ein Buch oder eine sonstige Publikation in „elektronischer“ Form auf irgendeinem dafür geeigneten Gerät anschauen/lesen will, dann kommt es (zumindest mal nicht selten) zu Darstellungsproblemen, die man als Leser/Betrachter ganz klar als Mängel bezeichnen muß. Hier ist meist nicht der reine Text betroffen – der kann gegebenenfalls zu „klein“/zu „groß“ sein oder mit einem „Font“ (einer Drucktype) dargestellt sein, die einem als Leser vielleicht nicht gefällt, aber das kann man in der Regel (leicht) nach eigenen Wünschen ändern/einstellen. Auf echte Probleme stößt man hingegen (zumindest mal nicht selten) bei der Darstellung von Bildern, Grafiken, Tabellen, Fuß-/Endnoten, u.U. Listen und sonstigen Elementen, die von „reinem Text“ abweichen.

Ich will hier ein Beispiel für das Gemeinte zeigen – allerdings mehr beschreibend als zeigend. Dennoch kann man sich im folgenden Bildervergleich im Überblick wahrscheinlich leicht klarmachen, um was es mir hier geht:

Buchseiten-Scan
Scan einer Buchseite mit Grafik

eBook-Scan
Scan einer eBookReader-Seite mit Grafik

Die Bilder zeigen einen Seitenausschnitt aus einem Buch (Ian Morris, „Wer regiert die Welt?“) – links aus dem Druckwerk, rechts der ungefähr gleiche Abschnitt in einem eBook. Wie man ungefähr erkennen kann, ist auf der Seite eine Grafik im Textfluss eingearbeitet. Bei der Buchseite nimmt die Grafik inklusive der Beschreibung mehr als die Hälfte der Seite in Anspruch, beim eBook ist der aufgewendete Platz sehr deutlich erheblich geringer. Die Grafik ist eine recht simple Darstellung zweier Tendenzkurven in Schwarz und hellem Grau und im Buch so groß und kontrastreich gedruckt, dass ein Leser völlig problemlos den Kurvenverlauf samt Kurvenvergleich erkennen kann. Beim eBook scheitert der Leser daran aufgrund der geringen Detaillierung und der schwachen Kontrastierung der Kurven. Zumindest in der regulären Textfluss-Anzeige, die den Schwerpunkt auf den Reintext legt. Aber das wäre an sich noch kein Problem, denn es gibt (im schlechten rechten Bild nicht erkennbar) über der Grafik die Angabe „[Bild vergrößern]“, die als „Link“ ausgestaltet ist. Wenn man diesen Link aktiviert (durch Betatschen), dann wird eine neue Seite gezeigt, die das Bild in größerer Ausführung zeigen *soll* – es aber in dieser Version des eBooks wie in vielen ähnlichen Fällen nicht tut. Wobei schon das Aktivieren des Links weitaus weniger leicht fällt als es sein sollte, denn der Link ist mit winziger Schriftgröße gestaltet und man muß mit handelsüblichen Wurstfingern schon verdammt genau treffen um die winzige Fläche zu erwischen, die der Link einnimmt. Auf dieses „finger shooting„-Problem trifft man heutzutage auf enorm vielen „touch devices“ wie Smartphones oder ähnlichem – nach dem Eriwan-Prinzip ist es „im Prinzip“ leicht möglich und sinnvoll und angemessen, aber in der Realität muß man ziemlich hohe Anwendungshürden überwinden (also z.B. zunächst mal „aufzoomen“, bis die touch-Fläche so groß ist, dass man überhaupt eine Chance hat sie zu treffen – und dann natürlich erst mal wieder „runterzoomen“, damit man wieder was erkennen kann).

Folge dieser mangelhaften Darstellung: die Grafik kann man als Leser des eBooks vergessen. Man kann sie nicht angemessen betrachten.

Dasselbe Spielchen kann einem mit etlichen anderen non-Text-Elementen bei einem eBook auch passieren. Tabellen zum Beispiel werden (ich will hier nicht nochmal „zumindest nicht selten“ schreiben – denn tatsächlich muß man ganz unhöflich, aber dafür klar sagen: „oft“ oder sogar „in der Regel“) als ein Seitenelement so formatiert, dass sie in den Textfluss einer eBookReader-Seite hineinpassen – d.h. die Inhalte der Tabelle werden herunterskaliert zu unleserlich winziger Größe. Oder Bilder, die in einem gedruckten Buch aus gutem Grund eine ganze Seite einnehmen oder quer formatiert sind, verbleiben im eBook als in den Textfluss integrierte Elemente und damit entgegen dem Design des Druckwerks (viel zu) klein in der Darstellung.

Wie in der Einleitung schon formuliert ist hier der Skandal nicht, dass das Gerät oder die Technik oder der zugrunde liegende Standard zu „dumb“ ist, um die Anzeige ungefähr auf der Qualitätsebene des gedruckten Buches zu gewährleisten. Es wäre ohne weiteres schon seit Beginn an (also auch mit den ersten Versionen des Standards) sehr wohl möglich, mit diversen Programmiertechniken und Code-Anreicherungen die Anzeige von non-Text auf eBookReadern ausreichend und nutzerfreundlich zu gestalten. Aber es ist dafür Aufwand erforderlich – entweder seitens des eBook-Lektorats oder (schwieriger) seitens des Herstellers eines eBookReaders, der seine geräteeigene Software so gestalten könnte, dass – im Falle, es erfolgt keine Unterstützung im Seitenkode selbst – dem Nutzer irgendwelche supportiven Funktionen zum vergrößern/kippen/zoomen angeboten werden. Derzeit werden solche Unterstützungsfunktionen bei weitem zu selten in eBooks eingearbeitet. Das ist „dumb“, weil es im Grunde problemlos zu machen wäre.

Sat-Receiver und ihre Kanallisten

Wie viele andere Gerätetypen auch sind Sat-Receiver (oder Settop-Boxen, „smarte“ TV-Geräte…) heute im Grunde auch nur Computer – allerdings mit spezifischen Auslegungen auf ihren Zweck hin. Der Grundzweck ist das Verarbeiten von Signalströmen, die über eine Sat-Schüssel eingefangen werden. Darüberhinaus müssen selbst die einfachsten und billigsten Geräte eine mehr oder weniger aufwändig programmierte „Oberfläche“ aufweisen, mit der ein Benutzer über die Anzeige am TV-Gerät (oder sonst einem Anzeigegerät) interagieren kann. Es wird meist eine „Fernbedienung“ für diese Interaktion genutzt werden – wiederum ein spezialisiertes Eingabegerät, das auf möglichst kleinem Raum die diversen Funktionstasten aufweist um den Receiver zu bedienen.

Die simpelsten und häufig auch billigsten Sat-Receiver haben es bei den Oberflächen meist ganz gut: sie sollen nicht viel können außer dem Umschalten von einem zum anderen Programm und ansonsten möglichst simpel anzeigen können, wo (auf welchem Kanal) man grad ist und was es sonst noch alles gibt, wohin man zappen könnte. Viele andere Sat-Receiver auf der nach oben offenen Preis-Skala müssen sich erheblich mehr Mühe machen – der Konkurrenzdruck von „smarten“ TV-Geräten, Streaming über irgendwelche netzangeschlossenen Geräte, BluRay/DVD-Playern usw. ist so hoch, dass mittlerweile auch etliche andere „smarten“ Funktionen von „besseren“ Geräten erwartet werden. Netzanschluss (über WLAN etc.) zusammen mit Durchgriff auf alle möglichen „Apps“, integrierte Festplatten mit Aufnahmefunktion, Spiele oder sonst noch aller möglicher Krimskram ist auf zeitaktuellen Mittelklassegeräten normaler Standard. Im Prinzip ist das alles auch gar kein Problem für diesen Gerätetyp, denn – wie schon gesagt – im Grunde ist es eh‘ ein ganz normaler Computer mit Betriebssystem (meist ein Linux-Derivat) und allen Bauteilen, die man dort erwartet.

Aber durch die gerätetypische Spezialisiertheit entsteht für Benutzer in gewisser Hinsicht zwangsläufig ein Problem. Die Interaktionsmöglichkeiten sind im Gegensatz zu einem allgemeinen PC „gewollt“ beschränkt/vereinfacht – die Standardtastatur fehlt (es sei denn, man kann eine solche zusätzlich anschließen, was aber nur dann wirklich etwas bringen würde, wenn man auch mit einer allgemeinen Oberfläche auf alle Systemteile zugreifen könnte), der „Maus“/“Touch“-Kontakt ist durch die Fernbedienung und ihre Einschränkungen begrenzt und ganz allgemein ist die Oberfläche aller Sat-Receiver stark formiert, d.h. es gibt für alle Funktionalitäten herstellereigene Oberflächenelemente wie Fenster und Menüs und dergleichen. Wenn etwas nicht in die Oberfläche hinein-programmiert wurde, dann gibt es auch keine Möglichkeit durch den Benutzer, die fehlende Möglichkeit nachzubessern. Zum Problem wird sowas dann, wenn benutzerseitig viele Daten zu verwalten sind und die Starrheit der Oberfläche eine zügige und rationelle Bearbeitung (im Gegensatz zu einem normalen PC) unmöglich macht.

Bei Sat-Receivern liegt auf jeden Fall mehr oder weniger zwangsläufig eine recht große Datenmasse vor: die empfangenen Kanäle eines Sat-Receivers sind auf jeden Fall „viele“. Selbst bei Empfang nur eines einzigen Satelliten-Signals sind es heute meist weit über tausend Kanäle, die man nach einem Suchlauf in der Programmliste hat. Wenn man mehr als einen Satelliten empfängt, geht die Zahl der Kanäle auch sehr schnell raketengleich nach oben. Zum Beispiel greife ich auf zwei Satelliten zu und habe dementsprechend im Augenblick knapp 3.000 Kanäle in der Liste. Das sind auf jeden Fall mal viele „Daten“, die man als Benutzer in den Griff bekommen will.

Und man *muß* die Kanalauswahl auch irgendwie in den Griff bekommen – und zwar durchaus häufiger mal, also etwa ein bis dreimal im Jahr (wenn man sich möglichst wenig drum kümmert, ansonsten und wenn so ein Receiver gerne mal spinnt und resettet werden muß auch öfter). Das liegt daran, dass die hohe Zahl an empfangenen Kanälen überhaupt nichts besagt – mindestens 90 bis zu 98 Prozent der Kanäle sind für jeden beliebigen Nutzer nämlich aus unterschiedlichen Gründen völlig nutzlos. Zum Beispiel, weil sie fremdsprachlich sind und man im Großen und Ganzen die eigensprachlichen Programme sehen möchte. Zum Beispiel, weil die ganz überwiegende Masse an Kanälen regions- bzw. anbietergeschützt und verschlüsselt ist und dementsprechend ohne Zugang überhaupt nicht angesehen werden kann. Zum Beispiel, weil ein großer Teil der zugänglichen Kanäle ein ganz übler schrecklicher Dreck ist – widerliche Werbesender oder Fleischmarktspammer oder dergleichen. Was man also immer wieder mal machen *muß* als Benutzer ist das Aussortieren von unbrauchbarem Müll und das Auffinden von brauchbaren Kanälen, die auch immer wieder mal ihre Kanalplätze wechseln und/oder eingestellt werden bzw. neu hinzu kommen. Und das eben vor dem Hintergrund der zahlenmäßig vielen Kanäle.

Im Großen&Ganzen ist es möglich zu behaupten, dass diejenigen Hilfsfunktionen der Geräte, die einen Nutzer beim Ausflöhen unterstützen sollen, allesamt und durch die Bank weg und quer über alle Marken und Preisklassen unzureichend sind. Es findet sich *immer* mindestens ein Haar in der Suppe des programmierten Umfelds – wenn zum Beispiel nach „voreingestellten Listen“ eine Grundbelegung automatisch vorgenommen wird, fehlen einige, die man gerne hätte und der Rest der Liste besteht aus SD-Sendern anstatt der vielleicht gewünschten HD-Quellen (oder andersherum). Letztlich muß man sich dann doch immer durch die endlosen Listen wühlen und den Mist rausschmeißen, den man nicht will auf dem Gerät. Und *das* kostet eine nicht nur gefühlte Ewigkeit an Zeit, denn die Geräte sind ganz grundsätzlich bei den Verwaltungsfunktionen… nun, sagen wir mal höflich: nicht besonders fix.

Es ist hier nicht so, dass man den Geräten selbst „Dumbness“ vorwerfen könnte. Sie können das, was sie können sollen und man kann theoretisch damit die beworbene Funktionalität ausschöpfen. Es könnte alles wahrscheinlich(st) besser programmiert, erheblich schneller, bei weitem billiger, standardisierter, nutzerfreundlicher und besser in den ohnehin vorhandenen Gerätepark integrierbar sein – aber dafür scheint es nicht genügend Konkurrenzdruck zu geben. Was aber gehen würde ist etwas anderes: Hersteller könnten sehr wohl und sehr leicht zu ihren Modellen einen langanhaltenden Support anbieten – und da versagen alle durch die Bank weg – wenn auch in mehr oder weniger großem Ausmaß. Besonders bedauerlich ist dabei, dass ausgerechnet die hochpreisigsten Hersteller im Bereich Support wenig bis gar nichts leisten. Zu einem solchen Support gehört zum Beispiel die Möglichkeit, die Kanalliste zugänglich zu machen (also etwa über USB speichern/auslesen zu können) und über externe Geräte bearbeitbar zu machen – also z.B. am PC oder „Smart“phone. Zu einem *guten* Support durch den Hersteller würde es gar – man lese und staune! – gehören, über eine entsprechende Webseite vorkonfigurierte und gepflegte Kanallisten anzubieten, die man dann einfach nur noch (evtl. leicht angepaßt) auf den Receiver lädt (oder über den Netzanschluß integriert). Wenn man „Dumbness“ vermeiden will, dann darf man nicht nur das Endgerät mit Gimmicks beladen, die doch nie genutzt werden, weil die Spielekonsole oder der PC beim Nutzer die bevorzugte Wahl ist, sondern man muß ein Support-Paket liefern, das über die Lebensdauer des Geräts permanente Unterstützung bietet und einen echten Mehrwert für den ohnehin sündhaft überteuerten Receiver darstellt. So, wie die Hersteller auf diesem Markt agieren, machen sie aus potentiell guten Geräten durch ihre fehlende Unterstützung „dumb devices“.

smart (Android) phones – dumb systems

Eine bestimmte Geräteklasse darf in dieser Nölerei im Jahr 2016 natürlich nicht fehlen – das sind die Blog-Thema-beitragenden „Smartphones“. Allerdings will ich hinsichtlich des Gattungsbegriffs auf der Stelle wieder massiv zurückrudern und auf einen Mangel hinaus, der im Grunde mit den Geräten selbst gar nichts zu tun hat.

Als erstes muß ich die Nölerei reduzieren auf einen bestimmten Typ von Geräten, der allerdings – wenn man veröffentlichten Nutzungszahlen glaubt – der mit enormem Abstand meistgenutzte Typ ist: gemeint sind diejenigen Telefone mit dem Betriebssystem „Android“ (einem Linux-Abkömmling mit spezifischer Auslegung, konzipiert und maßgeblich entwickelt im Hause „Google“). Das ist deshalb erforderlich, weil man bei Herstellern und Vertreibern von Geräten mit anderem Konzept (zum Beispiel „Apple“ oder „Microsoft“) letztlich keinen Ansatz zu einer gültigen Kritik hat – wenn ein Kunde im Bewußtsein der Spezifika eines Geräts und Herstellers ein Telefon mit herstellereigenem Betriebssystem kauft, dann wird er (der Kunde) wohl wissen, worauf er sich einlässt und warum. Beim grundsätzlich „quelloffenen“ und Hersteller-unabhängigen „Android“-Gerät ist das anders: bei den allermeisten verkauften Geräten besteht zwar eine beworbene und auch teilweise reale (massive) Verbindung zu „Google“ (in Form von Advertisement und erzwungener Bindung [Googles Play-Store etwa]), aber eben nur im aggressiven Abverkauf und nicht in der Verantwortung. Falls das so klingt wie eine Freisprechung von „Apple“ oder „Microsoft“ hinsichtlich ihrer Gerätepolitik bzw. so, als wären deren Produkte frei von systemischen Mängeln: das ist *nicht* meine Meinung – es lohnt sich für mich (aus meiner Sicht) nur nicht, solchen Geräten überhaupt irgendeine Form der Aufmerksamkeit zu schenken.

Des weiteren muß die Nölerei eingeschränkt werden in ihrer Zielrichtung: nicht die Geräte selbst stehen hier in der Kritik. Das mag angesichts möglicher Erfahrungen mit konkreten Geräten in den Jahren seit ungefähr 2007 durchaus überraschen, weil man sehr wohl im Gebrauch „Dumbness“ an vielen Stellen begegnen kann. Aber – und es ist ein wichtiges und entschiedenes „aber“ – im Grundsatz besteht kein vernünftiger Zweifel daran, dass die Beschreibung „smart device“ durchaus auf die Geräteklasse insofern zutrifft als man damit offensichtlich genau das meint, was die Geräte eben sind: in der zeitlichen Relation hochentwickelte Computer für vielfältige (persönliche) Nutzungsbereiche. Das schließt nicht aus, dass die gesamte zugrunde liegende Technologie nicht noch wesentlich besser in der Qualität, wesentlich angepaßter an die Bedürfnisse / Erfordernisse und wesentlich solider im Design und der Verarbeitung sein könnte – aber das ist angesichts der geringen Zeitspanne der verbreiteten Nutzung nicht überraschend.

Allerdings *ist* überraschend, dass weder Konsumenten noch Hersteller bei der begeisterten Umstellung und Ausrichtung auf diesen Gerätetyp bestimmte Lehren aus der Vergangenheit gezogen haben und sich auch 10 Jahre nach verbreiteter Nutzung immer noch beharrlich weigern, diese Lehren endlich zu beherzigen.

Und es gab in der Geschichte des „Personal Computer“, die in den 70er Jahren des 20. Jhdt. praktisch und theoretisch in den 60ern begann und nunmehr auch schon alles in allem 50 Jahre auf dem Buckel hat,  reichlichst Lehren, die man bei diesem neuen Gerätetyp unbedingt hätte berücksichtigen *müssen*. Eine davon ist diejenige der Vermeidung von „Wildwuchs“ hinsichtlich grundlegender Standards, Normen und Spezifikationen, wie sie beispielsweise in den 80er Jahren bei dem Aufwuchs der „IBM-PC-Kompatiblen“ erfahren wurden. Diese Lehren standen meiner Ansicht nach beim Design und Roll-out der Android-Geräte im Hause „Google“ von Beginn an sehr stark im Fokus – und im Großen&Ganzen wird jeder, der nicht auf das Suchen von Haaren in einem sehr großen Suppentopf aus ist hier dem Konzern zugestehen müssen, dass die Markteinführung und Konzeptumsetzung im Vergleich zu „damals“ sehr ordentlich gelungen ist.

Eine ganz andere Lehre aus den „wilden“ Zeiten des „PC“ wäre die erfahrene Notwendigkeit der Software-Pflege gewesen – auch für Geräte, die drei Tage älter sind als ein Jahr.

Diese aus Konsumentensicht völlig selbstverständliche Lehre (immerhin haben Millionen und Abermillionen von Leuten die 80er und 90er sehr konkret durchleiden müssen im „PC“-Sektor!) war aber offensichtlich im Google- (resp. Alpha-) Konzern überhaupt keinen Gedanken und schon gar keine Anstrengung wert – noch nicht einmal in letzter Konsequenz für diejenigen Geräte, die in direkter Lizensierung als Referenzgeräte im Auftrag des Konzern von anderen Herstellern gebaut werden (auch wenn dort wenigstens ein gewisses „Updating“ kompromittierter Software-Teile stattfindet). Die große Masse an Konsumenten, die „Android“-Geräte über übliche Vertriebswege beziehen (häufig irgendwelche halbseidenen TelCom-Anbieter mit einem festen Mitarbeiterstamm von ein paar Dutzend Marketing-Experten und vielen tausend Vertretern….), stehen allerdings dabei mit Absicht im Dauerregen des absoluten Fehls an Service und Support.

Diese Form von Mangel war jedem sehr gut bekannt – auch den Konsumenten! Zum Beispiel hat sich die Firma Microsoft trotz der bekannten Fluten an Schad-Software aller Art in den 80er, 90er und Nullerjahre erst Mitte der Nuller-Jahre dazu durchgerungen, so etwas wie einigermaßen ernsthafte Gegenmaßnahmen überhaupt anzubieten. Vom damals auch schon praktizierten realen Zwang zum kurzzyklischen Neukauf von Geräten aufgrund rascher Veralterung mal ganz abgesehen. Solche fundamentalen Support-Mängel waren bekannt und gehasst vor Einführung der „Smartphones“ – auch und gerade bei „Google“, das doch jahrelang so nutzerzärtlich nicht „evil“ sein wollte (mit klarer Adressierung der Botschaft an die Firma Microsoft). Wie „dumb“ muß man also als Konsument, Vertreiber und Hersteller sein, um einen allseits bekannten und durchlittenen Mangel bei einer neuen Geräteklasse zum dritten oder vierten Mal bereitwillig noch einmal auf sich zu nehmen? Antwort: ziemlich „dumb“.

Inlandsflüge

Neulich wurde in einer Tageszeitung mal wieder das Thema abgehandelt, welcher Verkehrsträger der „Beste“ sei für ein Szenario. Wie üblich bei solchen Dingen war das Szenario so gewählt, dass überhaupt eine gewisse grundsätzliche Vergleichbarkeit zwischen verschiedenen Systemen hergestellt werden konnte – Ausgangs- und Endpunkt der gedachten Reise war der Hauptbahnhof einer Metropole. Unter dieser (schon offensichtlich sehr gekünstelten) Prämisse wurden dann die Verkehrsmittel Flug, Bahn, Bus und Pkw nach verschiedenen Kriterien gegeneinander gerechnet (wieder mit etlichen vereinfachenden Setzungen). Vergleichsziel war, ungefähr zu ermitteln, welches Verkehrsmittel wohl für einen Konsumenten das „günstigste“ sein könne. Das ist nicht nur eine reine Frage der (direkten/indirekten) Kosten, sondern immer auch eine Kombination aus Kosten, Bequemlichkeit, diversen Formen des Aufwandes und persönlicher Voraussetzungen. Im stark vereinfachenden Fall des Zeitungsartikels (Startpunkt: München, Zielpunkt: Berlin) kam die Bahn als „bestes“ Verkehrsmittel heraus, gefolgt (glaube ich) von Fernbus, Flug und dann Pkw. Typisch für die „Jetztzeit“ war ein Betrachtungspunkt bei dem Vergleich auch die „Umweltbelastung“, die für ein Reiseszenario durch die Wahl des/der Verkehrsmittel entsteht – wenn ich es richtig verstanden habe, war es vielleicht aber kein „Hauptkriterium“ bei der Betrachtung (hier kann ich mich täuschen, denn es wurden keine Rohdaten, sondern nur eine grobe Beschreibung der gewichtenden Elemente angegeben). Wenn man mal von den Fernbussen absieht, die es (beispielsweise) in den 70ern oder 80ern des letzten Jahrhunderts in der alten Bunzreplik als Reisemöglichkeit nicht in der Form gab wie „heute“, dann kommt einem das Ergebnis ziemlich vertraut vor – auch „früher“ kam die Bahn als Reiseverkehrsmittel immer am besten weg bei solchen künstlichen Betrachtungen. Und der Pkw mehr oder weniger zwangsläufig am schlechtesten.

Zunächst mal: ich denke nicht, dass dieses Ergebnis falsch oder unrealistisch oder kontraintuitiv oder sonstwie absichtsvoll verfälschend ist. Bei den jeweiligen gesetzten Bedingungen eines solchen Vergleichs ist das Ergebnis im Grunde im vorhinein bestimmt. Es sagt dann natürlich auch wenig aus über reale Verkehrsströme und Wahlmöglichkeiten eines Konsumenten. Wer für eine Reise über keinen Pkw verfügen kann, der wird für seine Wahl eine Kombination von Kosten/Zeitaufwand veranschlagen und sich letztlich wohl für das kostengünstigste Angebot entscheiden (was „heute“ für Metropolverbindungen wohl der private Fernbus sein dürfte). Derjenige hingegen, der aus einem Bündel von Gründen über einen Pkw verfügen kann für eine (beliebige) Reise, wird im allgemeinen anders rechnen – die „Abnutzungskosten“, der „Finanzierungsaufwand“, die „Umweltbilanz“ des Fahrzeugs für diese Reise, die anteiligen Systemkosten (Investitionen in Bau und Betrieb des Straßenverkehrsnetzes inklusiv Polizei-, Rettungs- und Pflegekräfte)…. all das fällt bei der konkreten Auswahl des Verkehrsmittels einer Reise eher äußerst flach und übrig bleiben eigentlich nur die direkten Kosten für die Betriebsmittel des Fahrzeugs für diese Reise. Das hat nichts mit verschleiernder Irrationalität des Konsumenten zu tun, die ihn daran hindert, die „wahren“ Kosten seines Konsums zu durchschauen – in der individuellen Gesamtkalkulation eines Konsumenten für seine Lebensführung ist in dieser Gesellschaft ein Pkw in aller Regel ein nicht zu umgehender Sollpunkt ähnlich den Heizkosten oder einem Quadratmeterwert für den Wohnaufwand. Dem steht nicht entgegen, dass ein beliebiger Konsument durchaus den Realwert eines Fahrzeugs „mystisch“ überhöht und mit dem Gerät selbst völlig absurde und tatsächlich irrationale Vorstellungen verbindet – jeder Konsument lebt eben in seiner eigenen kleinen Welt der Vorlieben und Abneigungen.

In der realen Welt einer industriellen Wohlstandgesellschaft ist das Ergebnis solcher Verkehrsträgervergleiche alltäglich augenfällig: Millionen und Abermillionen von Pkw lavieren sich durch überlastete verkehrliche Engstellen von A nach B nach C nach A. Neben der uralten unklärbaren Frage danach, warum die Leute nicht eigentlich besser direkt in A bleiben können und die gesamte Hin- und Herzieherei einfach mal seinlassen, bleibt außerdem auch für alle anderen Verkehrsträger wie Luft, Schiene und selbst noch die Wasserstrassen so viel über an Transportbedarf, dass auch diese Verkehrsmittel zu bestimmten und keineswegs seltenen Anlässen völlig überlastet sind.

Ich selbst als individueller Konsument hatte es in den letzten Jahrzehnten – also den Jahren des mehr oder weniger „produktiven“ Berufslebens – relativ leicht mit der Auswahl des Verkehrsmittels. Erstens lebte/arbeitete ich in einem sehr kleinen Land, vor allem unter den Bedingungen des schmalen Handtuchs der Ex-BRD. Ost-West-Ausdehnung war ohnehin immer nur maximal wenige hundert Km – nur im ganz extremen Fall Nördlichst-Südlichst (etwa: Flensburg vs Berchtesgaden) kommen mal reichlich mehr als 1.000 Km zustande. Und im „normalen“ Fall (etwa: Münster/Müchen) sind es auch im Nord/Süd-Fall wohl eher maximal 500 bis 700 Km, die mal zu Buche schlagen können. Auch unter den wiedervereinigten Bedingungen hat sich am geografischen Charakter im Grunde wenig geändert – man kann/muß/will nun eben auch in West/Ost-Richtung in extremen Fällen 1.000 Km in Kauf nehmen. Gemessen an Distanzen, die Konsumenten in anderen Ländern durchaus „üblicherweise“ in Kauf nehmen müssen, ist alles in Deutschland mehr oder weniger bequeme „Kurzstrecke“. Zweitens habe ich selbst immer soweit als überhaupt nur irgendwie möglich auf Fahrerei – oder allgemeiner: Wegezeiten – verzichtet. Speziell auf berufsbedingte Wegezeiten war ich nie scharf – alles oberhalb von irgendwas um eine Viertel-/Halbstunde hinaus schien mir immer unverantwortlich weggeschmissene Lebenszeit zu sein. Dementsprechend versuchte ich immer, möglichst nah an der Arbeitsstätte zu wohnen (mit dem von vielen so empfundenen damit verknüpften Nachteil, dass man dann entweder den Arbeitsstätten hinterherziehen muss – u.U.: häufig – oder aber möglichst weitgehend auf überregionale Abeitsstättenwechsel verzichtet). Natürlich ist mir diese gewünschte Nähe über das gesamte Berufsleben betrachtet nicht gänzlich gelungen – die Zeiten, die auch ich auf der Strasse und dann unliebsamerweise oft im Stau zu verbringen hatte, bemessen sich gefühlt in ganze Erdzeitalter (gottjeh, die scheiss 471 seinerzeit bzw. überhaupt Metropolverkehr….).

Was ich als Konsument dementsprechend extrem(st) selten zu betrachten hatte war die Möglichkeit der Nutzung von Inlandsflügen. Für gar nicht wenige Leute ist ein Inlandsflug durchaus normaler Alltag – selbstverständlich im Regelfall als berufsbedingte Gegebenheit. Wer sich etwa im Großraum Köln/Bonn als Bundesbediensteter in den 80ern seine Klitsche hingestellt hatte und sich nach 1990+ in Neupreussenland auf einmal auf einem Dienstposten im Bundeshauptslum Berlin wiederfand, der wird im Allgemeinen die diversen Angebote zur DiMiDo-Tätigkeit in Verbindung mit Fluchtmöglichkeiten durch die Luft angenommen haben. Überhaupt wird jede Geschäftsperson ab irgendwo um die 500 Km und darüber hinaus anfangen, ernstlich über Inlandsflüge nachzudenken – und sei es nur, um auf die Dauer gesehen zu vermeiden, dass ihm/ihr die Koffer bei dem üblichen Lebensmittelpunkt des privaten Lebens vor die Tür gestellt werden.

Aber selbst in meinem Fall (i.d.R. wohnliche Nähe zur Arbeitsstätte) kam es schon mal vor, dass aus welchen Gründen auch immer im Inland „weite“ Strecken in kurzer Zeit zu bewältigen waren. „Weit“ heißt hier wie oben angedeutet: 500 (Strassen-) Km und mehr, ggf. auch mal „nur“ 300 oder 400 Strassenkilometer. „Kurze Zeit“ meint hier ebenfalls einen üblichen Ansatz: man will/muss/soll am selben Tag hin und wieder zurück oder hat sonstige zeitliche Schranken. „Damals“ – also alles in allem genommen vor breitem Ausbau der ICE-Strecken, Fernbussen und sonstigen Bedingungen – betraf so eine Möglichkeit für einen Inlandsflug beispielsweise solche Start-/Endpunkte wie Hamburg/Köln oder /Frankfurt oder /München und beinahe sowieso immer den Endpunkt Berlin (vor „Neu-Schland“ und auch noch lange danach wegen Ausbauproblematik der Fernstrecken West/Ost). Technisch und vom praktischen Ablauf her gesehen funktionierte so eine Inlandsreise „damals“ wie folgt (nur als mögliches Beispiel): man dümpelte irgendwann morgens zu relativ früher Stunde (z.B. ab 7) zum Flughafen Köln/Bonn (oder Hamburg oder….), kam nach einer halben/sonstwas Stunde dort an, kaufte innerhalb von etwa 10 Minuten einen Kaffee/Softdrink, Tageszeitung und Ticket, wanderte durch ein Gate in den Flieger, hob ab und landete eine Stunde später in Stuttgart/Frankfurt/München/Berlin/woauchimmer. Dort angekommen mit Taxi/S-Bahn/Mietwagen/whatever zum Ort des Geschehens woauchimmer und dann irgendwann am Nachmittag/frühem Abend das Ganze umgedreht zurück. Viele werden an dieser Stelle belustigt aufschreien und sagen, „So’n Unsinn!!! Das ging auch 1992 nicht – da mußte man am Flughafen XY auch schon MINDESTENS ’ne Stunde vor Abflug da sein und für die Linie ZX konnte man NIE ein Direktticket kaufen, sondern mußte allermindestens zwei Wochen vorher buchen – und selbst dann konnte man sich wg. Überbuchung nie drauf verlassen, dass man dann auch wirklich in den Flieger kam!!!“. Dagegen kann ich nichts sagen – ich selbst bin zu wenig betroffen gewesen von Inlandsflügen und den Problemen, die da auftauchen können. Aber ich kann *anekdotisch* und damit im irrelevanten Einzelfall versichern, dass der dargestellte Ablauf in den 70ern, 80ern und selbst noch 1994 und auch noch später so funktioniert *hat*. Ich war dabei.

Was ich mit dieser anekdotischen Darstellung sagen möchte ist, dass das System „Inlandsflug“ für mich „damals“ (irgendwann) funktioniert hat – es gab für mich eine Zeit, in der ein Inlandsflug unter bestimmten Bedingungen (hauptsächlich: wenig verfügbare Zeit in Verbindung mit einer Distanz von mehr als 500 Strassenkilometern) eine vollkommen valide und brauchbare Möglichkeit eines Verkehrsmittels darstellte. Ich konnte mich entscheiden zwischen Auto, Bahn und Flug – jedes Mittel war mit spezifischen Bedingungen versehen, aber alle diese Verkehrsträger waren Möglichkeiten mit verlässlichen Gegebenheiten (aus meiner Sicht).

Fast Forward ins Jahr 2014. Der gesamte Terrorkram ab 2001 ist nun umfänglich in die Flugbedingungen eingearbeitet. Ebenso eingearbeitet ist der ganze Marketing- und Merchandise-Krempel „moderner“ Flughäfen. Black Sabbath spielt in Deutschland in Berlin und München. Es steht also eine Reise an von der Nordseeküste aus zu einer der beiden Städte. Da eine gute Freundin aus Schleswig-Holstein ebenfalls dabei sein will, ergibt sich schnell München als Zielort mit dem Freitag als Konzerttermin. Da die Begleitung noch unter Beruftstätigkeit leidet, kommt als Reisetag nur der Freitag selbst in Betracht. Distanz und Zeitrahmen sprechen hier also eindeutig für einen Inlandsflug – es ist anders im Grunde nicht zu machen. Theoretisch gesehen hätte man auch auf 7 bis 10 Stunden (plus) Auto-/Bus-Verkehr oder etwa 7 Stunden (plus) ICE-Verkehr planen können – aber dann noch bis in die Puppen das Event durchhalten? Keine Alternative.

Als Abflugsort wurde Hamburg als Kompromiss zwischen SWH und Nordseeküste gewählt. Für mich unproblematisch, wenn auch nicht der nächstmögliche Abflugsort. Problematisch im Zusammenhang ist allerdings, dass hier das Verkehrsmittel Flugzeug mit einem oder mehreren anderen kombiniert werden muß – mit den bekannten Unsicherheiten. Normalerweise muss ich für die Strecke bis Fuhlsbüttel etwa zwei Stunden plus/minus eine Viertelstunde kalkulieren mit dem Auto und etwa dreieinhalb Stunden mit der Bahn/S-Bahn (oder etwas weniger, wenn ich bis Bremen mit dem Pkw fahre und erst ab da auf Zug/S-Bahn schwenke – das kann dann ungefähr auf drei Stunden gesamt kommen). Theoretisch ist das also ein No-Brainer: das Auto ist am „praktischsten“ – theoretisch. Praktisch gesehen ist Hamburg bzw. der Weg dorthin verkehrstechnisch natürlich immer eine potentielle Vollkatastrophe – von den beliebten A1-Staus angefangen über den Elbtunnel bis hin zum grundsätzlichen Verkehrschaos auf den typischen Großstadtautobahnen mit ihren Unwägbarkeiten. Im konkreten Fall habe ich zweieinhalb Stunden angesetzt mit einem 10-minütigen Sicherheitspuffer. Diesen Zeitansatz habe ich dann auch in Gänze ausgeschöpft – benötigt wurden also tatsächlich 2 Stunden und 40 Minuten bis zum Counter auf dem Flugplatz. Der Eintreffzeitpunkt an dieser bestimmten Stelle war allerdings von außen vorgegeben: wie es heutzutage eben so ist, „muss“ man 120 Minuten vor planmäßigem Take-Off am Flughafen sein, wenn man seinen Platz „sicher“ haben will. Es heißt oft (was auch immer das im Einzelfall heißen mag), dass 90 Minuten ebenfalls „locker“ ausreichen und selbst die älter bekannter „60 Minuten“ durchaus genügen können/sollen. Das Letztere, das mit den „60 Minuten“, sollte/kann man glaube ich komplett vergessen – der Lufthansa/Air Berlin/Condor/sonstwas-Schalter in Fulsbüttel macht auf jeden Fall 61 Minuten (oder meiner Meinung nach: 63 Minuten) vor Take-Off für den Flug dicht. Kalkuliert hatte ich also mit den „vorgegebenen“ 120 Minuten vor Take-Off Eintreffzeit am Schalter – und diesen Zeitpunkt habe ich ganz knapp gerissen: durch die verkehrlich bedingte Verspätung war ich 115 Minuten vor Take-Off an der Counter-Schlange (meine Begleitung war pünktlicher, hatte es aber auch nicht so weit – aber sie hatte sich nicht angestellt, sondern im Eingangsbereich auf mich gewartet). Kein Problem soweit – 55 Minuten bis zum Counter-Schluss für diesen Flug hätten in jedem Fall locker reichen müssen. Außer natürlich an diesem Tag (Freitag), an diesem Counter und diesem Flug und diesem Flugplatz. Wie oben schon angeklungen werden an diesem Counter für verschiedene Gesellschaften und Linien Flüge abgefertigt. Es gibt dort insgesamt acht Abfertigungsplätze (zumindest an einer Front), von denen am Tag nach meiner Erinnerung drei bzw. kurzzeitig vier besetzt waren. Es war anscheinend völlig egal, an welchem Platz man schlussendlich landete – alle drei/vier Plätze bedienten alle Gesellschaften und alle Linien. Dementsprechend gab es die heute übliche „Uni-Schlange“ vor dem Counter. Das ist dieser durch Stoffbänder abgesteckte Parcours, in dem eine Schlange nach links und rechts in Richtung auf den Schalter kanalisiert wird – beliebt überall bei Post, Banken und Ticketagenturen. Wie schon angeklungen war es eine *lange* Schlange – mindestens 6 Flüge (evtl. mehr) verschiedener Gesellschaften wurden in dem Zeitfenster an diesem Schalter mit seinen drei/vier Plätzen abgefertigt – es gab keine Differenzierung der Flüge. Wie an dieser Stelle wahrscheinlich schon klar ist, kamen wir in der 61. Minute vor Take-Off unseres Fluges (ja, das stimmt – ich habe es per Zeitstempel schriftlich) schlussendlich am Schalter an – und wurden wegen Schalterschluss für diesen Flug abgewiesen. Es war also meine Schuld – es fehlten mir die eingangs versäumten fünf Minuten. Glücklicherweise konnte ich noch Tickets erwerben für einen späteren Flug und das Zeitfenster für den Abflug war schon so früh eingeplant gewesen, dass vor allem am Eintreffort auf keinen Fall Stress entstehen konnte. Wegen dieser großzügigen Vorplanung war der verspätete Flug dann kein Problem für das Event selbst – aber es addierte rund zwei Stunden auf den Gesamtzeitaufwand der Reise.

Kurzer Break: Ja, es war insofern meine „Schuld“, als die „fehlenden“ 5 Minuten bei der Schlange das Aus für den gewünschten/bezahlten (teuren Linien-) Flug bedeutete. Die nachträgliche Auseinandersetzung mit der Gesellschaft (die eine Woche später in gänzlich zivilem Tonfall verlief – das Kind war ja schon in den Brunnen gefallen, aber eben nicht ertrunken) bewirkte gar nichts – noch nicht mal auf dem Kulanzweg. Die offensichtliche Überlastung der Abfertigungsplätze, das schlechte Management der verschiedenen Linien in bezug auf die Abfertigungszeit, das „knallharte“ Schließen des Counters in der „61.“ Minute vor Take-Off – das alles wurde/wird durch die diversen Regularien des Beförderungsvertrages irgendwie gedeckt. Einen Rechtsstreit habe ich deshalb nicht führen wollen, dafür war die Schadenssumme zu gering und wir haben ja mit Glück auch nichts verpaßt (wenn das Event geplatzt wäre, wäre ich allerdings schon aus Prinzip bis vor den BGH gegangen, das ist mal sicher – zu dem Zeitpunkt war noch nicht bekannt/klar, dass Sabbath noch eine endgültige „The End“-Tour machen würde; schmerzlich bekannt war allerdings die ernsthafte Krebserkrankung von Iommi). Das Problem im allgemeinen Rahmen ist aber hier die Erkenntnis, dass man offensichtlich selbst mit den vollen 120 Minuten unter bestimmten Bedingungen keineswegs sicher sein kann, dass man mit Gewissheit an Board kommt (auch das ist irgendwie im Transportvertrag erfaßt – man muß sich dann bis zu einem bestimmten Moment eine Bestätigung von irgendeinem Supervisor einholen und dann kriegt man die Kohle zurück oder erlangt eine Umbuchung; dieser Fall ist aber so butterzart verklausuliert, dass ich persönlich es lieber gar nicht drauf ankommen lassen würde). Im gegeben Fall steht der Zeitansatz momentan bei drei Stunden und vierzig Minuten bis zur Abfertigung und nun kommen die „60“ Minuten bis zum Start des Flugzeugs obendrauf. Real waren es natürlich (gerechnet für den späteren Flug ab Erhalt der Bordkarte) beinahe 70 Minuten, bis der Vogel sich erstmals bewegte. Macht (unerwünschte Pausenzeit rausgerechnet): vier Stunden und 50 Minuten bis Start in Fulsbüttel.

Dann kamen die langweiligen und ereignislosen rund 60 Minuten bis Landung, danach bis zur Übernahme Mietwagen die laufintensiven, aber ebenfalls stressfreien 40 Minuten und danach die Fahrt zum Hotel (15 Minuten). Danach Fahrt zum Park&Ride plus S-Bahn zur Innenstadt. Da wir genügend Zeit hatten, sind wir nicht zum möglichen Endhalt gefahren, sondern haben den Weg zum Sightseeing genutzt. Wenn man die Zeit zum möglichen Ziel-Haltepunkt nimmt, dann wäre die S-Bahnzeit mit rund 35 Minuten zu veranschlagen gewesen. Das hätte man bekanntlich in München mit dem Auto nicht schneller schaffen können zu der Uhrzeit.

Ergibt als Wegezeit für diese Reise: sieben Stunden und 30 Minuten. Davon knapp 60 Minuten airborne. Davon mindestens zwei Stunden Departure Airport und mindestens 40 Minuten Arrival Airport (ohne den bürokratischen Auto-Übernahme-Heckmeck kann man es wahrscheinlich auf 30 Minuten bis zu Taxi/Bus/S-Bahn/Bahn schaffen).

Also gut zweieinhalb Stunden Totzeit an den Flughäfen plus die Flugzeit.

Ich könnte statt in einem Kuhkaff in oder in der Nähe einer Metropole wohnen (wie ehedemst). Also etwa in Bremen oder umzu. Auch dann müßte ich ein gewisses Maß an Zeit aufwenden, um zum Flugplatz zu kommen – oben hatte ich mal die halbe Stunde gesetzt, oft wird es wie im Ankunftsfall München eher bis zu einer Stunde sein.

Macht unter „guten“ Bedingungen für einen Inlandsflug, der für Schland eigentlich oft auf die berühmten 60 Minuten hauptsächlich für Start- und Landephase rausläuft:

Dreieinhalb Stunden Flug/Flugplatz + ein bis zwei Stunden, sagen wir mal großzügig gemittelt auf anderthalb Stunden: mindestens fünf Stunden Gesamt-Wegezeit für einen Inlandsflug unter günstigen Bedingungen von Metropole zu Metropole.

Im selben Augenblick, wenn Startort und/oder Endort vom Zentrum abweichen, geht der Zeitaufwand wie im Beispielfall gezeigt natürlich heftig nach oben. 6 oder 7 Stunden von irgendeiner Peripherie aus und/oder zu irgendeiner Peripherie hin dürften heute ein durchaus „realistischer“ Ansatz sein. Kann auch leicht mehr werden.

Auch die Gesamt-Wegezeit bei Bussen und Bahnen ist nur dann einigermaßen günstig, wenn von Metropole zu Metropole gerechnet wird. Und im Falle Deutschlands und unter Annahme „normaler“ Distanzen von 500 bis 800 Km „Fern“verkehr ist ziemlich offensichtlich ein „guter“ ICE mindestens genauso schnell wie ein Inlandsflug – der Fernbus wahrscheinlich „nur“ ein bis drei Stunden langsamer.

Ohne dies hier genauer anführen zu wollen, kommt bei Inlandsflügen grundsätzlich eine gewisse Unanehmlichkeit hinzu: die heute zwingend erforderliche (ebenfalls zeitraubende) „Durchleuchtung“ ist für einen Konsumenten mindestens nervig. Und ich glaube grundsätzlich nicht, dass irgendjemand Gefallen daran findet, an endlosen Kinkerlitzchen-Passagen in den Abflugsbereichen entlang zu wandern oder sinnlos in Wartebereichen herumzuhängen. Da sind selbst Bahnhöfe noch besser, obwohl die schon nervig genug sind.

Ich weiß nicht, ob diese ganze Komplikation des Inlandsflugwesens „nötig“ oder unumgänglich ist (am Tag der Abfassung dieser Nölerei geschah ein weiterer Terrorakt in Deutschland – natürlich ist die Gefahr durch irgendwelche Gewaltanschläge auch im Flugverkehr irgendwie und irgendwo „real“). Aber man muß letztlich feststellen, dass durch die *Art* der Handhabung des Inlandsflugverkehrs das System „Inlandsflug“ in praktischer Hinsicht aus der Wahlmöglichkeit von Verkehrsmitteln im Grunde herausfällt. Man kann das irgendwie in Betracht ziehen oder nutzen, aber die Bedingungen müssen so spezifisch sein, dass man unter allgemeiner gültigen Umständen aus Vernunft- und Praxiserwägungen heraus so ein verkehrliches Angebot zurückweisen muß – es ist zu „dumb“. Wohlverstanden: nicht das Gerät „Flugzeug“ ist hier „dumb“ – das fliegt wie seit 100 Jahren gehabt fröhlich vor sich hin. „Dumb“ ist das Gesamtsystem, in das hinein das Fahrzeug bei einem Inlandsflug in Deutschland eingebettet ist.

Advertisements
Dumb Devices (brunzdumme Dinge)

Kommentare (derzeit ohne besondere Anmeldung möglich)

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden / Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden / Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden / Ändern )

Google+ Foto

Du kommentierst mit Deinem Google+-Konto. Abmelden / Ändern )

Verbinde mit %s