20 Jahre nach der Eröffnung
In diesem Artikel beim Journalismussurrogatextrakt „Focus Online“ ist so viel falsch, dass man gar nicht weiß, wo man anfangen soll. Ich glaube, ich fange mal mit dem Richtigen an: Der Name und damalige Arbeitsplatz des Erfinders des HTT-Protokolles wurde von einem Journalisten, der seinen Content offenbar frei von jedem Sachverstand zu verfassen pflegt, korrekt ergooglet.
Das Falsche, Unrichtige, gefährlich ungenau Ausgedrückte ist gegen diese korrekte Information so überwältigend groß, dass ich hier nur auf einige Teile eingehe und kurze Anmerkungen dazu schreibe.
Am 6. August 1991 wurde das World Wide Web freigeschaltet.
Das ist der erste Satz des Teasers. Und er tut schon weh, weil er (mit Ausnahme des Datums) falsch ist. Es musste nicht eigens etwas für das WWW freigeschaltet werden, es musste nur der HTTP-Server gestartet werden. Den Start einer Software — ein Server ist nichts weiter als eine Software — auf einem mit dem Internet verbundenen Rechner als „Freischaltung“ eines Internet-Protokolles zu bezeichnen, ist sachlich falsch und lässt einen tiefen Blick in den Sachverstand des Autors zu. (Vielleicht wäre „gestartet“ ein besserer Begriff, aber der ganze Satz krankt an seiner boulevardhaften Kürze, die dem Laien nichts Richtiges sagt und den Wissenden an die Stirn klatschen lässt.)
Darüber hinaus erweckt die im Satz geäußerte Idee, das World Wide Web — es besteht aus vielen prinzipiell gleichberechtigten Computern im Internet, auf denen ein Webserver läuft — lasse sich „freischalten“ die gefährliche falsche Vorstellung, es lasse sich auch „abschalten“. Wie solche Vorstellungen rezipiert werden und zu welchen unsinnigen Äußerungen sie führen, lässt sich beinahe jeden Tag in der Presse nachlesen und im Fernsehen erleben.
Erst sein World Wide Web verschmolz die im Internet vernetzten Rechner zu einer Einheit, in der man bequem von Homepage zu Homepage surfen kann — auf der Suche nach Videos oder Freunden in sozialen Netzwerken.
Nein.
Nicht erst das World Wide Web (also eine Sammlung von verlinkten Ressourcen, die über das HTT-Protokoll zugänglich sind) machte das „Surfen“ von Site zu Site möglich. Diese Möglichkeit war bereits im Gopher-Protokoll gegeben, und der Gopherspace erfreute sich im universitären Bereich — an ein Internet für „normale Menschen“ hat damals noch niemand gedacht — großer Beliebtheit. Sowohl Gopher als auch HTTP wurden anfangs mit Software bedient…
…die den Möglichkeiten der damaligen Rechner entsprach, also mit Clients für den Textmodus. An Videos hat dabei gewiss keiner gedacht, die besseren Terminals boten gerade die Möglichkeit zur Anzeige von Bildern. Unter einem sozialen Netzwerk verstand man damals noch den Kreis von Menschen, die einem mehr oder minder unmittelbar umgaben und die eigene Lebenswirklichkeit wesentlich mitprägten, und nicht einen Datenstriptease vor dem Datenhändlern und Sozialvermarktern im so genannten Web Zwo Null.
Einem Tim Barners-Lee, der sich durch hohen Idealismus auszeichnete, solche Ideen anzuhängen, ist nicht nur sachlich falsch, sondern menschlich ekelerregend. Tatsächlich hatte Barners-Lee im HTT-Protokoll einen Mechanismus vorgesehen, damit Leser die gelesenen Webseiten bearbeiten und ihre Bearbeitungen online stellen können. Dieser Mechanismus wurde von keinem späteren Webserver implementiert, weil er nur wenig geeignet für diejenige Form der Webnutzung war, von der sich ein Pack von Kaufleuten in der Zeit von 1994/1995 bis zum heutigen Tag ganz große Geschäfte versprach und verspricht: Die Selbstdarstellung von gewinnorientierten Unternehmen, die Übermittlung von Reklame und der damals wie heute vielbeschworene virtuelle Kaufhauskatalog. Eine derartige Nutzung geht nur, wenn Einflussnahme durch Leser unterbunden wird. Die heutigen interaktiven Möglichkeiten moderner Websites sind recht künstlich auf die früheren Einschränkungen in der Umsetzung des HTT-Protokolles aufgesetzt worden, die eine Interaktivität eigentlich verhindern sollten.
Das Problem, das Berners-Lee löste, war der automatische Zugriff auf die im Internet digital gespeicherten Informationen.
Seltsam, dass Barners-Lee, der im Gegensatz zu diesem von jeder Sachkenntnis unbeleckten Schreiberling ein Experte war, gar nicht gemerkt haben sollte, dass bereits am 16. April 1971 die erste Spezifikation des File Transfer Protocol von Abhay Bhushan veröffentlicht wurde. Dieses Protokoll ist übrigens bis heute häufig für Datenübertragungen im Einsatz; es ist nicht wegen seiner mangelnden Eignung zum Zugriff auf Dateien in Verruf geraten, sondern vor allem, weil das Passwort unverschlüsselt im Internet übertragen wird. Leider haben die Veteranen des Internet nicht vorhergesehen, dass sich ihre Protokolle einmal in einem sehr unfreundlichen und teilweise kriminellen Umfeld bewähren müssen; im universitären Betrieb gab es derartige Probleme nicht.
Wer wusste, welches Dokument er lesen wollte und wo es genau zu finden war, konnte schon vorher einen Rechner im Internet anwählen und Dateien herunterladen – sofern er über die richtigen Programme verfügte. Das aber war höchstens etwas für Computerprofis.
Ach, jetzt hat Barners-Lee auch noch die Suchmaschine erfunden! Womöglich gar Google gegründet!
Nun, ohne Hilfsmittel geht es nicht. Damals nicht und heute nicht. Für FTP hatten wir Archie (existiert heute nicht mehr), im Gopher-Protokoll war die Dokument-Kennung 7 für eine perfekt integrierte, lokale oder globale Suchmöglichkeit vorgesehen (und Veronika existiert bis heute), für HTTP gibt es diverse Suchmaschinen, unter denen Google leider inzwischen hart an der Grenze zum Monopolisten agiert und dieses Quasi-Monopol auch gern für seine neueren Geschäftsideen nutzt. Die Durchsuchbarkeit hat nichts mit HTTP zu tun. Sie ist das Ergebnis von Programmierungen, die auf die bereits vorhandenen Protokolle aufsetzen.
Aber das ist nicht der einzige Schwachsinn in einem Artikel, der mich vor lauter Facepalmen kaum noch den Monitor sehen lässt.
Die Benutzung von „richtigen Programmen“ für bestimmte Protokolle im Internet ist „höchstens etwas für Computerprofis“… so einen Strunz kann nur jemand schreiben, der seinen Browser mit dem Internet verwechselt. Eine vollkommene Dokumentation der völligen Ahnungslosigkeit über das, wovon dieser Spezialexperte bei Focus Online schreibt. Jemand, der seine Mail mit einem Mailclient wie etwa Mozilla Thunderbird bearbeitet, der einen Newsreader für das Lesen von RSS-Feeds verwendet, der mit Hilfe einer IM-Software mit anderen Menschen chattet, der über Skype telefoniert, der eines der populären Filesharing-Programme benutzt oder seine Torrents mit einem BitTorrent-Client herunterlädt, ist also ein „Computerprofi“? Nun, aus der Sicht dieses Autors mag das ja zutreffen, aber ich habe alle diese Dinge schon bei Leuten gesehen, die über bestürzend wenig Fachwissen verfügen.
Erst Berners-Lees World Wide Web brachte entscheidende Vereinfachungen: Internetfähige Rechner kommunizierten dort in einer gemeinsamen „Sprache“, die ihnen automatische Kommunikation und Datenaustausch ermöglichte. Diese Sprache – das Hypertext Transfer Protocol (http) – ist bis heute in Gebrauch.
Klar, und im Falle von Gopher, FTP, POP3, SMTP oder Telnet (alles Protokolle, die zu dieser Zeit in Gebrauch waren) kam es niemals zum Datenaustausch, weil die Computer aneinander vorbei geredet haben. Meine Fresse, was ein Unfug.
Die eigentliche Leistung des HTT-Protokolls geht in dieser Flut von Schwachsinn unter: Es ist ein außerordentlich flexibles Protokoll, mit dem Daten aller Art übertragen werden können. Der Server braucht sich nicht darum zu kümmern, er übergibt einfach nur eine Spezifikation des Internet Media Type (früher MIME-Type) an das anfragende Programm; was mit den ankommenden Daten zu tun ist, liegt dann in der Verantwortung des anfragenden Programmes. Es ist diese Flexibilität, die HTTP zu seinem großen Erfolg verholfen hat; sie geht so weit, dass andere Protokolle auf HTTP aufgesetzt werden können (etwa XMLRPC).
Die zweite Innovation war der Einbau von sogenannten Hypertext-Links in die Dokumente, die auf Internetservern lagen […] Das „Surfen“ war geboren.
Mitnichten, denn Links auf andere Server kannte bereits Gopher, und genau das machte die Beliebtheit Gophers aus Nutzersicht aus. Die Neuigkeit war die SGML-DTD namens HTML, die eine Einbettung von Links in Dokumente ermöglichte — was eine erhebliche zusätzliche Flexibilität gegenüber Gopher ermöglichte. Dafür wurde jedoch eine einheitliche, vom Nutzer nur einmal zu erlernende Navigation geopfert, die für Gopher typisch war. An ihre Stelle trat das Webdesign, das dazu führte, dass Webnutzer auf jeder Website andere Navigationskonzepte vor sich sehen können.
Oder, wie ich es damals sagte: Der Unterschied zwischen Surfen und Segeln ist, dass man beim Segeln meistens über Wasser ist. 😀
So viel nur zum gröbsten Schwachsinn in diesem Focus-Artikel. Wenn ich sehe, was eine derartige Presse berichtet und mir vorstelle, dass in der Regel eher durchschnittlich kompetente Politiker daran ihre Meinung bilden, denn wundert mich auch nicht mehr, was diese Politiker von sich geben.
Focus! Lass das nächste Mal deine Artikel doch einfach von jemanden schreiben, der auch etwas vom Thema versteht, über das er schreibt. Vielleicht wäre der Artikel dabei etwas länger geworden, aber er wäre dann vielleicht auch geworden, was man von den Texten professioneller Autoren erwarten sollte: Informativ für seine Leser und nicht verdummend.
Pingback: Der Webbrowser von 1987 « Alarmknopf
Pingback: Der das Internet erfand… « Alarmknopf
Pingback: Neuland | Alarmknopf
HaHa
Danke!
Jemand der etwas davon versteht, der schreibt doch nicht für focus – imo 😉
20. Juni 2013 um 12:35