Skip to content

Google Chef: Das Internet geht kaputt II

10. Oktober 2014

Kaum postet man über das, was laute Heise der Chef von Google gesagt hat, schon ändert sich der Artikel genau in dem Punkt, auf den hingewiesen wurde. das wird ein Zufall gewesen sein. Fordert mir aber eine Antwort.

Im ersten Artikel ging es um den Grundgedanken, die Grundidee des Internets und dass wir dagegen verstossen, wenn – laut Google Chef – wir von der Idee, dass das Internet auf einige wenige Rechenzentren zu betreiben sei, abweichen. Das wäre der Fall, wenn sich die Ideen in Europa durchsetzen, dass man das Internet und die Dienste zurück in die eigenen Länder hole, nur weil NSA und Co tun, was sie tun.

Das ist kein Zitat, das ist alles ein bisschen zugespitzt, damit der Kernsatz folgen kann: Darum rät er der NSA etc. zur Zurückhaltung und einer Gesetzgebung, die wieder Vertrauen schaffen würde.

Dagegen lässt sich nichts sagen, ausser, dass Zurückhaltung in den Augen der meisten noch nichts bringen würde. Das wäre dann doch etwas zu wenig.

Mir ging es in meinem Kommentar um die Grundidee des Internets, die hier als „mit wenigen grossen Rechenzentren das ganze Internet zu betreiben“ dargestellt wurde.

Die Grundidee war eine nicht zerstörbare, verteilte Kommunikationsplattform (vom Militär) und HTTP das einen „finden lässt, von dem man nicht wusste, dass man es suchte“. Diversität, viele aktive Teilnehmer, dezentral und unabhängig. Das sind die Kernbegriffe des ursprünglichen Internets. Mit anderen Worten: „Wenn jeder eine etwas grössere Hardware beisteuert, dann funktioniert das gut.“

Der Chef von Google stellt dem gegenüber: „Wenige, zentrale, grosse Rechenzentren“. Er begründet das mit „billiger“. Mit Kosten. Die interessante Frage: „Was kostet das Internet“ soll hier aussen vor bleiben. Die Frage ob Rechenzentren günstiger Arbeiten als verteilte Rechner, kann finanziell beantwortet werden. Die kurze Antwort lautet „Wenn, wenn, wenn, dann vielleicht“; die lange lautet: „Wenn das gut organisiert ist, wenn es eine gute Infrastruktur gibt (die auch Kosten verursacht!), wenn der Einkauf gut ist (das drückt die Hersteller) und so weiter. Wenn all diese „Wenns“ erfüllt sind, dann haben wir vielleicht einen kleinen finanziellen Vorteil, aber nur dann.

Ansonsten wird es teurer. Vor allem dann, wenn die wenigen Rechenzentren zu Monopolen und wir davon abhängig wurden, dann zahlen wir frei forderbare Preise. Auch weil diese Rechenzentren gegen Terror zu schützen sind, in Bunkern gebaut werden und so weiter.“

Kurzfristig mag ein zentrales Internet günstiger erscheinen. Mittelfristig zeigen sich enorme Zusatzkosten durch die benötigte Infrastruktur. Und langfristig begeben wir uns in Abhängigkeiten, die keiner will.

Wie sieht die Alternative aus? Viele Firmen und so mancher Technikliebhaber haben enorme freie Kapazitäten. Diese unangetastet bedeutet das, dass es möglich ist, in diesen Firmen und Haushalten etwas mehr Hardware aufzustellen ohne echte Belastungen.

Die Leistung liegt selbst bei nur einem Prozessor pro „Internet“ Rechner und bei durchschnittlich je einem Rechner pro 10 Bürger bei 2 400 000 000 000 000 000 Flops. Das sind 2,4 Exaflops was ungefähr der Leitung von 7 Rechenzentren entspricht.

Auf die Schnelle können nicht alle ökologisch / ökonomischen Daten beschafft werden, aber es dürfte sich bei diesen Werten nicht all zu viel ändern, es sei denn, man nutzt die Gelegenheit und informiert darüber, wie man bei IT Energie und Geld sparen kann – auch das geht.

Es ist keineswegs utopisch, es rechnet sich und es würde viel Last aus den Netzen nehmen. Ironischer Weise halfen die grossen Internetfirmen bei der Entwicklung der dazu nötigen Software für verteilte Programmierung. Das zeigt, dass auch sie selbst letztlich nur mit verteilter Hardware arbeiten. Sie funktionieren gut – das „Dezentrale Internet“ sollte das auch schaffen.

Es ist möglich. Die Kosten verteilen sich auf viele, sind letztlich gering (geschätzt ca: 1.000€ für Anschaffung und Unterhalt pro Jahr und Firma). Die Netze wären effektiver, die Lasten der Infrastruktur geringer und es wäre, wie das Internet einmal geplant war.

Es ist nicht nötig, wieder zu den Rechenzentrenlösungen zurückzukehren. Das sind letztlich nur indirekte Preistreiber, sie fördern die Monopolisierung, Manipulationsmöglichkeiten und Kontrollsucht.

Es zeigt aber, welcher Geist hinter den schönen Angeboten, der Cloud und Diensten steht: Zentralismus und Kontrolle (hier durchaus im Sinne von Abhören und Manipulation der Daten gesehen) gehen Hand in Hand.

Ein Umbau des Internet ist denkbar und machbar. Das Nachbauen des Zentralismus ist weder in Europa noch sonst wo empfehlenswert, die dezentrale Variante verteilt die Kosten, beteiligt die Menschen und Firmen und würde wenig Ansatzpunkte fürs Abhören schaffen – ein Vertrauen erweckendes Internet. Die Anonymisierer erlauben effektive aber kontrollierte Verbrechensbekämpfung. Es geht. Man muss es nur wollen.

Der politische Aufwand ist relativ gering. Er besteht in einer Absichtserklärung ein Dezentrales Internet zu unterstützen und in der Subventions, der Abschreibbarkeit der Internethardware – die Firmen bereits haben.

Der technische Aufwand besteht in der Spezifikation der Mindeststandards der Rechner, Empfehlungen zu Hardware und Betreibssystem (das sollte die Verteilte Programmierung unterstützten) und der ständigen Verbesserung einer Datensteuerung, die Daten redundant aber nahe beim Kunden hält. Das alles gibt es bereits, es ist nur nötig es zu beschliessen und zu organisieren.

Advertisements

From → Uncategorized

Schreibe einen Kommentar

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden / Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden / Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden / Ändern )

Google+ Foto

Du kommentierst mit Deinem Google+-Konto. Abmelden / Ändern )

Verbinde mit %s

%d Bloggern gefällt das: