Der schlimmste Feind heißt nicht al-Qaida

Systemfehler statt Cyberterrorismus Ihre Komplexität wird den Datennetzen zum Verhängnis

Kaum ein Thema ist in den vergangenen Jahren so kontrovers diskutiert worden wie der Cyber-Terrorismus. Für Sicherheitsbehörden und Militär scheint es ausgemacht, dass Angreifer das Internet nutzen werden, um kritische Infrastrukturen - etwa Wasser- und Energieversorgung, die Transportsysteme oder das Bankwesen - empfindlich zu stören oder gar lahm zu legen. Mehr noch, das Internet selbst könnte womöglich erschüttert werden. Experten der Informationstechnik (IT) hingegen halten derartige Szenarien mangels konkreter Analysen bislang für übertrieben. Und Bürgerrechtler sehen in der Beschwörung des Cyber-Terrorismus gar den Versuch der Politik, sich eine Rechtfertigung für weitere Kontrollbefugnisse zu erschleichen. Zurück bleiben ratlose Bürger: Was ist reale Bedrohung, was bloße Hypothese?

Wie ein verirrter Autofahrer

Zur Konfusion beigetragen hat die Legende, das Internet sei in den sechziger Jahren ohne jede Hierarchie, quasi als Schwarm gleichwertiger Knotenpunkte konzipiert worden, damit es auch nach einer teilweisen Zerstörung durch einen Atomkrieg weiter funktionieren könnte. Tatsächlich ist es seit dem Start seines Urahns, des ARPAnet, 1969 wenig planvoll aus diversen großen und kleineren Netzwerken zusammengewachsen. Zwischen den Großen werden die Daten an etwa 110 Knotenpunkten, den so genannten "Internet Exchange Points", ausgetauscht - der weltweit größte befindet sich in Amsterdam. Die Folge: Nicht alle Knoten im Netz sind gleich.

Wie angreifbar diese Struktur ist, wird seit einigen Jahren mit mathematischen Modellen untersucht. Bereits im Jahr 2000 kam der ungarische Mathematiker Albert-Laszlo Bárábasi zu dem Ergebnis: Das Internet ist zwar erstaunlich robust, wenn wichtige Knoten zufällig ausfallen - bei gezielten Angriffen sieht es jedoch anders aus. Bárábasi konnte in einer Simulation zeigen: Werden fünf Prozent der wichtigsten Knoten ausgeschaltet, halbiert sich die Kommunikationsleistung des Netzes, und es beginnt, in Fragmente zu zerfallen. "Die strukturellen Schwächen gegenwärtiger Kommunikationsnetze, die in ihrer ungleichmäßigen Verteilung von Verbindungen zwischen Knoten verwurzelt sind, reduzieren die Überlebensfähigkeit bei Angriffen ernstlich", lautete Bárábasis Fazit, das nach wie vor gültig ist.

Doch das ist nicht das einzige Problem: Aufgrund des rasanten Wachstums musste das Adresssystem des Internet Anfang der neunziger Jahre von einem flachen auf ein hierarchisches System umgestellt werden. Nur damit konnte gewährleistet werden, die Datenpakete zwischen den verschieden großen Teilnetzen effizient weiterzuleiten. Dies geschieht mit Hilfe von so genannten Name-Servern: Das sind Rechner, die Webadressen wie www.freitag.de in Zahlenadressen übersetzen, die weiterleitende Computer verstehen können (im Falle der Freitag-Seite: "193.96.188.145") - gewissermaßen die Wegweiser im Internet. Fallen diese aus, erreichen die Datenpakete, aus denen jede Webseite, E-Mail oder Online-Videodatei zusammengesetzt sind, ihr Ziel so wenig wie ein verirrter Autofahrer auf unausgeschilderten Straßen.

Vor allem die oberste Ebene des Adresssystems, die 13 so genannten Root-Server, sind in vergangenen Jahren mehrmals angegriffen worden. Dabei erfolgte der Angriff nicht physisch auf die hochbewachten Rechner, sondern mit Hilfe eines Bombardements von Datenpaketen, in der Hoffnung, die Rechner würden unter der Last zusammenbrechen. Beim letzten Angriff im Februar 2007 wurden zwei der 13 Root-Server jeweils mit einer Datenmenge überschwemmt, die 13.000 E-Mails pro Sekunde entspräche. Die Internetnutzer hätten deshalb aber keine "Unannehmlichkeiten" gehabt, konstatierte die Netzaufsichtsorganisation ICANN nicht ohne Stolz. Der Grund: Die Root-Server befinden sich längst nicht mehr alle auf je einem Computer, sondern sind in den vergangenen Jahren auf insgesamt über 150 Rechner auf allen Kontinenten verteilt worden. Diese Struktur hatten die federführenden Internet-Organisationen nach dem ersten massiven Angriff im Oktober 2002 aufgebaut.

Während das Netz selbst also nur mit massivem Aufwand - der die Möglichkeiten etwa von al-Qaida wohl übersteigen dürfte - in die Knie gezwungen werden könnte, eignet es sich aber als Medium für gezielte Angriffe anderer Art. Das können Datenbombardements gegen Netzrechner sein, die dann vorübergehend ausfallen. Dahinter stecken jedoch nur noch selten Hacker, die sich beweisen wollen. Vor allem Unternehmen würden inzwischen routinemäßig erpresst, wie Alan Paller vom SANS Institute sagt. "Online-Casinos beispielsweise zahlen regelmäßig Schutzgelder. Man bekommt nur nichts davon mit, weil die Ausfälle in der Öffentlichkeit mit ›Software- oder Hardware-Fehlern‹ begründet werden."

Ins Mark der Energieversorger

Gefährlicher ist allerdings eine andere Folge der zunehmenden Vernetzung von ehemals getrennten IT-Systemen mit dem Internet. Für große Unternehmen ist es bereits selbstverständlich, etwa Produktdatenbanken und Rechnungslegung bruchlos mit dem Netz zu verbinden. Nun ziehen auch Infrastrukturbetreiber nach. So soll etwa das Smart Metering die Energieversorgung effizienter machen: "Intelligente" Stromzähler beim Endverbraucher sollen den Energieversorgern in Echtzeit ein genaues Bild über den Verbrauch vermitteln, um die Stromlasten möglichst genau berechnen zu können. Das wird kaum über den Aufbau eigener, getrennter Netzwerke erfolgen. Nutzen die Energieversorger aber Verbindungen über das Internet - das nicht nur das World Wide Web, sondern Kommunikationsnetzwerke aller Art umfasst -, öffnen sie unter Umständen die Software-Steuerung ihrer Anlagen für Angriffe.

Bislang wurde dies unter Fachleuten eher als theoretisches Risiko erörtert. Umso erstaunlicher war die Aussage des CIA-Mitarbeiters Tom Donahue auf einer Konferenz vor zwei Wochen in New Orleans. "Wir haben Informationen, dass Cyber-Angriffe dazu genutzt worden sind, um die Energieversorgung in verschiedenen Regionen außerhalb der USA zu stören." In mindestens einem Fall sei es in mehreren Städten zu Stromausfällen gekommen. Details nannte er natürlich nicht, und man kann davon ausgehen, dass dieses Statement nicht ohne politische Hintergedanken platziert wurde.

Die Problematik solcher Ausfälle weist freilich auf eine andere Entwicklung hin, die über den Cyber-Terrorimus hinausgeht: Komplexität ist der schlimmste Feind der Sicherheit, und das Internet wird immer komplexer", sagt der bekannte amerikanische Sicherheitsexperte Bruce Schneier. "Die Dinge werden schlimmer, obwohl die Technologie besser wird." Weil IT-Systeme und Infrastruktur mehr und mehr miteinander verwoben würden, entstünde Unsicherheit quasi als neue, inhärente Eigenschaft der digital vernetzten Welt. Und zwar unabhängig von schlampig programmierter Software, vermeidbaren Sicherheitslücken oder sinistren Hackern. Diese Einschätzung ist umso bemerkenswerter, als Schneier bislang nicht zu Kassandra-Rufen neigte. Im Kern bestätigt er damit den Computer-Pionier und ewigen Mahner Joseph Weizenbaum, der bereits vor 30 Jahren vor unkalkulierbaren Folgen einer allumfassenden und undurchschaubaren Computerisierung warnte - und dafür regelmäßig belächelt wurde. - Einen Trost hält Bruce Schneier immerhin bereit: Cyber-Terroristen werden langfristig nicht mehr das Problem sein: "Mit so einer Infrastruktur - wer braucht da noch Feinde?"

Niels Boeing hat Philosophie und Physik studiert und arbeitet als Wissenschaftsjournalist und Buchautor in Hamburg. Von ihm ist unter anderem erschienen Nano?! Die Technik des 21. Jahrhunderts.

Liebe Leserin, lieber Leser,

dieser Artikel ist für Sie kostenlos.
Unabhängiger und kritischer Journalismus braucht aber auch in diesen Zeiten Unterstützung. Wir freuen uns daher, wenn Sie den Freitag hier abonnieren oder 3 Ausgaben gratis testen. Dafür bedanken wir uns schon jetzt bei Ihnen!

Ihre Freitag-Redaktion

Kommentare