Die Idee der Free-Software/Open-Source-Bewegung ist leicht zu verstehen und ziemlich sympathisch: Lasst jeden, der das will und kann, den Code eines Programms lesen und nach seinen Bedürfnissen verändern. Und zwar kostenlos. Das Ergebnis wird eine Blüte der Software-Entwicklung sein, ähnlich dem Aufstieg der modernen Wissenschaften, der darauf basierte, dass die neuen Erkenntnisse für alle verfügbar waren. Der rasante Aufstieg des Betriebsystems Gnu/Linux zeigt, dass es möglich ist, eine gleichwertige, von keinem Konzern kontrollierte Alternative zum Fast-Monopol Microsofts Windows zu etablieren. Der Code von Gnu/Linux ist inzwischen Allgemeingut wie die Quantenmechanik, die sich ja auch weiter entwickelt.
Open Hardware?
Das funktioniert, weil Software wie
Das funktioniert, weil Software wie jedes digitalisierte Wissen unbegrenzt vervielfältigt werden kann. Dies auf Hardware anzuwenden, ruft meist erst einmal ein Stirnrunzeln hervor, denn Festplatten, Speichermedien, Prozessoren sind Gegenstände, die sich nicht einfach kopieren lassen und natürlich geht es nicht um die Hardware an sich, sondern um das technische Wissen, das in ihnen steckt, nämlich um die Pläne von Schaltkreisen und logischen Bausteinen, die in das Material eingeätzt werden. Das geschieht derzeit in der Regel mit stereolithografischen Verfahren.Die Idee eines Open Hardware Design geht auf die späten sechziger Jahre zurück. Damals nahmen Pioniere wie der Informatiker Lee Felsenstein die Idee des Techniktheoretikers Ivan Illich auf, Tools for Conviviality, Werkzeuge zum Zusammenleben, zu entwickeln. »Die Anfänge der Heimcomputer-Industrie waren ein loser Haufen von kleinen Firmen und Tüftlern, der auf einer Kultur der Offenheit aufbaute«, erklärt Graham Seaman von opencollector.org. Als mit dem Aufschwung der PC-Industrie Anfang der achtziger Jahre Computer nach und nach zu unzugänglichen Black Boxes wurden, blieb die damalige Szene in der Elektronik-Bastelei stecken. In den letzten Jahren ist die Idee allerdings wieder aufgelebt, nicht nur in Europa und den USA, gerade auch in Schwellenländern der Dritten Welt wird ihr Potenzial inzwischen ernsthaft diskutiert.Diese waren für die internationalen Computerkonzerne bislang kaum mehr als billige Standorte für Halbleiterfabriken und Softwareschmieden. Eine eigene Industrie entwickelte sich - sieht man einmal von den südostasiatischen »Tigerstaaten« ab - nicht. Die fertigen Endgeräte werden letztlich immer von westlichen Unternehmen produziert oder zumindest vermarktet.Das könnte sich, dank verschiedener technischer Trends sowie erster konkreter Projekte, demnächst ändern. Da ist zum einen die Entwicklung programmierbarer Chips (Field Programmabal Gate Array, abgekürzt FPGAs). Im Unterschied zu Prozessoren wie Intels Pentium bestehen sie aus Rechenmodulen, deren Verbindung umgeschaltet werden kann. Dadurch lässt sich ein und derselbe Chip auf unterschiedliche Weise nutzen. Das ist deshalb wichtig, weil das Design der Schaltkreise zwar längst selbst am Rechner entworfen wird (mittels so genannter EDA-Software, von der es leider noch zu wenige Open-Source-Varianten gibt), man für einen physischen Test jedoch einen realen Siliziumprototyp benötigt, dessen Fertigung teuer ist.Kleincomputer aus Garagen-KlitschenInzwischen nehmen auch Techniken Gestalt an, mit denen sich Prozessoren drucken lassen. Im November hat das berühmte Forschungslabor Xerox Parc einen »Schaltkreis-Drucker« vorgestellt, der im Prinzip wie ein herkömmlicher Laserdrucker für Papier funktioniert. Der Siliziumwafer ist mit einer Kunststoffschicht überzogen, auf die das Schaltkreismuster projiziert wird. Entlang der Linien wird die elektrische Ladung in der Schicht verändert, so dass in einem zweiten Schritt die Zwischenräume präzise ausgeätzt werden können. Damit erreicht man immerhin eine Auflösung von 800 Nanometer, dem sechsfachen der kleinsten derzeit fertigbaren Chips.Das Münchener Fraunhofer-Institut für Zuverlässigkeit und Mikroorganisation entwickelt Polytronic. Das sind Chips, deren Trägermaterial aus biegsamen Kunststofffolien besteht. Zunächst für die billige Massenproduktion von Transponder-Chips konzipiert (etwa für elektronische Preisschilder im Supermarkt), können solche »Plastikchips« in mehreren Druckschritten auch für etwas anspruchsvolleres Rechendesign - wenn auch nicht als Konkurrenz zu heutigen Allroundchips - ausgelegt werden.Sollten diese Techniken irgendwann die Produktion kleinerer Prozessoren für spezielle Aufgaben in kleiner Auflage ermöglichen, könnte damit ein ganz neues Kapitel in der Halbleitertechnik aufgeschlagen werden. Kleinen Garagenfirmen in aller Welt wäre es dann möglich, in den Nischen der globalen Computerindustrie billige, kleine Rechner anzufertigen.Auch wenn das noch Zukunftsmusik ist, gibt es bereits erste unabhängige Hardware-Projekte in Brasilien (den Computador Popular - Volkscomputer - an der Universität Minas Gerais), in Südafrika (openH.org) sowie den indischen Simputer, einen kleinen tragbaren Rechner, der an einen Palm-Organizer erinnert. »Im Frühjahr wird es die ersten Geräte geben«, kündigt Yash Pal, ein Pionier der indischen Computertechnik und Berater von PicoPeta Simputer Ltd., an. Das Unternehmen und andere Lizenznehmer zahlen dafür nur ein Zehntel der sonst branchenüblichen 250.000 Dollar Gebühren.Auf dem freien Betriebssystem Linux und einer eigenen Dokumentensprache (IML) basierend, ist der Simputer auf ländliche Drittwelt-Regionen mit hoher Analphabetenrate zugeschnitten. Die Datenein- und -ausgabe kann über Symbole erfolgen und unterstützt dank der universellen Vokabulardarstellung Unicode etliche Sprachen, deren Unterstützung für die bisherige Computerindustrie nicht lukrativ sind. Der Simputer wird noch auf einem Intel-Chip basieren. Doch könnten andere Projekte, die dem - hoffentlich erfolgreichen - Beispiel folgen, in einigen Jahren vielleicht schon auf freie Prozessorarchitekturen ohne Lizenzgebühren im Open Hardware Design zurückgreifen.Technische EmanzipationDie Linke, die sich noch immer nicht vollständig mit der Informationstechnik ausgesöhnt hat, sollte spätestens hier aufhorchen. Zwar nutzen die jüngeren Jahrgänge das Internet selbstverständlich und äußerst effektiv, wie Tausende von Foren, Mailinglisten oder unabhängige Nachrichtenseiten à la indymedia.org zeigen. Aber ein latentes Unbehagen bleibt allgegenwärtig. Begründet wird es mit dem Verweis auf Joseph Weizenbaum und seine Kritik an der »Unbeherrschbarkeit der Computer«, auf die massiven Arbeitsplatzverluste durch computergestützte Rationalisierung und auf die Geschäftspolitik mächtiger globaler Computerkonzerne. So verständlich diese Haltung ist, so wirkungslos bleibt sie.Die Strategien der Free-Software- und der Open-Hardware-Design-Bewegung stehen vielmehr für ein wichtiges linkes Ziel: aktive Emanzipation. Auf die Informationstechnik übertragen hieße dies, dass Code und Hardware der Verfügung der ökonomischen Elite entrissen und - zumindest potenziell - allgemein zugänglich werden. Nicht etwa, indem Regierungen jedem Schüler, besser noch jedem Bürger einen PC mit Internet-Anschluss auf den Schreibtisch stellen. Zuallererst muss die Black Box »Computer« nachhaltig geknackt werden - und genau das tut die Open-Source/Design-Bewegung.Nun werden die meisten User selbst keinen Ehrgeiz haben, einen Blick in die Black Box zu werfen. Sie sind froh, wenn die Kiste funktioniert - und hoffentlich in Zukunft noch einfacher zu bedienen sein wird. Zum Autofahren, so das wiederkehrende Argument, müsse man auch nicht wissen, wie die Innereien des Motors funktionieren. Warum sollte dies beim Computer anders sein?Der Technikphilosoph Günter Ropohl hat in seiner 1979 erschienenen Systemtheorie der Technik vier Arten des Umgangs mit technischen Systemen formuliert, die auf Computer übertragen folgendermaßen lauten: »technisches Können« - das ein durchschnittlicher User besitzt, der weiß, dass etwa der Back-Button des Browsers zur vorherigen Webseite führt; »funktionales und strukturales Regelwissen« - die nötig sind, um Hardware-Teile auszutauschen oder Skripte für den eigenen Rechner zu schreiben und ein Netzwerk zu verwalten; und »technisches Gesetzeswissen« - damit bewegt man sich auf der Ebene des Betriebssystem-Codes im Zusammenspiel mit den Befehlssätzen eines Prozessors. Und genau hier wird es spannend.Denn die vierte Ebene ist in der Black Box heutiger Rechner weitgehend dem Einblick entzogen und durch Patente und Copyrights verriegelt. Konzerne wie Microsoft lassen Zulieferer und Universitäten - und demnächst offenbar auch Regierungsbehörden in aller Welt - zwar einen Blick hinein werfen, jedoch nur, wenn diese einem Non-Disclosure-Agreement zustimmen. Selbst wenn sie dort Problematisches finden, enthüllen dürfen sie es nicht. Als vor drei Jahren in Microsofts Windows eine Verschlüsselungsschnittstelle mit dem Namen »NSA_key« gefunden wurde, war das einer Panne zu verdanken. Bis heute ist nicht klar, ob mit NSA der gleichnamige US-Geheimdienst gemeint war.An diesem Beispiel wird deutlich, warum der Vergleich mit dem Auto - von jeher der Gradmesser für den Stand der Computerindustrie - hinkt. Dass ein Auto gebaut wird, dessen patentgeschützte Technik ein Linksabbiegen verhindert, hat es noch nie gegeben. Und selbst eine eingebaute Geschwindigkeitsbegrenzung würde vielleicht die Freude am Fahren trüben, nicht aber die Welt drum herum verändern. Die brandenburgischen Kiefern entlang der A2 wären immer noch da.Hardware-VerriegelungenEine im Detail nicht einsehbare Manipulation des Computers auf der untersten technischen Ebene dagegen hätte dramatische Folgen. Dort ließen sich Filter einbauen, die Informationen blockieren und damit das Aussehen des Cyberspace verändern, oder Sperren einrichten, die die Nutzung bestimmter Programme verhindern - und zwar ohne dass ein User oder sogar Systemadministrator etwas dagegen unternehmen könnte.Das ist nun ausnahmsweise nicht Orwellscher Alarmismus, sondern die nahe Zukunft. Eine Initiative von weit über hundert internationalen Computerunternehmen, die Trusted Computing Platform Association, erarbeitet derzeit die technischen Standards für solche Blockaden. Offiziell geht es der 1999 von Intel, Microsoft, Hewlett-Packard, Compaq und IBM gegründeten TCPA darum, den Rechner sicherer zu machen. Also Attacken von außen durch Hacker vorzubeugen. Der Plan der TCPA sieht vor, die künftigen »Sicherheitsmechanismen« direkt in die Schaltkreise von Prozessoren (wie Pentium-Chips) einzustanzen. Ist das erst einmal geschehen, werden sie nicht so einfach zu knacken sein wie Software-Verriegelungen, weil dazu ein ungleich höherer technischer Aufwand nötig ist. Auf diese Weise erhält die TCPA die Kontrolle über die Rechner und sichert sich auf diese Weise die Profite, die derzeit durch Raubkopien gefährdet sind.Für die Politik ergeben sich daraus sehr konkrete Handlungsansätze. Die Verbreitung freier Software kann unterstützt, ihre Patentierbarkeit, zumindest EU-weit, noch verhindert, die Entwicklung neuer »offener« Hardwaresysteme gefördert werden. Anstatt Schülern nur technisches Können wie Websurfen beizubringen, sollte das reiche Innenleben der Black Box Teil des Lehrplans werden, und zwar anhand existierender, frei zugänglicher Beispiele. Und schließlich können Institutionen und Behörden verstärkt Systeme wie Gnu/Linux nutzen - auch wenn sich der Bundestag Anfang 2001 noch nicht dazu durchringen konnte, komplett darauf umzusteigen. All das stünde einer konsistenten linken Technikpolitik gut zu Gesicht. Die würde sich damit endlich konstruktiv der Tatsache stellen, dass Internet und Computer nicht mehr verschwinden werden - aber sehr wohl an die Interessen der Mächtigen verloren werden können.
×
Artikel verschenken
Mit einem Digital-Abo des Freitag können Sie pro Monat fünf Artikel verschenken.
Die Texte sind für die Beschenkten kostenlos.
Mehr Infos erhalten Sie
hier.
Aktuell sind Sie nicht eingeloggt.
Wenn Sie diesen Artikel verschenken wollen, müssen Sie sich entweder einloggen oder ein Digital-Abo abschließen.