Wir sollten reden: Über Netzkultur, Big Data und Überwachung, über Snowden, die NSA und die letzte Online-Shoppingtour. Das hat nichts miteinander zu tun?
Alles, was mit Computerintelligenz und der Nutzbarmachung großer Datenmengen zu tun hat, wird in Amerika vehement gefördert. Ungewöhnliche Ideen werden, so ganz anders als in Deutschland, nicht verworfen, sondern aufgenommen und unterstützt, sei es von der Regierung, mit Darpa's Memex, den radikalen Hacks der NSA oder von der Industrie wie der Nachfolger von Apples Siri mit "almost limitless capabilities" oder die Webseite Kaggle, auf der sich die Privatwirtschaft BigData-Algorithmen von den klügsten Programmierern der Welt erstellen lässt.
Europa hinkt da unsäglich hinterher, nicht unbedingt, weil Europas Köpfe so schäbig wären - gute Ideen wie einen europäischen, nicht-privatisierten Web-Index gibt es schon - sondern eher, weil der politische Wille fehlt, so sehr, dass man manchmal versucht ist, zu fragen, wessen politischer Wille es genau ist, den sie da vertreten.
Cui Bono - wem nützt es, dass Europa in der Zukunftstechnologie so versagt? Seit langem scheinen sich seine Politiker ungewöhnlich oft als gehorsame Erfüllungsgehilfen ganz anderer Gruppen als der europäischen Bevölkerung zu erweisen.
Deshalb stört es so viele von ihnen vielleicht auch nicht, wenn die amerikanische Regierung Europa als ihren Besitz ansieht, mit dem sie tun und lassen kann, was sie will? Kümmert es unsere Politiker so gar nicht, dass Amerika sich nach Lust und Laune nicht nur unserer Daten, sondern auch unserer Computer bemächtigen will - ganz "legal"? Nach amerikanischem Recht natürlich, bei dem kein Ausländer mitreden darf?
Wenn Menschen kein Mitspracherecht über ihr Schicksal oder ihre Besitztümer haben, nannte man das früher Sklaverei - davon sind wir natürlich noch sehr weit entfernt.
Oder nicht?
Was, wenn Amerika wirklich intelligente Computer entwickelt, deren Fähigkeiten unsere Techniker gar nicht mehr durchschauen? Wer sollte uns dann schützen?
Schon jetzt soll der BND sich den amerikanischen Geheimdiensten anbiedern, weil er sich so unterlegen fühlt und ein wenig von den Brosamen abhaben will, die die NSA gnädig verteilen mag. Unterwerfung erzeugt Verachtung - da ist es wohl kein Wunder, wenn Obama uns Europäer für Nieten hält: "Unsere Unternehmen haben das Internet geschaffen, es ausgebaut und es in einer Weise perfektioniert, bei der sie (die Europäer) nicht mithalten können“".
Diese Einstellung nährt den Verdacht, dass der Schutz und das Wohlergehen der Europäer und der ganzen Welt nicht unbedingt im Interesse der Amerikaner liegt - außer, wenn wir weiter brave Konsumenten ihrer Technologien bleiben. Solange verteidigen uns dann ihre Konzerne.
Was aber, wenn wir eigene Wege gehen wollen?
Werden wir das überhaupt noch können? Werden uns die amerikanischen BigData-Modelle so vorhersehbar machen, dass jede unserer Ideen von ihnen längst vorher schon erfunden, jeder Fluchtversuch aus ihren Konsumlabyrinthen vereitelt und jeder Griff nach Selbstbestimmung durch ihre intelligente Technik zur Farce wird?
Und wieviel Intelligenz steckt bereits jetzt in ihren Programmen?
Josef Feigl, ein junger Informatiker, der zu den klügsten Köpfen zählt, die bei Kaggle mitmischen, macht klar, dass bisher immer noch die Intelligenz in den Menschen steckt: "Welche Merkmale generier' ich aus den Daten und füttere dann dem Modell" (aus "Das Ende des Zufalls", bei ca. 30 min).
Noch ist die gesamte Intelligenz der Computer vergleichbar der der Pflanzen: Wie die DNA stecken ihre Algorithmen die Handlungsmöglichkeiten des Individuums ab, das selbst nicht lernen kann, sondern nur die im ererbten Wissen vorhandenen Verhaltensweisen auf die aktuelle Situation anpasst. Wie Pflanzen zeigen, kann dies eine sehr weitreichende Individualisierung bedeuten: Bäume kooperieren mit Ameisen oder benachrichtigen sich gegenseitig über Gefahren. Neue Verhaltensweisen lernen kann jedoch nicht das Individuum, sondern nur die Art und zwar über Generationenwechsel, wenn durch Mutation und Selektion der DNA-Pool verändert wird.
Neue Verhaltensweisen lernen, neue Muster und neue Algorithmen erstellen können bisher nur Gehirne. Nur sie können aus beliebigen, zeitabhängigen Mengen situationsabhängige Weltbilder erstellen, ihre Tauglichkeit abschätzen und sie zur Vorhersage von zukünftigem Verhalten als Grundlage für ihre Entscheidungen benutzen. Die Qualität der Weltbilder lässt sich dann recht einfach bewerten: Waren die Vorhersagen halbwegs passend, so funktionierten auch die Entscheidungen - waren sie es nicht, war das Modell, das das Gehirn aus den Daten erzeugte, fehlerhaft, so taugten auch die Entscheidungen nichts.
Genau hier setzt das neueste Projekt von Demis Hassabis an. Seine künstliche Intelligenz kennt nur ein paar Ressourcen und die Möglichkeit, Ergebnisse zu bewerten.
Und seine künstliche Intelligenz kann alleine dadurch erstaunlich lernen.
Ist das noch die Intelligenz der Pflanzen - oder ist es schon die Intelligenz des Gehirns?
Noch hat seine Intelligenz kein Gedächtnis ("as yet, has no real memory ") - aber was, wenn es die 7-Schritt-Evaluierung (S. 120) erlernt?
Keine Informationsverarbeitung kommt ohne Ziele aus, selbst die größten Rechner müssen die faktische Unendlichkeit der Realität auf ein machbares Maß reduzieren - wie hoch sind die Chancen, dass die Ziele, die Google oder die NSA in ihre Programme baut, zu unserem Nutzen sind?
Wer sich in Abhängigkeit begibt, darf später nicht jammern, wenn er über sein Wohl und Wehe nicht mehr selbst entscheiden darf.
Und das ist erst der Anfang.
Die Geschichte geht unaufhörlich weiter - das Netz protokolliert sie jeden Tag aufs Neue...
weiter und weiter...
(Quellen: s. Links, Stand März 2015)
Kommentare 43
Dann können wir ja mit dem runden Tisch starten!
Zum Anfang würde ich gerne ein paar Hauptthemenpunkte skizzieren:
Mensch und Maschine oder Mensch oder Maschine?
Diese Fragestellung dürfte für die Zukunft recht entscheidend sein und in der Diskussion sowohl Philosophisches als auch technische Aspekte abdecken.
Big Data, KI und die Mathematik
Dieser Themenpunkt dürfte die eher theoretischeren Aspekte aus Informatik, Mathematik und Robotik zusammenführen.
Netzpolitik, Datenschutz und Überwachung
Dieser Punkt dürfte dann sowohl technische als auch politische Aspekte abdecken.
...
Mensch und Maschine oder Mensch oder Maschine?
Big Data, KI und die Mathematik
Netzpolitik, Datenschutz und Überwachung
die Themenauswahl dürfte die gesamte Problematik abdecken, denke ich auch
zu Punkt 3 ein fast witziger Link:
The United States Is Angry That China Wants Crypto Backdoors, Too
"Ironically, the US government sent a letter to China expressing concern about its new law. "The Administration is aggressively working to have China walk back from these troubling regulations," US Trade Representative Michael Froman said in a statement."
sieht mir fast danach aus, als hätte die amerikanische Regierung jede Bodenhaftung verloren - oder noch schlimmer, glaubt tatsächlich, dass ihr nicht nur die ganze Welt gehört, mit Mann und Maus, sondern ihre Übermacht so stark ist, dass sie keine Sorge vor irgendeiner Gegenwehr haben muss, wenn sie Beleidigungen oder Pläne herausposaunt. Kein gutes Zeichen für uns, schätze ich
Ich fange mal mit einem Beitrag von Linus Neumann auf motherboard.vice.com vom Januar an:
http://motherboard.vice.com/de/read/verschlsselung-ist-kein-terrorismus
Linus Neuman kommt aus der netzpolitischen Bewegung, schreibt für
https://netzpolitik.org/
und ist auf
http://logbuch-netzpolitik.de/
zu finden.
Verschlüsselung ist kein Verbrechen
Die Opfer aus der „Charlie Hebdo“-Redaktion waren kaum beigesetzt, als David Cameron, Barack Obama und Thomas de Maizière begannen, auf den Gräbern der Toten herumzutrampeln. Alle drei verkündeten mehr oder weniger wortgleich, dass man verschlüsselte Kommunikation nicht länger tolerieren könne. Der deutsche Innenminister De Maizière erklärte beim „Internationalen Forum für Cyber-Sicherheit“, dass es deutschen Behörden erlaubt sein müsse, „verschlüsselte Kommunikation zu entschlüsseln oder zu umgehen.“ David Cameron versprach unterdessen, im Falle seiner Wiederwahl kryptographisch geschützte Kommunikation gleich ganz zu verbieten. Alles zu unserem eigenen Schutz, Sie wissen schon.
Wie absurd ist das denn? Ausgerechnet diejenigen, die uns seit Jahren so anlass- wie lückenlos überwachen lassen, wollen uns jetzt per Gesetz unsere letzten digitalen Schutzmöglichkeiten verbieten—ausgerechnet diejenigen, die kein Gesetz, das sie in ihre Schranken weist, jemals gewürdigt haben. Was wohl los wäre, wenn Wladimir Putin einen solchen Vorschlag aus dem Hut zaubern würde?
Besser kann man es eigentlich nicht auf den Punkt bringen - ¡chapó! - Herr Neumann. Nebenbei gräbt er noch mal ein Thema aus, dass beinahe schon wieder in Vergessenheit geraten ist, nämlich der Staatstrojaner. Wobei, der Staatstrojaner? Es sind viele geworden, inzwischen ...
Bei Wikipedia findet die Thematik mittlerweile unter der Rubrik Online-Durchsuchung Eingang, es kann also keiner behaupten, von nichts gewusst zu haben:
http://de.wikipedia.org/wiki/Online-Durchsuchung
Wovonn Linus Neumann eigentlich spricht, wird deutlich, wenn man sich die Überschriften der vergangenen Wochen zu Gemüte führt:
http://deutsche-wirtschafts-nachrichten.de/2015/01/22/ueberwachung-eu-will-zugriff-auf-schluessel-fuer-gesicherte-daten/
Der Anti-Terrorismus-Koordinator der EU will IT-Anbieter zwingen, die Schlüssel für die Verschlüsselung ihrer Nutzerdaten an die Spionagebehörden auszuhändigen. Großbritannien und Deutschland planen wie die USA Gesetze, die eine Überwachung von privaten Kommunikations-Daten legalisieren. Abwehrmaßnahmen gegen staatliche Überwachung sollen künftig verboten werden.
http://deutsche-wirtschafts-nachrichten.de/2015/01/22/bundesregierung-behoerden-muessen-jede-kommunikation-mitlesen-koennen/
Bundesinnenminister de Maizière will Sicherheitsbehörden Zugang zu jeder Art von verschlüsselter Kommunikation verschaffen. Wenn die Behörden zur Terrorabwehr keinen Zugang zu allen privaten und verschlüsselten Daten hätten, so gefährde dies die innere Sicherheit.
http://deutsche-wirtschafts-nachrichten.de/2015/01/25/online-ueberwachung-frankreich-baut-spionage-netz-im-inland-aus/
Die französische Regierung will 1.000 neue Stellen bei den nationalen Geheimdiensten schaffen. Das neue Personal soll vor allem damit beauftragt werden, den Online-Bereich zu überwachen. In der Nationalversammlung soll über ein Gesetz abgestimmt werden, welches die Privatssphäre im Internet komplett aufhebt.
Der Kampf Facebook vs. Datenschutz geht in die nächste Runde:
http://deutsche-wirtschafts-nachrichten.de/2015/02/26/verbraucherzentrale-mahnt-facebook-wegen-datenschutz-ab/
Verbraucherzentrale mahnt Facebook wegen Datenschutz ab
Verbraucherschützer haben Facebook wegen rechtswidriger AGBs abgemahnt. Die Nutzungsbedingungen würden gegen Datenschutz-Gesetze verstoßen. Zudem sei die Aussage irreführend, dass Facebook kostenlos sei.
https://netzpolitik.org/2015/sehr-schoen-der-verbraucherzentrale-bundesverband-hat-wieder-facebook-u-a-wegen-agb-abgemahnt/
Sehr schön: Der Verbraucherzentrale Bundesverband hat wieder Facebook u.a. wegen AGB abgemahnt
Kostenlos ist nicht kostenlos
In diesem Kontext ist die Aussage auf der Startseite „Facebook ist und bleibt kostenlos“ aus Sicht des vzbv irreführend. Es ist bekannt, dass Facebook sein Geld mit und durch Werbung verdient. Aber dem einzelnen Verbraucher sollte vor Augen geführt werden, dass es sich bei seinen Daten um ein kostbares und eigentlich unbezahlbares Gut handelt.
19 unzulässige Klauseln
Facebook hatte zum 30. Januar 2015 seine Datenrichtlinie und Nutzungsbedingungen geändert. 19 Klauseln sind aus Sicht der vzbv rechtswidrig – etwa die Klarnamenpflicht oder fehlende Einwilligungen in die Datenverwendung personenbezogener Daten in Verbindung mit Werbung. Vor allem die Bestimmungen in der Datenrichtlinie sind aus Sicht des vzbv intransparent. Für den Verbraucher erschließt sich nicht auf den ersten Blick, wann welche Daten für welche Zwecke verwendet werden.
Hier spielen zwei entscheidende Punkte mit rein, einmal, dass Facebook seinen Hauptsitz in den USA hat und es dazu eine irische Tochter gibt, also nach welchem Recht das Unternehmen überhaupt belangt werden kann, und zweitens: Was sind Nutzerdaten eigentlich wirklich wert, abgesehen vom Umsatz, den Facebook so macht? Ich selbst vermag mir da gar keine Vorstellung von zu machen, hier wäre mal "Insiderwissen" gefragt - vielleicht kann wer aushelfen?
http://deutsche-wirtschafts-nachrichten.de/wp-content/uploads/2015/02/facebook.jpg
Noch ein Zitat aus Fefes Blog aus dem April 2014:
Habt ihr euch auch schon immer mal gefragt, wo eigentlich dieser irische Datenschutzbeauftragte sitzt, der Facebook und co mit ihrem Bullshit durchkommen lässt? Na gehen wir doch mal gucken! Die Homepage sagt: Canal House, Station Road, Portarlington, Co. Laois, Ireland. Geht da mal auf Streetview! Oder klickt bei Netzpolitik.org, die zuerst die Idee hatten, und diesen Screenshot gemacht haben.
Update: Wenn man einmal um die Ecke läuft, sieht man den Eingang.
https://netzpolitik.org/wp-upload/Canal-House-Station-Road-Portarlington-Co.-Laois-Ireland.-Google-Maps-2014-04-11-16-36-28.png
http://fs2.directupload.net/images/150303/csk74qhp.jpg
sieht mir fast danach aus, als hätte die amerikanische Regierung jede Bodenhaftung verloren - oder noch schlimmer, glaubt tatsächlich, dass ihr nicht nur die ganze Welt gehört, mit Mann und Maus, sondern ihre Übermacht so stark ist, dass sie keine Sorge vor irgendeiner Gegenwehr haben muss, wenn sie Beleidigungen oder Pläne herausposaunt. Kein gutes Zeichen für uns, schätze ich
https://netzpolitik.org/2015/obama-will-nicht-dass-china-schluessel-und-backdoors-bekommt-nein-doch/
Wie absurd ist das denn? Ausgerechnet diejenigen, die uns seit Jahren so anlass- wie lückenlos überwachen lassen, wollen uns jetzt per Gesetz unsere letzten digitalen Schutzmöglichkeiten verbieten
Gutes Zitat!
Vielleicht müssen wir anfangen, richtig schwarz zu sehen?
Wir erleben nur gerade wieder den historischen Regelfall, dass die Arbeitsteilung "Regierung - Regierte" auf Dauer feste Elitenschichten schafft, die ihre Macht als selbstverständlich ansehen und die Ohn-Mächtigen nur als Verfügungsmasse werten, als ignorablen Pöbel, der mit zwei einfachen Regeln sicher beherrscht werden kann: Divide et Impera und Panem et Circenses.
Das Netz ist nur eine neue Waffengattung in diesem Spiel: Und diejenigen, die die "Lex" auf ihrer Seite haben, weil sie sie schlicht selber machen können und somit immer "legal" handeln, haben es einfach nur ein wenig leichter, sich diese Waffe anzueignen:
Netzneutralität: EU-Kommissar Oettinger ist dagegen
EU-Datenschutzreform: Verbraucherschützer warnen vor Ausverkauf der Nutzerrechte
Wieviel gnädiger sind da doch die heiligen Privaten wie Google oder Facebook, die ihren Untertanen immer noch ein paar Goodies spendieren müssen?
Google's Domain Name Land Grab: Consumer Convenience Or Coercive Control Point?
Egal, wie man's dreht und wendet: Wer seine Rechte nicht ernst nimmt, nicht einfordert und verteidigt, wird sie am Ende einfach nicht mehr haben.
Wir erleben nur gerade wieder den historischen Regelfall
Das müsste sich doch eigentlich berechnen lassen?
sorry für die lange Antwort, ich versuchte zwar zu kürzen, wollte aber möglichst verständlich bleiben
Das müsste sich doch eigentlich berechnen lassen?
wow - eine solche Reaktion bin ich wirklich nicht gewohnt. Normalerweise halten die Menschen alles, was mit ihnen selbst zu tun hat, für etwas außerhalb der Niederungen der Berechenbarkeit: Kultur, Persönlichkeit, Beziehungen, Lösungskompetenz sind für viele höchstens philosophisch-religiös zu erfassen. Daran ändert wohl erst Big Data ein wenig, doch bei genauem Hinsehen wird eigentlich nur der intelligente Designer durch den Genius des programmierenden Nerds ersetzt.
Was also ist berechenbar an einem solchen Prozess und vor allem, was sind die Messbarkeiten, die immer Grundlage von Berechenbarkeit sind?
Der Prozess ist die an sich völlig plausible Arbeitsteilung "Regierung - Regierte", die am Ende immer in verkrusteten Aristokratien endet. An König und Papst lässt sich das wohl am leichtesten demonstrieren. Menschen sind ja keine geborenen Untertanen - von Natur aus haben sie alle ein Gehirn erhalten, dass einfach nur die Aufgabe hat, seinen Organismus so lange wie möglich am Leben zu erhalten und weil das in der Natur zuerst einmal keiner für dich macht, musst du das eben selber tun. Wieso sind dann aber trotzdem alle modernen Kulturen so entartet, dass nur wenige herrschen und so viele oft nicht einmal genug zum Leben haben oder sogar noch schlimmer, Foltertode sterben müssen? Und warum gibt es trotz immer wieder aufkeimender Sehnsucht nach Selbstbestimmung keine einzige Revolution, die nicht am Ende ihre Kinder auffrisst?
Alles beginnt doch meist so harmlos - auch bei König und Papst. Ersterer begann als fahrender Richter mit objektiven Messwerkzeugen wie Messleine und Waage, letzterer begann als Lehrer, denn die Landwirtschaft brachte Städtebau, brachte weitergehende Arbeitsteilung und erforderte damit viel Ausbildung und Lehre. Doch weil das Recht über Streitigkeiten zu entscheiden oder der Jugend wichtige Dinge beizubringen, sehr viel Macht bedeutet und weil Macht überheblich macht, wurde aus dem Richter schnell Salomon, der es nicht mehr nötig hatte, Messwerkzeuge zu nutzen und nur noch aus seinem weisen Bauch heraus urteilte, und am Ende sogar Alexander, der willkürlich und einfach mit Gewalt den Gordischen Knoten menschlicher Interessen löste. Und wer einmal sah, wie schwer es Lehrer haben, wenn sie manchen Schülern Dinge beibringen sollen, dem wird es sicher nachvollziehbar, wenn sie am Ende sagen "so ist es halt, lern's auswendig". Und wenn die Schüler erst einmal akzeptiert haben, dass jemand für sie denkt, ist der Schritt bis zum Papst dann nur noch eine Frage der Zeit.
Ursache dieser Entwicklung ist immer Arbeitsteilung, die aber unbedingt sein muss, weil alleine die Existenz vieler Menschen viel Arbeit bedeutet, sie wollen genährt, gekleidet, beschützt und sicher sein - richtig viel Arbeit lässt sich jedoch nur mit Arbeitsteilung realisieren, die erfahrungsgemäß hierarchisch strukturiert wird. Das Problem der fatalen, selbstverstärkenden Entwicklung, die aus jedem liberalen Anfang am Ende eine Aristokratie zur Folge hat, ist, dass die Hierarchieformen der beiden Kulturtypen liberal/autoritär sich auf den ersten Blick so ähneln. Sowohl die aufgabenorientierte Struktur sachlich fundierter Arbeitsteilung als auch die personenbezogene Hierarchie autoritärer Systeme sind dreiecksförmig strukturiert (breite Basis, ein Entscheidungsträger bzw. Führer), die je nach Arbeitsanfall beliebig viele Hierarchieebenen ermöglichen.
Jede menschliche Kultur startet mit einer solchen aufgabenorientierten, sachlich fundierten, personenunabhängigen Struktur, in der Positionen nach Kompetenzen verteilt werden wie der Richter, der unabhängig, objektiv und präzise Land vermessen und Güter wiegen konnte. Entscheidungsträger sind im Fall der Aufgabenorientierung diejenigen, die den besten Überblick haben. Wer schon einmal in einer aufstrebenden Firma gearbeitet hat, hat vielleicht auch schon die ersten Jahren einer solchen Turnschuh-Generation miterlebt.
Und er hat wohl auch erlebt, wie die wachsende Belegschaft die Arbeitswelt veränderte. Es kommen mehr und mehr Leute hinzu, deren Arbeit aufeinander abgestimmt werden muss, bis die dazu erforderliche Kommunikation aus Zeitmangel durch Regelwerke ersetzt werden muss. Außerdem erhöht sich automatisch der Anteil derjenigen, die entweder nicht willens oder nicht fähig sind, ihren Job ordentlich zu machen, also setzt zusätzlich ein gegenseitiges Misstrauen ein. Kompetenz rückt in den Hintergrund, weil die Zeit gar nicht mehr ausreicht, sich ein Bild von den Fähigkeiten aller Beteiligten zu machen und so beginnt die Zeit der Titel und Zeugnisse, der Pöstchenjäger und Blender und der Führer, die sagen dürfen, wo es lang geht, unabhängig davon, ob sie überhaupt wirklich wissen, von was sie reden.
Will man messen, wie weit sich eine Struktur bereits von der Aufgabenorientierung entfernt hat und wie fest sich die Eliteschichten bereits in Führungspositionen festgesetzt haben, kann man deshalb drei Vorgehensweisen in Betracht ziehen:
1. Effizienzmessung - in der Regel ist das ganz gut am Unterschied zwischen (Einfluss-)Reich und Arm auszumachen, denn Reich und Arm (bis hin zur Sklaverei) beziehen sich einerseits auf Ressourcenverfügbarkeit und andererseits auf Gestaltungsmöglichkeiten. Ressourcen an ein paar Stellen zu sammeln und sie damit aus der Breite zu entziehen, ist der Effizienz nicht sehr förderlich, solange diese Breite auch ihren Anteil am Gesamterfolg leisten muss. Genauso leidet die Effizienz durch die Missachtung von Fähigkeiten, die durch festgefahrene Eliten im Lauf der Zeit entsteht. Wie die moderne Forschung nahelegt, ist beispielsweise der IQ nicht an Klassen oder Länder gebunden, sondern großteils eine Frage der Förderung, deshalb sind liberale Systeme in der Regel wissenschaftlich erfolgreicher. Effektivität ist eine weniger gute Messgröße, denn in elitären Kulturen genügt es völlig, wenn genügend Arbeitsleistung für die Befriedigung der oberen Schichten gewonnen werden kann.
2. Abweichung des Kompetenzprofils von Positionsinhabern von den tatsächlichen Anforderungen der Position - wenn zum Beispiel ein King George (britisch oder US-Variante) einen Staat lenken darf, dann hat das nichts mit Fähigkeiten, sondern mit Zufälligkeiten wie Herkunft oder Hautfarbe zu tun.
3. Anpassungsfähigkeit der Struktur an Veränderungen der Rahmenbedingungen - aufgabenorientierte Systeme müssen sich häufig schon bei kleineren Änderungen deutlich umstrukturieren, soll die Effizienz nicht leiden. Wer zuvor Mitarbeiter war, kann zum Projektleiter werden, wer Leiter war, arbeitet dann wieder zu. Bei personenbezogenen Hierarchien ist das erfahrungsgemäß so gut wie undenkbar. Chef bleibt Chef, egal, was Untergeordnete tun oder wozu sie fähig sind und erst der Chef des Chefs kann das ändern. Während also aufgabenorientierte Strukturen in jeder Position flexibel sind, reagieren personenbezogenen Hierarchien nur mit Veränderung untergebener Positionen.
Liberale Systeme kennzeichnen sich neben einem nicht-diskriminierenden Respekt vor dem Individuum durch durchlässige Klassengrenzen und flexible Organisationsstrukturen aus (Anpassbarkeit an Änderungen der Rahmenbedingungen) sowie geringe Diskriminierung (Effizienzsteigerung durch höhere Diversität mit breiter angelegter Talentgewinnung und weniger Reibungsverluste durch Positionskämpfe und Untertanenverhalten). Im Gegensatz dazu ist das augenscheinlichste Kennzeichen autoritärer System der Führerkult, die auf die Person des Leaders ausgerichtete Struktur, dem oft geradezu übermenschliche Fähigkeiten ohne große Überprüfung zugesprochen werden - der moderne Edelmann im Nadelstreifen-Anzug, der Ritter in schimmernder Rüstung, der Messias, der uns erlöst, der Abteilungsleiter, der das letztlich gesichtslose Team zu Höchstleistungen antreiben kann.
Ob es je rein liberale oder rein autoriäre Systeme geben kann? Nordkorea wird vermutlich nur wenige liberale Inseln hat.
Die Ursache, warum jedes liberale Experiment am Ende in autoritären Bürokratien endet, ist meiner Hypothese nach die schiere Masse. Arbeitsteilung funktioniert als Wechselwirkung zwischen arbeitsfähigen Einheiten und die muss koordiniert werden, bei Menschen wie bei Computer-Netzwerken oder sonstigen Industrieanlagen und Koordination erfordert Kommunikation - und Kommunikation erfordert Zeit und die ist im Gegensatz zu Geld nicht beliebig vervielfältigbar. Je mehr Einheiten beteiligt sind, umso mehr muss die Kommunikation automatisiert werden, braucht Regeln und Strukturen. Dabei gibt es, wie bei Richtern und Lehrern, immer Knoten, die einflussreicher als andere sind - und weil selbst die liberalste, sachlichste und aufgabenorientierteste Struktur immer von Menschen ausgefüllt wird, deren Gehirne darauf optimiert sind, Information in Wissen und Erfahrung umzusetzen, sich also adäquate Fähigkeiten anzueignen, werden viele Aufgaben von den Amtsinhabern nach einer Zeit ausreichend gut erfüllt. So setzt nach einer Weile gleichbleibender Verhältnisse unabwendbar der Gewöhnungseffekt ein: Die jeweiligen Personen werden zur Identifikationsfigur ihres Strukturknotens, bis am Ende natürlich doch eine Änderung der Rahmenbedingungen eintritt, bei der die Fähigkeiten einer anderen Person geeigneter wären und trotzdem keine Anpassung der Amtsinhaber erfolgt. Je mehr Macht ein solcher Strukturknoten bedeutet, umso eher wird wohl auch der nackte Affe im Hinterkopf des Amtsinhabers einsetzen, der seine Position verteidigen will, selbst wenn es dem Gesamtsystem schadet. Weil das ein schleichender Prozess ist, ist der resultierende Effizienzverlust bei jeder schrittweisen Verschlechterung kaum spürbar, überdeckt durch den Gewöhnungseffekt, der grundsätzlich den Status Quo unterstützt, bis am Ende die Hierarchie so "personifiziert" ist, dass Ämter sogar vererbt werden. An den historischen Königen lässt sich wohl auch die Behauptung ableiten, dass Erbfolge meist eher zufällig auf Kompetenzen stößt - wenn das System durch die reduzierte Effizienz nicht zuvor schon an die Wand gefahren wurde.
Einen solchen Prozess berechnen, kann man aber wohl nur für kleinere Einheiten, doch Big Data und die moderne Statistik sind sicher in der Lage, aus aktuellen Tendenzen Hochrechnungen zu erzeugen, mit denen der Verlauf eines solchen Prozesses auch für Konzerne oder ganze Kulturen abgeschätzt werden kann.
Mir will scheinen, dass viele von uns den wachsenden Grad an Stabilisierung der elitären Schichten mit dem dazugehörigen Verlust von Freiheiten und unbedingtem (nicht an Herkunft, Leistungsfähigkeit oder Vermögen gebundenen) Respekt vor dem Individuum, den wir als Abbau von Demokratie erleben, intuitiv recht genau erfassen und bewerten können. Herr Oettingers Ansichten zu Netzneutralität, Fracking oder erfahrenen Mitarbeitern zeugen von einer nicht mehr wirklich als respektvoll zu bezeichnenden Meinung über Otto Normalverbraucher und auch Frau Merkels großzügiges Übergehen von "populistischen Tendenzen" (TTIP wird von vielen abgelehnt, doch sie bestätigt Brüssel, Deutschland will TTIP, lässt eine nicht von der Hand zu weisende Ähnlichkeit mit "L'etat c'est moi" erkennen.
Wie lange wir noch Zeit haben, bis wir ganz offen zu Untertanen ohne Einfluss werden? Es wird wohl nicht mehr lange dauern, bis die Straße nach kurzem Aufblühen von Beteiligungskultur wieder ganz aufgibt und jede Demonstration nicht nur als Populismus verschrien wird, sondern von der Bevölkerung auch so akzeptiert wird, eine Bevölkerung, die sich dann freundlicheren Dingen als der Verteidigung der Demokratie widmet. Und das dürfte dann das Endstadium einleiten.
Bundesinnenminister de Maizière will Sicherheitsbehörden Zugang zu jeder Art von verschlüsselter Kommunikation verschaffen...Die französische Regierung will 1.000 neue Stellen bei den nationalen Geheimdiensten schaffen.
Der Guardian, die vermutlich einzige Zeitung, die den Mut hat(te), eine "staatsfeindliche" Veröffentlichung wie die Snowden-Papiere zu realisieren, hat gestern zu der Bespitzelung der eigenen Bürger einen interessanten Artikel publiziert:
"The amount a state needs to expend on guard labour is a function of how much legitimacy the state holds in its population’s reckoning."
Der Artikel wirft dabei auch ein interessantes Bild auf die Ent-Demokratisierung als Kosten-Nutzen-Rechnung, auch eine Form der Berechenbarkeit:
"There’s an implied max/min problem here: the intersection of a curve representing the amount of wealth you need to spend on guards to maintain stability in the presence of a widening rich/poor gap and the amount you can save on guards by creating social mobility through education, health, and social welfare"
Und er spricht fast nebenbei an, wie undemokratische Strukturen die Effizienz vernachlässigen, wobei zu beachten ist, dass nicht die fast absurde Definition von Effizienz der Ökonomen heranzuziehen ist, bei der alle Ressourcen, deren Kosten nicht monetär sind, außer Betracht bleiben, obwohl sie häufig aus dem Arbeitsprozess gar nicht wegzudenken sind:
"It’s obvious that Canada, a country characterised by huge wilderness and resource-extraction, is in terrible danger from climate change...A state that is beholden to a small number of people is also beholden to that elite’s sacred cows. It is incompatible with evidence-based policy."
Wäre ich gestern schon über diesen Artikel gestolpert, wäre das folgende Zitat mein Abschlusswort gewesen:
"Our networks have given the edge to the elites, and unless we seize the means of information, we are headed for a long age of IT-powered feudalism, where property is the exclusive domain of the super-rich, where your surveillance-supercharged Internet of Things treats you as a tenant-farmer of your life, subject to a licence agreement instead of a constitution. "
und noch zwei Links zum "IT-powered feudalism"
SAP arbeitet mit der NSA zusammen
Bundesregierung hofiert Lobbyisten
"Das zuständige Bundesinnenministerium lässt sich massiv von Wirtschaftslobbyisten beeinflussen und versucht, die Datenschutzverordnung in deren Sinne zu gestalten. "
diesmal zum Thema: "Big Data, KI und die Mathematik" und der Berechenbarkeit aus Big Data:
Jede Berechenbarkeit stammt aus der Informativität unserer Welt, deren gesamte Ordnung evolutionär ist: aus Kleinem erwächst das Große durch identifizierbare, wiederholbare Prozesse. Sogar die Galaxienwände entstanden aus kleinsten Anfängen.
Diese Prozesse erlauben Vorhersehbarkeit im Fall, dass eine Intelligenz, also eine informationsverarbeitende Einheit mit der Fähigkeit zur Wissenspeicherung, sie erkennt. Je mehr Wissen vorliegt, umso besser werden deshalb die Voraussagen. Das hat seit der mythologischen Überwindung der Titanen dazu geführt, dass der Glaube an die vollkommene Berechenbarkeit des Universums sich in den Köpfen festgesetzt hat.
Doch Pars pro Toto ist manchmal eine unzulässige Verallgemeinerung oder mit anderen Worten: "Hilberts Vorstellung von einem [einzigen] alles erklärenden System kann nicht wahr sein" (Quelle Stand März 2015) und sei es auch nur wegen der faktischen Unendlichkeit der Realität gegenüber jeder realen, also endlichen Intelligenz, die diese Erklärung abgeben sollte.
Wie die Chaosforschung zeigt, können kleinste Anfangsdifferenzen trotz perfekter Identifizierbarkeit und Wiederholbarkeit (Berechenbarkeit) von Prozessen sich oft zu gewaltigen Unterschieden in den Ergebnissen aufschaukeln. Und solch ein kleiner Auslöser von Störungen der Berechenbarkeit ist die Grundlage eines Rowhammer-Angriffs:
"Greift ein Computerprozess häufig genug auf dieselbe Stelle im Speicher zu, kann das dazu führen, dass sich der Speicher in der Reihe direkt daneben ändert und ein Bit umkippt. ... Der Grund sind kleine elektromagnetische Felder, die durch die Speicherzugriffe entstehen."
Fazit: Es kann immer eine Wirkung geben, die (noch) nicht in die Berechnungen eingeflossen ist.
http://www.spiegel.de/kultur/literatur/nick-bostroms-superintelligenz-bei-suhrkamp-a-1011341.html
So isses, und nicht anders!
Wenn man sich die impliziten Differenzialfunktionen von Lorenz anschaut, sieht man die prinzipielle Unmoeglichkeit von Vorhersehbarkeit und damit Determinierbarkeit von realen Prozessen.
"There’s an implied max/min problem here: the intersection of a curve representing the amount of wealth you need to spend on guards to maintain stability in the presence of a widening rich/poor gap and the amount you can save on guards by creating social mobility through education, health, and social welfare"
Das klingt ein wenig die Beschreibung von Einkommensungleichverteilung durch den Robin-Hood-Index bzw. die Hoover-Ungleichverteilung ...
"Our networks have given the edge to the elites, and unless we seize the means of information, we are headed for a long age of IT-powered feudalism, where property is the exclusive domain of the super-rich, where your surveillance-supercharged Internet of Things treats you as a tenant-farmer of your life, subject to a licence agreement instead of a constitution. "
Und das erinnert mich an etwas, das Hans-Jürgen Krysmanski in einem Interview geäußert hat, als er von der "Freigabe Kapitalistischer Computernetzwerke" (oder so ähnlich) sprach, also dem privatisierten Wissen das durch heutige Technologie erworben und gespeichert wird, welches die Möglichkeit einer Gewinn-Erwirtschaftung beinhaltet, jedoch nicht zugänglich ist sondern einer Elite vorbehalten.
Zum Punkt Determiniertheit: Ich finde, hier hat die Physik, wie sie zum Jetztzeitpunkt entwickelt ist, angefangen mit der Entwicklung der Quantenmechanik, auf mikroskopischer Ebene mit der Vorstellung einer Determiniertheit Schluss gemacht. Ich meine, damit erübrigt sich - vom mathematischen Standpunkt mal abgesehen - das Thema exakte Vorhersagbarkeit auch aus physikalischer Perspektive.
Die Warnungen von Nick Bostrom stoßen mehr oder weniger ins gleiche Horn wie die z.B. von Stephen Hawking, und ich finde, wir sollten sie verdammt ernst nehmen. Ein Punkt bleibt jedoch bis dato offen:
Während andere Denker im exponentiellen Wachstum unserer technischen Mittel den Keim der Unsterblichkeit vermuten, entwirft Nick Bostrom in seinem Buch "Superintelligenz" ein ausgesprochen pessimistisches Szenario.
Ich wollte in einem grad parallel existierenden Artikel eigentlich nicht noch einmal darauf eingehen, weil das Thema vor nicht allzu langer Zeit schon mal diskutiert wurde, aber hier bietet es sich doch an.
Dieser Punkt mit dem exponentiellen Wachstum, auf dem auch Kurzweil seine Prognosen stützt, beruhen auf einer Extrapolation von Moore´s Law. Die Interpolation basiert hierbei auf Computerchip-Technologie auf Silizium basierend. Sie stimmt auch noch recht gut, wenn man auf Rechenmaschinen aus der Vorzeit der Computer ausweitet. Innerhalb des Computerzeitalters basiert der Fortschritt der Rechenleistung auf einer Verkleinerung der Schaltkreise:
http://fs1.directupload.net/images/150311/y6i6tgnz.jpg
Das Problem ist jedoch, dass irgendwann die physikalische Grenzen des Siliziums erreicht sein wird, und zwar bevor die Exponentialfunktion "singulär" wird. Bis jetzt hat man - soweit ich weiß - keinen passenden Ersatz gefunden. Ob Germanium soviel leistungsfähiger ist, kann ich nicht beurteilen, Graphen jedoch, das ja gern mal als neuer Superhalbleiter promotet wird, dürfte an sich schon enorme Schwierigkeiten bereiten - besitzt es doch nicht mal eine Bandlücke. Vielleicht kann mit der Erzeugung einer künstlichen Bandlücke im Graphen doch noch ein Durchbruch gelingen, das ist aktuell jedoch Zukunftsmusik.
Bleibe wir also Skeptisch, was die Singularity angeht.
P.S.: Herzlich Willkommen am Runden Tisch an @Oneway und @Tao Nakis!
Neues aus dem Bereich Netzpolitik, Datenschutz und Überwachung:
EU: Deutschland verwässert neues Datenschutz-Gesetz
Lobbyplag hat zahlreiche Dokumente zum EU-Datenschutzgesetz untersucht. Mit Blick auf die Änderungsvorschläge der einzelnen Länder und Politiker zeigte sich, dass vor allem Deutschland den Datenschutz in der EU abschwächen will. Ungarn hingegen gehen die Entwürfe noch nicht weit genug.
http://deutsche-wirtschafts-nachrichten.de/2015/03/12/eu-deutschland-verwaessert-neues-datenschutz-gesetz/
NSA: Deutsche Software-Firma SAP hilft beim Überwachen
Mit ihrer Tochterfirma NS2 ist SAP Mitglied eines Verbands, der die amerikanischen Geheimdienste und Unternehmen zusammenbringt. SAP hat auch das eigene Portfolio erweitert und kann den Geheimdiensten mittlerweile umfangreiche Software zur Verarbeitung von großen Datenmengen anbieten. Auch der BND ist an einer solchen Software interessiert.
http://deutsche-wirtschafts-nachrichten.de/2015/03/11/nsa-deutsche-software-firma-sap-hilft-beim-ueberwachen/
Das dürfte Sie zum Thema Big Data, KI und die Mathematik interessieren:
Über die ethische Dimension von Algorithmen – Zeynep Tufekci und die Konferenz #EOA2015
"Unternehmen und Institutionen, die Algorithmen einsetzen, um gigantische Datenmengen zu analysieren und deren Weiterentwicklung vorantreiben, kontrollieren bereits jetzt große Teile unseres Lebens. Sie entscheiden, welche Werbung wir angezeigt bekommen, was die optimale Krankenversicherung für uns ist und ob wir kreditwürdig sind.
Bei Unternehmen oder Geheimdiensten ist die ethische Dimension dieser automatischen Entscheidungsprozesse oftmals kein Thema. Die Debatte über die Gefahren und Möglichkeiten dieser Formeln steht noch ganz am Anfang. Ein starker Impuls hierzu wurde in dieser Woche auf der Konferenz The Ethics of Algorithms gegeben. Geladen waren renommierte Vertreter aus den Bereichen Wissenschaft, Wirtschaft und Bürgerrechten.
Besonders anschaulich wurde die Vielfalt an Möglichkeiten von anwesenden VertreterInnen großer sozialer Netzwerke dargestellt: Videoportale sind beispielsweise in der Lage, durch eine Analyse des Bild- und Tonmaterials das hochgeladenene Material in extrem detaillierte Kategorien zu unterteilen. So könne man sich ganz einfach alle Videos anzeigen lassen, in denen etwa ein Mensch mit einem roten Pullover und einer Basecap vorkommt.
Auch der staatliche Druck auf große Internetkonzerne wurde mehrfach angesprochen. Nach amerikanischem Recht ist es illegal, terroristische Vereinigungen durch materielle Güter oder das Bereitstellen von Infrastruktur zu unterstützen. Dieses Gesetz kann auch auf Inhalte in sozialen Netzwerken angewendet werden: Dem Serveranbieter kann also eine wissentliche Unterstützung von Terroristen unterstellt werden. Um einen solchen Vorwurf im Vorfeld zu vermeiden, filtern die Anbieter Inhalte automatisch."
https://netzpolitik.org/2015/ueber-die-ethische-dimension-von-algorithmen-zeynep-tufekci-und-die-konferenz-eoa2015/
Terrorism and Social Media: Radical Content vs. Freedom of Expression
https://cihr.eu/the-ethics-of-algorithms/
Confirmed speakers:
Richard Allan, Facebook
Ahmed Ghappour, UC Hastings, College of the Law
Jillian York, Electronic Frontier Foundation
Frank LaRue, UN Special Rapporteur on freedom of expression (2008-14)
Mohamad Najem Social Media Exchange (SMEX)
Kate Coyer, Central European University
Emily Goldberg Knox, UC Hastings
https://cihr.eu/wp-content/uploads/2015/02/FirstDay_EoA_v05.03.pdf
Sie dürften mit Ihrer Antwort den Weltrekord für das längste Kommentar von Herrn Leusch gebrochen haben ...
wow - eine solche Reaktion bin ich wirklich nicht gewohnt. Normalerweise halten die Menschen alles, was mit ihnen selbst zu tun hat, für etwas außerhalb der Niederungen der Berechenbarkeit: Kultur, Persönlichkeit, Beziehungen, Lösungskompetenz sind für viele höchstens philosophisch-religiös zu erfassen.
Sie pflegen eindeutig den falschen Umgang ;)
Eigentlich kam die Frage daher, dass ich an einen Artikel denken musste, der auf dem motherboard von vice zu lesen ist, Die Mathematik der Massenaufstände, wo die Arbeit des New england Complex Systems Institute beschrieben wird.
http://motherboard.vice.com/de/read/mathematik-weiss-es-besser
http://necsi.edu/
Meine Idee war, Instabilität von Gesellschaftssystemen durch einen Index auszudrücken, anhand dessen sich eine Zeitreihenanalyse durchführen lässt. Da bieten sich, wie auch in dem Zitat hier, Verteilungskoeffizienten von Einkommen respektive Vermögen an.
"There’s an implied max/min problem here: the intersection of a curve representing the amount of wealth you need to spend on guards to maintain stability in the presence of a widening rich/poor gap and the amount you can save on guards by creating social mobility through education, health, and social welfare"
Eine solche Arbeit wurde in der Vergangenheit von Götz Kluge angeregt:
http://www.umverteilung.de/ent7828.htm
Wenn man bedenkt, wie in den vergangenen Jahren die Armutsberichte statistisch schöngerechnet wurden, und dass die Vermögensverteilung in Deutschland am unteren Ende mittlerweile ins Negative geht, weil dieser Teil der Bevölkerung kein Vermögen, sondern nur Schulden besitzt, wäre eine solche Arbeit im Grunde dringend notwendig. Ich vermute aber auch, dass sie von der Politik nicht wahrgenommen und von der Bevölkerung nur schwer verstanden würde.
NSA: Deutsche Software-Firma SAP hilft beim Überwachen
genau darüber handelte auch mein Spiegel-Link, wobei der Begriff "deutsche Software-Firma" inzwischen auch nicht mehr sehr eng gesehen werden darf. Soweit ich mich erinnere, fürchten die meisten Waldorfer schon seit längerem um ihren Standort
EU: Deutschland verwässert neues Datenschutz-Gesetz
ja, dazu hagelt es geradezu an Meldungen:
"Beerdigung erster Klasse" für den Datenschutz
EU-Datenschutzreform: Je länger es dauert, desto mehr wird der Datenschutz aufgeweicht
Verletzungen der Netzneutralität schon jetzt die Regel
Zwei-Klassen-Netz
ich habe langsam das Gefühl, dass wir wieder einmal nur Cassandra spielen können: sehen, wo es hingeht, ohne etwas daran ändern zu können - aber ausbaden dürfen wir es dann natürlich schon
Ich meine, damit erübrigt sich - vom mathematischen Standpunkt mal abgesehen - das Thema exakte Vorhersagbarkeit auch aus physikalischer Perspektive.
was meinen Sie mit "vom mathematischen Standpunkt mal abgesehen"? Die Mathematik kennt Lösbarkeit, aber nicht wirklich Vorhersehbarkeit, weil sie Zeitabhängigkeit nur als Relation zwischen Mengenelementen betrachtet. Lösbarkeit ist immer eine präzise Sache, Vorhersehbarkeit immer eine Hypothese
aber hinsichtlich der physikalischen Perspektive: Der Determinismus sitzt tief in den Köpfen unserer Kultur, die Vorstellung, dass die Zufälligkeiten unseres Lebens durch "verborgene Parameter" fixiert werden können, sei es nun Schicksal, Kismet, Gott oder bohmsche Mechanik ist sicher keinesfalls ad acta gelegt. Ich habe gerade als Stichwort "determinismus und quantenphysik" gesucht, sind interessante Quellen zu finden ;-)
und auch die String-Theorie mit ihren bis zu 24 Dimensionen gewinnt sicher ihren größten Reiz aus dem tiefsitzenden Glauben der Menschen, dass es keinen Zufall gibt
Sie dürften mit Ihrer Antwort den Weltrekord für das längste Kommentar von Herrn Leusch gebrochen haben ...
Weltrekord dürfte sehr geschmeichelt sein, denn wenn ich das richtig interpretiere, meinen Sie den längsten Kommentar auf Freitag ;-)
tja, ich tendiere zu Anti-Twitter-Tum, ist wohl eine Konsequenz der Erfahrung, dass wohlformulierte Texte gute Ausgangsbasis für die Verständigung zwischen Kunde, Softwerker und Computer sind. Solche Texte lassen sich über die ML-Methode zu einem programmierbaren Konzept umsetzen, habe ich sogar einmal an einem Grimmschen Märchen demonstriert - ich denke, darunter haben Sie gerade gelitten
Sie pflegen eindeutig den falschen Umgang ;)
so viele Menschen kann und will ich gar nicht meiden - junge und alte, hoch und weniger gebildete Leute, mit denen man an sich ganz gut diskutieren kann, beginnen früher oder später distanziert zu reagieren, wenn man versucht, menschlichen Geist und damit menschliche Erfahrung und auch Kultur in die Niederungen der Physik zu holen. Sie glauben es einfach nicht, sie kommen dann mit Philosophie, Religion oder Esoterik und am Ende mit dem Spruch "zwischen Himmel und Erde"
ich hatte sogar einen Professor, der aus den Naturwissenschaften kam und trotzdem das Interesse verlor, als es an seine religiösen Überzeugungen rührte. Denn der fahrende Richter, der im Laufe der Jahrhunderte zum absolutistischen Monarchen wird, ist noch eine weniger heikle Sache, doch der Lehrer, der zum Papst wird, hat schon einige Konsequenzen, die doch sehr viele Glaubensfragen berühren und da hört die Diskussion bei vielen schlicht auf
Wenn man bedenkt, wie in den vergangenen Jahren die Armutsberichte statistisch schöngerechnet wurden
passender Link: Armut ist teuer
"So hat die Ungleichheit in Deutschland in den vergangenen 30 Jahren erheblich zugenommen. In keinem Land der Euro-Zone war das Vermögen laut einer Studie des Deutschen Instituts für Wirtschaftsforschung 2013 so ungleich verteilt wie hier."
Demokratie ist kein Selbstzweck, sondern einfach eine Frage der Effizienz. Deshalb lässt sich evolutionär eine Liberalisierung der Spezies feststellen, die mit einer Reduktion der autoritären Alpha-Strukturen einhergeht (schön am Verlust der Drohzähne zu bemerken).
Je weniger Demokratie, umso weniger Effizienz im Gesamtsystem - doch das interessiert die Eliten nicht. Das hatte der Guardian ja auch so schön beschrieben: "A state that is beholden to a small number of people is also beholden to that elite’s sacred cows."
Je weniger Effizienz im Gesamtsystem, desto mehr Armut, weil die verbliebene Effizienz nur noch zu Gunsten weniger genutzt wird.
Meine Idee war, Instabilität von Gesellschaftssystemen durch einen Index auszudrücken, anhand dessen sich eine Zeitreihenanalyse durchführen lässt
Und ja, ich denke wie Sie, dass sich das mit einem Index gut charakterisieren lässt, wobei es vermutlich wohl einige Indizes gibt, die bereits in diese Richtung gehen. Doch weil der Geldadel wie Olin, Scaife, Coors, Bradley and Kochs alles tut (also wirklich viel Geld investiert), um seine Position verfestigen, werden solche Studien einfach nicht bekannt, denn dazu gehört immer auch Marketing mit seinen Kosten.
was meinen Sie mit "vom mathematischen Standpunkt mal abgesehen"?
Da hab ich mich falsch ausgedrückt, ich meinte "neben dem mathematischen Aspekt erübrigt sich auch physikalisch die Vorhersagbarkeit".
aber hinsichtlich der physikalischen Perspektive: Der Determinismus sitzt tief in den Köpfen unserer Kultur, die Vorstellung, dass die Zufälligkeiten unseres Lebens durch "verborgene Parameter" fixiert werden können, sei es nun Schicksal, Kismet, Gott oder bohmsche Mechanik ist sicher keinesfalls ad acta gelegt. Ich habe gerade als Stichwort "determinismus und quantenphysik" gesucht, sind interessante Quellen zu finden ;-)
Da reicht durchaus auch ein Blick hier in die Community ^^
Nun ja, die String-Theorie. Kennen Sie den Witz "Ist er theoretischer Physiker oder theoretisch Physiker?" ;-)
keine Sorge, die lange Antwort habe ich erst gar nicht geschrieben, ich will hier sicher keine verbalen Selfies produzieren ;-)
Da reicht durchaus auch ein Blick hier in die Community ^^
Offen gestanden habe ich den Freitag hinsichtlich dieses Themas eher weniger verdächtigt, und die Artikel, über die ich dann stolpere, müssen mir in der Masse einfach ins Auge fallen wie der jüngste Beitrag über die Krautreporter.
Ich bin Ihrem Hinweis aber gefolgt und habe gesucht - via Menü Kultur, wo ich den Eintrag "Wissen" fand und an einem interessanten Guardian-Artikel hängenblieb, bei dem mir vor allem die Stichworte "Zeitreisen" und "Bewusstsein" auffielen.
Nun ja, die String-Theorie. Kennen Sie den Witz "Ist er theoretischer Physiker oder theoretisch Physiker?"
nein, den kannte ich noch nicht - und die String-Theorie kenne ich sicher auch nicht wirklich, nur eben das, was man sich auf dem Netz zusammenkramen kann.
Aufgefallen ist sie mir, weil sie im Prinzip sehr gut zur Information zu passen scheint, die die Welt ja auch aus Wellenphänomenen aufbaut. Was mich aber stört, ist die Komplexität - beliebig komplexe Algorithmen haben vielleicht passende Lösungen für jede Aufgabenstellung, genauso, wie jede Lösung in der Unendlichkeit vorkommt. Dass physikalische Beobachtungen auch von diversen Ansätzen erfüllt werden können, ist schließlich kein streng gehütetes Geheimnis. Gerd Binnigs evolutionären Ansatz fand ich da schon sehr interessant.
Die großen Revolutionen in der Physik gingen immer von kompliziert zu elegant - kompliziert konnte auch die geozentrische Sphärenlogik die Himmelskörperbewegungen berechnen, doch Keplers eigentlich simpler Schritt, die Perspektive zu ändern und die Sonne als Zentrum zu sehen, ließ auch den erforderlichen Berechnungsaufwand erfolgreich schrumpfen.
Kennen Sie den Witz "Ist er Theorethiker?''
Neues aus dem Bereich Netzpolitik, Datenschutz und Überwachung:
Geheime Kommunikation: BSI programmierte und arbeitete aktiv am Staatstrojaner, streitet aber Zusammenarbeit ab
https://netzpolitik.org/2015/geheime-kommunikation-bsi-programmierte-und-arbeitete-aktiv-am-staatstrojaner-streitet-aber-zusammenarbeit-ab/
"Das Bundesamt für Sicherheit in der Informationstechnik hat das BKA bei der Programmierung des Staatstrojaners unterstützt und Quellcode beigesteuert. Das geht aus geheimer interner Kommunikation zwischen Innenministerium und BSI hervor, die wir veröffentlichen. Gleichzeitig hat die „Sicherheits“-Behörde öffentlich jede Zusammenarbeit abgestritten und Informationen der Öffentlichkeit vorenthalten. Abgeordnete fordern jetzt Konsequenzen, vor allem eine Unabhängigkeit der BSI von Regierung und Innenministerium."
Da wird einem doch gleich wieder warm um´s Herz. Wenn man bedenkt, dass das alles mit Steuergeld finanziert wird ...
genau darüber handelte auch mein Spiegel-Link
Den hatte ich völlig übersehen. Sie waren schneller ;)
p> Sie waren schneller ;)
tja, manchmal hat man halt Glück ;-)
ich finde es aber eigentlich ganz gut, wenn solche "Merkwürdigkeiten" nicht nur von einer medialen Stelle kommen. Je breiter die Informationsflut, umso mehr besteht die Chance, dass sich doch etwas bewegt
"Dein Handy weiß alles über dich"
Zitat: "Schneier beschreibt sich selbst als Kurzfrist-Pessimist und Langfrist-Optimist und sagt, der effektivere Weg sei es, dass sich Menschen der Überwachung bewusst werden. "Das Beste, was wir tun können, ist darüber zu reden und uns zu empören." "
BSI programmierte und arbeitete aktiv am Staatstrojaner, streitet aber Zusammenarbeit ab
au - das klingt übel
dabei hatte ich eigentlich bisher noch die Hoffnung gehabt, dass das BSI vertrauenswürdig wäre. Aber es ist wohl wie immer: die Versuchung der neuen Technologien ist einfach zu groß für Machthaber
Die Jungs und Mädels von netzpolitik.org haben übrigens einen prima Humor, ich denke das Bild hier zum Schmunzeln darf man mal weiterverbreiten:
https://netzpolitik.org/wp-upload/vorratsdaten-plakat-1.jpg
Ich möchte übrigens noch anregen, den Untertitel des Blogs zu ändern in "Mensch und Maschine". Ich finde, das wird der Problematik gerechter.
Ich möchte übrigens noch anregen, den Untertitel des Blogs zu ändern in "Mensch und Maschine". Ich finde, das wird der Problematik gerechter.
gute Idee, auch wenn der Glaube an die Singularität im Moment gerade gewaltigen Aufschub erhält, da der wohl wichtigste Kritikpunkt, die stagnierende KI, weggefallen ist.
Sorry für die Verspätung, der Flugzeugabsturz hat mich (ohne direkte Beteiligung glücklicherweise) sehr beschäftigt. Soviel zur Berechenbarkeit unseres Lebens - und nein, das ist nicht zynisch gemeint, das ist nur Grübeln über die faktische Unendlichkeit der Realität, die keine Evolution durch Gehirne und kein US-Konzern durch Big Data jemals in den Griff kriegen kann.
Was nicht heißt, dass man keine Informationsverarbeitung treiben soll, es heißt nur, dass man sich immer auch ihrer Grenzen bewusst sein muss und deshalb auch niemals vergessen darf, dass keine Informationsverarbeitung ohne Ziele existieren kann, ist einfach eine Folge der Machbarkeitsbedingung: Ein endliches System kann keine faktisch unendliche Umwelt abbilden und auswerten ohne Selektion und die Selektionskriterien werden vom Zielspektrum gestellt - Cui Bono oder modern formuliert "Follow the Money".
Deshalb grüble ich im Moment gerade auch darüber nach, wie der amerikanische Geldadel (Olin, Coors, Scaife, Bradley, and Koch) sich die moderne Entwicklung auf dem Netz zunutzen macht, denn auch wenn noch nicht viel bekannt zu sein scheint, dürfte eines klar sein: Diese Schicht ist so gewöhnt, Menschen zu kaufen, sie wird sich sicher nicht das neue Geschirr für ihr Nutzvieh entgehen lassen, das Facebook et.al. und Big Data bieten. Andererseits haben sie es sicher auch nicht nötig, sich an der Erschaffung der "decacorns" zu beteiligen, doch ausnützen werden sie auch das sicher gekonnt - zu unseren Lasten natürlich.
gute Idee, auch wenn der Glaube an die Singularität im Moment gerade gewaltigen Aufschub erhält, da der wohl wichtigste Kritikpunkt, die stagnierende KI, weggefallen ist.
Ja, aber mein Kritikpunkt @ 11.03.2015 | 13:31 bleibt davon unberührt ;)
Michio Kaku kann das viel besser erklären:
Ja, aber mein Kritikpunkt @ 11.03.2015 | 13:31 bleibt davon unberührt ;)
+
Das Problem ist jedoch, dass irgendwann die physikalische Grenzen des Siliziums erreicht sein wird, und zwar bevor die Exponentialfunktion "singulär" wird
ich halte die Singularität auch nur für ein Gedankenexperiment nach dem Motto: "Was wäre wenn - es keine Physik gäbe?"
der Wikipedia-Artikel über die Singularität erinnert mich dabei gewaltig an die Zugewinnfunktion der Intelligenz, nicht zuletzt diese grobe Abschätzung von Anthony Berglas ;-)
die Zugewinnfunktion der Intelligenz ist die Funktion, die die Vergrößerung der Intelligenz (durch Vermehrung der Speicherkapazität für Zustände und deren Anordnung sowie der Verbesserung in Schnelligkeit und Genauigkeit der Bestimmung und des Vergleichs gespeicherter und/oder neu eingehender Zustände) dem Gewinn hinsichtlich Prognosegenauigkeit gegenüberstellt und die hat für eine bestimmte Intelligenzarchitektur einfach einen Zenit, weil Intelligenz die Fähigkeit ist, Information aufzunehmen und zu verarbeiten. Nichts Esoterisches also, sondern etwas, das Materie und Struktur und Energieeinsatz erfordert. Denn Informationsverarbeitung geschieht durch Abbildung und ist möglich, da Information durch ihre Regelmäßigkeit durch Zustände und ihre Abfolge gekennzeichnet ist. Je höher die Intelligenz, umso mehr Zustände, Abfolgen und ihre Relationen können erfasst, gespeichert und abgefragt werden. Da aber eigentlich nicht die Zustände maßgeblich sind, sondern ihre Abfolgen und Relationen, heißt das, dass die Anforderungen an Speicher und Verarbeitungssystem nicht linear mit der Anzahl der zu verarbeitenden Zustände ansteigen und weil das Wissen, das aus externen Quellen gewonnen und abgebildet werden muss, immer auch hypothetischen Charakter hat und deshalb permanent verifiziert werden muss, wächst der Arbeitsaufwand einer gesteigerten Intelligenz wohl eher exponentiell als nur einfach quadratisch mit den Zuständen. Doch irgendwann kommt jede Intelligenzarchitektur an ihre Grenzen und kann nicht mehr weiter optimiert werden, weshalb Intelligenzsteigerung nur durch eine Änderung der Konzeption erreicht werden kann.
Das ist vermutlich Ihre Einwand gegen die Singularität mit den Halbleiterchips, deren Effizienz und Effektivität nicht mehr länger so dramatisch verbessert werden kann außer durch Architekturänderungen, wie Michio Kaku mit den 3D-Chips von Intel anführt.
Die Steigerung am Anfang einer Entwicklung kann schließlich leicht sehr rasant sein, weil die konstruktionellen Möglichkeiten der neuen Architektur eben auch noch am Anfang stehen. Das Interessante am Zenit ist aber, dass es am Ende wieder bergab geht, weil Informationsverarbeitungen, ob lebendig oder künstlich, immer nur dann überdauern können, wenn sie ihre selbsterhaltenden Zyklen mit genügend Energiezufuhr aufrecht erhalten können. Die Physik ist da ganz kapitalistisch: Fortbestand funktioniert nur, wenn der Energieaufwand durch den Ertrag übertroffen wird. Und solange der Aufwand, den Intelligenzvergrößerung bedeutet, durch den Ertragsgewinn aus verbesserten Prognosen übertroffen wird, solange wird eine natürliche oder technische Evolution Intelligenz auch steigern.
Je höher eine Intelligenz jedoch ist, umso mehr Wissen muss sie verwalten und das unbedingt unter der Machbarkeitsforderung - das Wissen muss nutzbar sein in vertretbaren Antwortzeiten. Und Zeit ist etwas, was sich weder kaufen, noch speichern, noch kopieren oder vervielfältigen lässt. Wenn auch alle anderen Ressourcen umsonst wären, so ist doch immer noch die Zeit die kritische Ressource, die eine Singularität in Informationsverarbeitungen in dem Science-Fiction-Stil einer unendlich wachsenden Intelligenz verbietet. Die Grenzgeschwindigkeit in neuralen Netzwerken der MPG ist da ein deutlicher Hinweis: "The limit originates from the fact that even if only a single unit is brought out of complete synchrony this information must be spread to all units in the network before synchronization is achieved again".
Wir können sicher Intelligenz weiter steigern durch neue Architekturen, die weniger Zeit benötigen, doch diese werden mehr und mehr Ressourcen und Energien verbrauchen und das wird irgendwann die Konstruktion und den Betrieb so verteuern, dass jede Entwicklungslinie nicht weitergeführt wird, egal, wie vielversprechend rasant sie anfangs auch wuchs.
Woher kommt denn im Moment die Gier nach BigData? Weil die an sich teure Hardware, die teuren Mathematiker für die Modelle aufwandsmäßig nur ein Klacks ist gegen die Millionen von Menschen sind, deren Portemonnaie damit offen steht. Wie schrieb ein Facebook-Vermarkter mal so schön: "Sie wissen natürlich, dass unter den mehr als 30 Millionen deutschsprachigen Facebook Mitgliedern, auch einige hunderttausend Interessenten für Ihr Angebot sind. ...auch, dass Facebookbesucher besonders kaufaffin sind, aber...- Wie kommen Sie an das Geld dieser 30 Millionen?"
Michio Kaku
der Mann ist mir eigentlich sehr sympathisch, doch seit ich den Fehler machte, seine Gedankenexperimente über einen Parallelwelt-Transfer zu betrachten, habe ich Probleme mit ihm. Wer mehrere Gedankenexperimente mit null Toleranz hintereinander schaltet und am Ende dann "et voilà" ruft, kann damit möglicherweise Vielweltentheorien "beweisen", er kann aber sicher auch grüne Männchen plausibel machen. Und das alles wurde gekrönt mit der Behauptung, dass die amerikanischen Fans so anspruchsvoll sind, dass man sie nur mit höchster wissenschaftlicher Qualität bedienen dürfe. Naja, dafür dürfte er dann auch bessere Quoten im US-TV erzielt haben ;-)
Neues aus der Rubrik Netzpolitik, Datenschutz und Überwachungvon Sigmar Gabriel, der sich in den letzten Tagen zum Netz-Gespött gemacht hat:
Gabriel fordert die Vorratsdatenspeicherung: Diesmal wegen der NSU-Morde
„Hätten wir das [Instrument der Vorratsdatenspeicherung] bereits zum Zeitpunkt der ersten NSU-Morde gehabt, hätten wir weitere vermutlich verhindern können.“
https://netzpolitik.org/2015/gabriel-vorratsdatenspeicherung-nsu/
Mit Update:
Mit Vorratsdatenspeicherung wär’ das nicht passiert (Update)
https://netzpolitik.org/2015/mit-vorratsdatenspeicherung-waer-das-nicht-passiert/
Ich persönlich finde diesen Entwurf am besten:
https://pbs.twimg.com/media/CB_eYIOWEAA2vOr.jpg
Tja was soll man dazu eigentlich noch sagen? Erst die Energiewende an die Wand fahren, der Kohle-Lobby hofieren, und jetzt Innenminister de Maizière den Rang als "Internetminister" ablaufen wollen. Und das mit diesem, gelinde gesagt, Niveau-Limbo.
Als Update dazu gibt es einen neuen Beitrag:
Informationsfreiheits-Ablehnung des Tages: Innenministerium verweigert BSI-Trojaner-Dokumente, bestätigt Echtheit
https://netzpolitik.org/2015/informationsfreiheits-ablehnung-des-tages-innenministerium-verweigert-bsi-trojaner-dokumente-bestaetigt-echtheit/
dabei hatte ich eigentlich bisher noch die Hoffnung gehabt, dass das BSI vertrauenswürdig wäre.
Begraben Sie diese Hoffnung lieber.
ich halte die Singularität auch nur für ein Gedankenexperiment nach dem Motto: "Was wäre wenn - es keine Physik gäbe?"
Man könnte es auch salopp so formulieren: Jede Extrapolation einer Exponentialfunktion (oder auch meinetwegen nur quadratischen Funktion) in der Natur ist Käse. Stichwort: Unendliches Wachstum ^^
Ich finde die Theorie der zyklischen Entwicklung nach Nikolai Kondratjew (Kondratjew-Zyklen) hier deutlich realistischer, denn die irgendeiner Singularität. Demnach sind die immer beschriebenen technischen Entwicklungen (KI, Robotik, Nanotechnologie, Entwicklungen im Bereich Internet etc.) Teil eines möglichen sechsten Kondratjew-Zyklus.
Es ist aber bemerkenswert, wie immer wieder, auch hier beim Freitag, auf den Singularitäts-Hype aufgesprungen wird und komplette philosophische Diskussionen mit 100+ Kommentaren dazu entspringen, als würde Skynet morgen mittag ans Netz gehen.
Woher kommt denn im Moment die Gier nach BigData? Weil die an sich teure Hardware, die teuren Mathematiker für die Modelle aufwandsmäßig nur ein Klacks ist gegen die Millionen von Menschen sind, deren Portemonnaie damit offen steht.
Zum Punkt Big Data, KI und die Mathematik gibt es hier von FAZ/netzpolitik.org ein interessantes Lesestück, bzgl. Geld:
https://netzpolitik.org/2015/big-data-kommt-im-stationaeren-einzelhandel-an/
http://www.faz.net/aktuell/finanzen/meine-finanzen/geld-ausgeben/dynamische-preise-das-ende-des-einheitspreises-13522679.html?printPagedArticle=true#pageIndex_2
"Vorbild ist dabei das Internet. Was man von Auktionsplattformen und Internetkaufhäusern kennt, greift nun auf den stationären Handel über, also auf das Geschäft um die Ecke. Der technische Fortschritt macht es möglich. Händler können ihre Preise nach Tageszeiten staffeln wie die Tankstellen die Benzinpreise, kurzfristig nach Angebot und Nachfrage schwanken lassen wie Amazon - oder wie bei Ebay-Versteigerungen die Preise so an den jeweiligen Kunden anpassen, dass man dessen Zahlungsbereitschaft optimal abschöpft."
Beim FAZ-Artikel finde ich die Kommentare eigentlich am besten ;)
"Abgesehen davon wird durch diese Umstellungen eine weitere Grundproblematik etabliert: Nämlich, dass man Zeit braucht, um Angebote zu vergleichen, die sich ständig ändern. Das betrifft dann nicht mehr nur Ausgaben, die man nicht jeden Tag hat, wie für technische Geräte oder Reisen, sondern auch die für Kaviar und Dosenbier bei Kaiser‘s.
Darüber hinaus wird auch der Aspekt einer eigentlich eher abstrakten „Preisdiskriminierung“ zu einer ziemlich konkreten: Bisher orientiert sich beispielsweise der Preis an der Tankstelle noch am Ölpreis. Bald könnte dort in der Preisgestaltung jedoch berücksichtigt werden, ob man im Käfer oder im Rolls-Royce vorfährt.
Eine Transparenzoffensive zu diesen Umstellungen existiert übrigens leider nicht, wie in diesem Artikel vom manager magazin klar wird. Dunja Riehemann, Marketingverantwortliche bei laut Eigenaussage einem der größten Dienstleistungsanbieter im Vorhersage-Markt, meint dort: „Mit dem Thema muss man in der Öffentlichkeit sehr vorsichtig umgehen. Die Deutschen sind da sehr skeptisch.“"
Skeptisch ist wohl noch gelinde ausgedrückt, und meiner Ansicht nach darf man da auch ruhig skeptisch sein. Für mich riecht das ganze System - nach beinahe 10 Jahren Erfahrung mit dem genannten großen Vorbild ebay - nach Manipulierbarkeit und Zocken. Das, was eben auch bei ebay im großen Maße so läuft. Wenn ich ungefähr raus habe (und man bekommt so etwas nach geraumer Zeit automatisch mit) nach welchen Algorithmen hier Preisbildung vollzogen wird, kann ich das System auch einfach aushebeln. Ob sich der Einzelhandel da mal nicht selber ein Bein stellt.
Sehr interessante Diskussion, zusammengefasst: das Internet und die Mathematik, insbesondere Statistik und Wahrscheinlichkeiten, haben bereits alle Informationen kumulier- und personifizierbar zur Verfügung. Zu den Basisdaten gesellen sich in nicht so ferner Zukunft noch fast alle Geld Transaktionsdaten, wenn die Nutzung des Bargeldes eingeschränkt wird (vgl.DWN). Mit anderen Worten: wir sind jetzt schon milchgläsern, mit allen Transaktionsdaten dann gläsern. In Anbetracht der derzeitigen aktuellen Diskussionen ist selbige in Richtung "rechtliche Aspekte" obsolet.
Es wird Zeit für die Suche nach einem neuen Lebensraum.
(...) zusammengefasst: das Internet und die Mathematik, insbesondere Statistik und Wahrscheinlichkeiten, haben bereits alle Informationen kumulier- und personifizierbar zur Verfügung.
Das ist eine ganz entscheidende Frage, wo die Grenzen der Statistik liegen mögen. Zu einer Antwort haben wir bisher auch nicht gefunden, ich kann mir aber insbesondere bei der Thematik der auf Datenanalyse basierenden dynamischen Preissetzung vorstellen, dass die Grenzen sehr schnell erreicht sind.
Mit anderen Worten: wir sind jetzt schon milchgläsern, mit allen Transaktionsdaten dann gläsern.
Auch das ist so eine interessante Frage - rein aus theoretischer Sicht - weil ein bisher wenig beachteter Aspekt der Datenanalyse der ist, dass hierbei die Annahme zugrundeliegt, die analysierten Daten spiegelten die Realität wieder. Damit meine ich noch nicht einmal die immer existente Möglichkeit der falschen Interpretation, sondern die Möglichkeit der Manipulation. Heute erleben wir diesen Effekt insbesondere im Bereich der Medien und öffentlichen Wahrnehmung, die schon seit vielen Jahren zu einem sehr erheblichen Teil durch Public Relations beeinflusst werden, im Sinne sogenannter wünschenswerter Wirklichkeiten. Es könnte in der Zukunft durchaus Schwierigkeiten bereiten, zwischen Realität und scheinbarer Realität in der Auswertung großer Datenmengen zu unterscheiden.
"Das ist eine ganz entscheidende Frage, wo die Grenzen der Statistik liegen mögen".
Die Grenzen sind vorhanden, ich beschreibe nicht, dass man damit eine "Wahrheit" erreichen kann. Was man erreicht, ist eine Annäherung über Profile und robuste Wahrscheinlichkeiten durch den Einsatz sensibler und vielfältiger Selektoren. In den Ergebnissen wird davon ausgegangen, z.B. mit einer Wahrscheinlichkeit von 0.8 einen Treffer gelandet zu haben.
"...die analysierten Daten spiegelten die Realität wieder."
Ja, hier muss man unterscheiden, welche Daten wie realitätsnah sind: Wenn ich Facebook als Datenbasis nutze, dann kann ich hier unterscheiden, ob der gefundene Datensatz ein Fake ist oder nicht (ebenfalls über Wahrscheinlichkeiten).
Bei Transaktionsdaten in Banken habe ich sehr sichere Daten, mehrstufig nachvollziehbar.
Zum Thema Manipulation bestätigen Sie nur, dass man diese Information mit in die Algorythmen einbeziehen muss. Jegliche automatisierte Auswertung basiert auf einem Höchstmaß an Intelligenz und Intellekt in der Anlage und Gewichtung der Suchkriterien.
Interessante Unternehmen, die solche Dinge umsetzen und ständig verbessern sind z.B. Infospeed (Webmonitoring) oder nugg.ad (Behavioral Targeting). Und aktuell: BND, CIA, NSA...