Dass die Digitalisierung unserer Welt und unseres Alltags von einer neuen sozialen Ungleichheit begleitet wird, ist seit mindestens 20 Jahren bekannt. Unter dem Label digital divide, digitale Kluft erforscht die Sozialwissenschaft verschiedene Dimensionen digitaler Ungleichheit wie dem Zugang zum Internet oder die unterschiedlichen Computerkenntnisse. Aber während bei all diesen Themen Menschen, im Fachjargon menschliche Akteure, im Vordergrund stehen, mischen im Feld der Ungleichheit auch zunehmend künstlichen Intelligenzen und optimierte Menschen mit.
Eingebetteter Medieninhalt Nicht nur in extremen Beispielen, wie dem Computerprogramm AlphaGo, dem wohl besten Go-Spieler in der Geschichte technisierten Menschheit oder dem Künstler Neil Harbisson, der Farben hören kann, tritt diese neue Ungleichheit zu Tage. Nahezu unbemerkt ist sie über die Wikipedia bereits ein Teil unseres Alltags geworden.
Sowohl die Grösse der Wikipedia als auch die zumeist recht hohe Qualität der Artikel wäre ohne Computerprogramme, Bots, und halbautomatische Editierungssysteme, Gadgets, in dieser Form nicht möglich. Ein extremes Beispiel hierfür sind die Wikipedias der global eher unbedeutenden Sprachen Cebuano und in Schwedisch. Hauptsächlich durch automatisch generierte Artikel des bots Ljsbot sind diese beiden Sprachversionen, nach der englischsprachigen, die zweit und die dritt grösste Wikipedia vor der deutschsprachigen. Bots und halb-automatische Systeme spielen auch in den beiden anderen grossen Wikipedias* eine wichtige Rolle und sind eng verbunden mit dem Erfolg eines Benutzers innerhalb dieser.
Entgegen unseres alltäglichen Überzeugung, dass in der Wikipedia jeder alles schreiben könne, existiert innerhalb der Wikipedia eine formale soziale und technische Hierarchie, die jede Änderung in der Wikipedia streng überwacht. Der Aufstieg innerhalb dieser Hierarchie erfolgt über die Anzahl der Bearbeitungen und als Belohnung warten neben erweiterten Zugangsberechtigungen auch Orden. Bots sind nicht nur ein Teil dieser Hierarche, sondern tragen selbst zum Aufbau dieser Hierarchie bei. So werden die niedrigen Benutzerrollen autoconfirmed and extended confirmed User automatisch allen registrierten Benutzern von Programmen nach 10, bzw. 500 Bearbeitungen innerhalb 30 Tagen zugewiesen. Verbunden mit diesem sozialen Aufstieg ist eine Zunahme an Vertrauen. So dürfen diese Benutzergruppen halbgeschützte bzw. auch erweitert geschützte Seiten bearbeiten, die zum Schutz vor Vandalismus gesperrt worden sind.
Die Bekämpfung von Vandalismus ist neben der Erstellung von Artikeln eine der Hauptaufgabe der Wikipedia. Dabei wird unter Vandalismus eine böswillige Bearbeitung verstanden, die absichtlich einen Artikel zerstören soll und umfasst dabei Ergänzungen, Löschungen oder Änderungen, die entweder humoristisch, unsinnig, eine Falschmeldung oder verletzend sind. Vandalismus ist dabei ein Nebenprodukt des Anspruches, dass jeder die Wikipedia bearbeiten kann und Vandalismusbekämpfung Wikipedia´s Gegenreaktion, die es gestattet die Wikipedia zu reinigen ohne diesen Anspruch aufzugeben. So kann zwar jeder fast alles bearbeiten, aber Niemand garantiert, dass eine Änderung auch lange in der aktuellen Version verbleibt.
Die oben erwähnten Formen von geschützten Seiten spielen deswegen auch eine eher unbedeutende Rolle. In etwa 2000 von 5,7 Millionen Artikel oder 0,035 Prozent fallen in der englischen Wikipedia unter diese Kategorien. Erreicht wird dies durch die ständige Kontrolle durch Benutzer, unterstützt von halbautomatischen Systemen und Bots. In dem WikiProjekt Vandlismusbekämpfung werden diese koordiniert.
Mit annährend drei Millionen Bearbeitungen ist dabei ClueBot NG (Next Generation), der wichtigste Bot in diesem System. In einem fünfstufigen Verfahren, bestehend aus maschinellen Lernen, einem naiven Bayes Klassifikator, einem künstlichen neuronalen Netzwerk, einer Schwellenwertkalkulation und einem Post-Verarbeitungsfilter verarbeitet der Bot aktuelle Bearbeitungen und klassifiziert und revidiert diese gegebenenfalls als Vandalismus. Die einzelnen Schritte laufen dabei grob wie folgt ab:
Anhand einer Liste von Bearbeitungen, die von menschlichen Vandalismusjägern entweder als konstruktiv oder als Vandalismus klassifiziert worden sind, lernt der Bot maschinell seine Definition von Vandalismus.
Der naive Bays Klassifikator beurteilt eine Liste von Wörtern anhand ihrer Häufigkeit in konstruktiven und destruktiven Bearbeitungen. Neben anderen Statistiken fließt dieses Ergebnis in dem Kern von ClueBot NG, dem künstlichen neuronalen Netzwerk, ein. In diesen Daten sucht es nach Mustern von Vandalismus. Als Ergebnis gibt das Netzwerk eine Vandalismuswahrscheinlichkeit aus. Ab einem bestimmten kalkulierten Schwellenwert wird dann eine Bearbeitung zunächst als Vandalismus gekennzeichnet.
Der Post-Verarbeitungsfilter gleicht dieses Ergebnis mit einer Liste vertrauenswürdiger Benutzer (Whitelist) und dem Verhältnis zwischen angenommenen und verwarnten Bearbeitungen eines Nutzers ab. Des Weiteren bestimmt dieser Filter, dass nur eine Benutzer-Seiten-Kombination pro Tag revidiert wird.
Wie alle Bots ist dabei ClueBot Ng über seine Autoren und das Bots/Antrag auf Zulassung-Verfahren in die Hierarchie der Wikipedia eingebunden. Nach einem komplizierten Verfahren, zu dem auch eine für alle offene Diskussion gehört, werden Bots durch ein Mitglied der Bot-Zulassungsgruppe entweder zugelassen oder abgelehnt. Die Mitglieder dieser Gruppe sind in aller Regel ranghohe Administratoren oder von ihrem Status und Rechten mit ihnen vergleichbar.
ClueBot NG ist aber besonders stark mit der Hierarchie der Wikipedia verflochten. So werden in den Verarbeitungsschritten maschinelles Lernen und künstliches neuronales Netzwerk die Ansichten der menschlichen Vandalismusjägern reproduziert. Somit werden auch ihre Vorurteile nicht nur reproduziert, sondern in ihrer Wirkung noch verstärkt. Dies ist einer der Gründe warum deutlich weniger Frauen, je nach Wikipedia zwischen 3 und 17 Prozent, und deutlich weniger people of color zur Wikipedia beitragen als weisse Männer.
Eingebetteter Medieninhalt Die halb-automatischen Anti-Vandalismus-Tools Rollback, Twinkle und Huggle sind noch stärker mit der Hierarchie Wikipedia´s verbunden. Während ClueBot NG selbständig Vandalismus revidiert, geben diese Tools Benutzern eine Liste von verdächtigen Bearbeitungen, die dann, häufig einfach per Mausklick, von den Benutzern geprüft und gegebenenfalls revidiert werden. Dabei ist die Nutzung dieser Tools direkt an den sozialen Status gebunden. So bedarf die Nutzung von Twinkle den autoconfirmed Status und die Kontrolle über Rollback und Huggle und ihre Nutzung ist Administratoren vorbehalten.
Die digitale Ungleichheit, die solche Tools dabei produzieren, ist enorm. Denn nur mit Hilfe solcher Werkzeuge kommen die sehr hohen Bearbeitungszahlen mancher Benutzer zustande. So steuert der Benutzer Ser Amantio di Nicolao, der Wikipedianer mit den derzeit meisten Bearbeitungen, mit ihrer Hilfe auf 2,7 Millionen Bearbeitungen zu.
Digitale und soziale Ungleichheit bedingen sich in der Wikipedia in einem selbstverstärkenden Zirkel gegenseitig. Mehr Bearbeitungen, höherer sozialer Status, Zugang zu halb-automatischen Werkzeugen, mehr Bearbeitungen, höherer sozialer Status und so weiter ist die Logik, nach der die Wikipedia funktioniert. Diese Ungleichheit bestimmt dabei was in der Wikipedia steht und damit in vielen praktischen Belangen als Wissen gilt. So sind einige Themen, wie die afroamerikanische Geschichte oder bedeutende Frauen in der Wikipedia unterrepräsentiert. Aber vielmehr als klassische Ungleichheiten zu reproduzieren ist Wikipedia ein Vorbote einer neuen Ungleichheit zwischen Menschen, digital verbesserten Menschen und künstlichen Intelligenzen, die zunehmend auch den Arbeitsmarkt ergreift. Denn egal welches Geschlecht, ohne digitales Upgrade kann man sich bereits jetzt in der Wikipedia nur schwer durchsetzen.
Philipp Adamik, September 2018
*Die Links verweisen auf die englische Wikipedia. In der Regel gelangt man über einen Link in der linken Spalte zum deutschsprachigen Äquivalent.
Der Beitrag erschien zunächst hier auf wikipedia@thedigitalisedworld erschienen. Dort gibt es auch eine kurze Einführung in die Funktionsweise der Wikipedia.
Kommentare 35
Das heißt, diese Leute dürfen zwar gerne die Arbeit leisten, aber sie sollten besser nicht selbst bestimmen, welchen Maximen sie dabei folgen wollen? Zumindest solange nicht jeder dritte Artikel von der Mühsal feministischer Kämpfe kündet und jeder zweite Artikel die Begriffe "people of color" und "queer" enthält?
Schoene Einfuehrung in das "Funktionieren" von Wikipedia. Das bei dieser Organisation vorallem die Leute mit Zugriff auf Grossrechner den Ton angeben, ist nur natuerlich. Und in dieser Berufsgruppe sind Frauen unterrepraesentiert. Dieser Bias bei Wikipedia ist nicht sonderlich ueberraschend, Zudem gab es immer Themen, die auch in den besten Lexika fehlten. Wikipedia bestaetigt das nur.
Das neuronale Netz scheint noch nicht so doll zu sein, sonst wuerden die Vandalismus-Muster noch sicherer erkennen.
Dass Eintraege regelmaessig geprueft und evtl. ergaenzt werden, ist m.E. die Staerke dieser Datenbank.
Danke fuer den guten Ueberblick.
Ist das vom Prinzip her alles so neu? Hat die "Befähigung" der Einzelnen aufgrund von Start, Geburtsland und Ort oder auch der faktualen Realität (Begabung, Willen, Leistung, Gelegenheit, Zufall usw.) nicht schon immer wenigen Vorteile verschafft, die dann abgesichert und genutzt wurden?
Die Technik ändert sich, aber die zugrundeliegenden menschlichen Faktoren bleiben für mich die gleichen. Wobei auch die Systeme, derer sich wiederum jeder Einzelne nicht entziehen kann, das Ergebnis des vorgenannten ist.
"Hat die "Befähigung" der Einzelnen aufgrund von Start, Geburtsland und Ort oder auch der faktualen Realität (Begabung, Willen, Leistung, Gelegenheit, Zufall usw.) nicht schon immer wenigen Vorteile verschafft, die dann abgesichert und genutzt wurden?"
Dem kann man sich nur anschließen, der Titel wäre vlt. besser mit "Ungleichheiten auch im Digitalen" oder so gewählt, - denn Rechenkapazität ist hier kaum Selektionsfaktor -zumindest: - GEWESEN.
Vlt. kann der Autor dazu noch mehr facts bringen. Bis dahin gehe ich davon aus, dass aufwändig-wesentliche, eng mit W. verzahnte Tools zumindest großteils (Änderungsmelder, sich selbst trainierende Kerne, ...) auf/mit wiki-eigenen Ressourcen laufen, - oder eben nicht so wahnsinnig aufwändig zu betreiben sind.
Nur die "Vorteile" aus Ungleichheit sehe ich hier nicht so heftig wie im non-digitalen Leben, - wo U. ja auch nicht immer von Vor-/Nachteilen begleitet ist, bloß wird dann darüber weniger gesprochen, stößt U. vor allem bei der ungleichen Verteilung von m. o. w. endmäßigen, z. B. finanziell-materiellen, Vor-/Nachteilen an/auf:
Ungleiche/r Begabung, Wille, Leistung, Gelegenheit oder der Zufall usw. können z. B. auch in die Freiw. Feuerwehr führen, ohne daß damit exorbitante Vor- o. Nachteile per saldo verbunden wären und sich daran entsprechende Konflikte u. Diskurse knüpften.
Zwar gibt es große Ungleichgewichte im W., - so hat Schweden schon lange vor Wikipedia eine Neigung zum Betrieb enzyklopädischer Strukturen ausgebildet, siehe z. B. die Ansiedlung der globalen Taxonomie in Uppsala, und von daher nicht ganz überrasschend das größte Wiki, so ist afrik. Geschichte schwach bis einseitig vertreten usw., aber diese U'en reflektieren doch zumeist aus dem Enyklopädie-Charakter selbst: So ist z. B. 'Geschichte' u. vor allem G.-Wissenschaft zunächst streng auf die SCHRIFTLICHKEIT (Quellen usw.) selbst-beschränkt gewesen, womit in Afrika u. a. Gegenden eben nicht so viel zu holen ist, und wo auch heute kein so großes Interesse an G. besteht, - eher an Geschichten, also mündl. Narrativen, die stets ein Gegenwartsphänomen sind (zu deren Abgrenzung auch die hiesige "Geschichtsschreibung", trotz sprachlich fixierter Vergangenheiten, Quellen usw., so ihre Mühe hat ...).
Cebuan z. B. hatte eine Schrift schon vor den span. Kolonisten, die sich dann auch darum kümmerten, umfasste seit je einen bunten Haufen agiler Händler- u. Produktiv-Kulturen, die in-sich und über die weitere Welt viel wissen mussten usw., aber über keine solche Buch-Enzyklopädie, Akademik usw. verfügten wie z. B. die Spanier, so daß das Wiki da schneller wichtiger - u. damit größer - werden konnte, als z. B. in Spanien.
Die geringere Frauenquote scheint sich hingegen nicht in Inhalten, Umfängen usw. niedergeschlagen zu haben, sie verhält sich zum enzyklopädischen Charckter wohl inert(?).
"(...) ohne daß damit exorbitante Vor- o. Nachteile per saldo verbunden wären und sich daran entsprechende Konflikte u. Diskurse knüpften."
Bei "Freiwilliger Feuerwehr" liegt die Betonung aber auf freiwillig, insoweit kann man es auch ohne Folgen lassen (es sei denn, einem brennt die Hütte ab und aufgrund von Personalmangel ...).
Die gesellschaftlichen Strukturen sollten es halt einhegen, was die Auswüchse der technischen und natürlichen Faktoren betrifft, aber das ist ja der Dauerbrenner in der FC und auch berechtigt.
Wiki-Checker zu sein/zu werden, ist auch freiwillig, hat keine großen pers. Vor-/Nachteile. Hier wie dort (Freiw. F'wehr) grenzen konstante Verfügbarkeit/Zeitüberschüsse und damit eine leidliche soz. Sicherheit den Kreis der Leute ein.
Als Gelegenheits-Verbesserer war's zumindest vor 20 u. vor 10 Jahren oberscheußlich. Selbst die Korrekturen grober, aber nur sprachlicher Schnitzer wurden innerhalb von Sekunden botmäßig abgeräumt, - um vom Inhaltlichen noch gar nicht zu reden. Immerhin fließen inhaltliche Korrekturen/Ergän-zungen im Laufe der Zeit von 5-10 Jahren dann doch einigermaßen ein, so z. B. bei der Gutenberg-Seite zur Drucktechnik u. deren hist. Rolle, wenn auch noch unbefriediegend.
Die Technik ändert sich, aber die zugrundeliegenden menschlichen Faktoren bleiben für mich die gleichen. Wobei auch die Systeme, derer sich wiederum jeder Einzelne nicht entziehen kann, das Ergebnis des vorgenannten ist.
Stimmt natuerlich. Hier geht's aber nicht um jeden Einzelnen, sondern um Einzelne, die das Wiki System kritisieren und veraendern koennten. Viele Wissenschaftler, die das koennten, haben aber keine Ahnung im Umgang mit etwas komplizierteren Programmen. Sind eben bei ihren Zettelkaesten geblieben. Und wenn dann die Nerds uebernehmen ist das kein "Wunder".
Das automatisierte „Denken“ wird jede wissenschaftliche Revolution verhindern. Wenn eine vermeintliche Wissensgemeinschaft einer Ideologie aufsitzt, werden die Affirmierungsmaschinen diesen Bestand immer lückenloser stabilisieren. So sind die Maschinen die mächtigen Kraftverstärker in der Perfektionierung von Wahrheit UND Irrtum. Wenn man das weiß, ist es nicht schlimm, dann wird man die menschliche Kontrollinstanz ausbauen. Wenn nicht, entsteht hier eine große Gefahr.
||| So werden in den Verarbeitungsschritten maschinelles Lernen und künstliches neuronales Netzwerk die Ansichten der menschlichen Vandalismusjägern reproduziert. Somit werden auch ihre Vorurteile nicht nur reproduziert, sondern in ihrer Wirkung noch verstärkt. Dies ist einer der Gründe warum deutlich weniger Frauen, je nach Wikipedia zwischen 3 und 17 Prozent, und deutlich weniger people of color zur Wikipedia beitragen als weisse Männer. |||
Sind die ersten beiden Sätze mehr als Mutmaßungen? In der verlinkten Liste der Gründe findet sich jedenfalls kein Hinweis auf maschinelles Lernen und neuronale Netzwerke. Und was die Anteile von Frauen und Leute von Farbe betrifft ließe sich einwenden, dass es immer Gründe für und gegen alles gibt. Nur: Mit einem Sachverhalt unzufrieden zu sein, und sich dann nicht darum kümmern, dass er sich ändert, ändert den Sachverhalt normalerweise tatsächlich nicht.
"Kümmern" könnte natürlich auch heißen, die Wikipedianer gesetzlich zu zwingen, auf die Niederlegung ihrer Vorurteile in Algorithmen zu verzichten. Nur: Die meisten von denen haben ihrer Eigenwahrnehmung nach gar keine Vorurteile. Vermittele mal einem mit Vorurteilen behafteten Menschen im Ernst, dass er Vorurteile hat. Da kommt eine Perspektivenproblematik ins Spiel, die sich gewaschen hat. Wenn es tatsächlich versucht würde, ist es sehr viel wahrscheinlicher, dass Wikipedia einfach dicht gemacht würde, wegen nicht mehr abwehrbarer ideologischer Infiltration. Wikipedia ist keine staatliche Institution, die Öffentlichkeit hat kein Recht auf die Existenz von Wikipedia. Dann möchte ich das Geschrei hören, wenn all unsere Halbwissenden nicht mehr schnell on the fly was nachschlagen könnten, sondern - Gott bewahre - vielleicht wieder Bücher lesen müssten und dann vielleicht sogar gezwungen wären, erst mal Zusammenhänge zu verstehen^^
Danke für das Lob. Einen ausführlichen Überblick in den gender-gap bei der Wikipedia gibt es hier von Judy Wajcman und HEater Ford. Dort wird auch genuer auf die Beziehung zwischen der Geschlechterungleichheit in der IT-Branche und der Wikipedia eingegangen. http://eprints.lse.ac.uk/68675/1/Wajcman_Anyone%20can%20edit_Final_2017.pdf
Die Tools benötigen tatsächlich nicht besonders viel Rechenleistung. Auch ist die Wikipedia, was den Speicherbedarf anbelangt recht bescheiden. Es sind gerade einmal 10 Terra-Byte. Die bedeuten aber für die englischsprachige Wikipedia 2705 Ausgaben eines Bandes der Encyclopædia Britannica. Knapp die Hälfte bei der deutschsprachigen.
Der Punkt, auf den ich aber in dem Artikel hinweise ist, dass die Nutzung dieser Tools an den sozialen Aufstieg innerhalb der Wikipedia gekoppelt ist. Es geht also nicht um den technischen Zugang, sondern um die sozialen Grenzen der Nutzung.
Soziale Ungleichheit, ist, genauso wie die von mir Eingangs aufgeführten digalen Ungleichheiten, natürlich kein neues Konzept. Spätestens mit dem Klassenkampf bei Marx ist ein Teil der Sozialwissenschaften. Neu an der "digitalen Ungleichheit" ist aber, das nicht-menschliche Akteure an ihr direkt Teilnehmen. Bots sind nämlich von einer Ambiguität geprägt. Zwar sind sie zu einem, wie ich in dem Artikel auch anführe, in die sozialen Strukturen eingebunden, aber sobald sie "aproved" sind, handeln sie quasi Autonom.
ich als halb-wissender und dankbarer nutzer/schmarotzer
von wikipedia, das mich vor dem ertrinken in buch-lektüren,
die nicht zu bewältigen sind, bewahrt, mein halb-wissen stützt +
meist un-gelegentlich/spontan/un-erwartet erweitert,
bin so deppert, daß mich die ideologische bestrahlung
durch wiki-lampen eher befriedigt als empört.
ich würde auch gutenbergs erfindung nicht zurück-weisen,
weil immer wieder druck-feler und ungeschicklichkeiten
in formulierungen manche lecktyre fer-verkeln.
geht es hier um "soziale" un-gleich-heit?
oder um un-gleich-heit in kompetenz/überprüfbarem wissen?
macht es sinn,
den unterschied von avanciertem wissen/avantgarde
und nach-klapp-wissen der masse,
gar magischem un-wissen der vernebelten einzu-ebnen?
wer möchte die un-gleichheit eines virtuosen auf einem musik-instrument
abschaffen, wenn damit gleich-stand mit dilettanten er-reicht würde?
Danke der Rückmeldung, aber wessen Resourcen werden für die Tools benutzt?
Und dass Mitwirkung, nicht die Wiki-Nutzung, an konstante Mitwirkung pro Zeiteinheit gekoppelt ist, ist normal, siehe Freiw. Feuerwehr, wenn auch nicht schön.
Schirmherr ist die Wikimania Foundation. An die gehen auch die Spenden, die auf Wikipedia jährlich gesammelt werden. Diese ist mit Budget von ca. 80 mio. $ und 280 Angestellten recht klein, wenn man bedenkt, dass sie die fünft grösste Webseite der Welt betreiben. Die betreiben auch die Server und die restliche technische Infrastruktur.
Interessanter ist aber die rechtliche Situation. Da so ziemlich alles, was mit der Wikipedia zu tun hat unter einer Creative Commons Lizenz steht, kann alles ja in einem anderen Kontext gratis reproduziert werden. Am offensichtlichsten ist das bei den Info-Fenstern, die Google automatisch bei Suchanfragen einblendet.
Soziale Ungelichheit ist in der Soziologie ein recht umfassendes Konzept. Wie gesagt, die Tradition recht mindestens zurück bis Marx. In der Regel werden aber Macht, Einkommen und Bildung als die zentralen, harten Kategorien von Ungleichheit aufgefasst. Neuere Konzepte, sogenannte Milieu-Studien nehmen dann auch noch Mentalität auf. Das hier ist so etwas eine Einführung in das Thema von mir.
Der Beitrag von Philipp Adamik ist zwar interessant, er hat sich aber offensichtlich hauptsächlich mit der englischsprachigen Wikipedia beschäftigt. Man darf in diesem Zusammenhang nicht vergessen, dass jede Sprachversion der Wikipedia eine eigene Community hat - mit eigenen Regeln und Praktiken. So lassen sich Erkenntnisse, die in der englischen Wikipedia gewonnen wurden, nicht ohne weiteres auf die Wikipedia in deutscher (oder französischer, italienischer...) Sprache übertragen. Der hier hervorgehobene ClueBot NG beispielsweise spielt in der deutschsprachigen Wikipedia gar keine Rolle. Die wenigen Bearbeitungen dieses Bots, die sich dort finden lassen, gehen auf mit ihrer Versionsgeschichte aus der englischen WP importierte und übersetzte Artikel zurück.
Die Community der deutschsprachigen Wikipedia hat traditionell geradezu eine Aversion gegen den Einsatz von Bots und betont sehr den Wert des "Handgeschriebenen", von Menschen Bearbeiteten. Ein Beispiel: Dass jüngst einem Bot erlaubt wurde, defekte Weblinks automatisch durch Links auf das Internet Archive zu ersetzen, wurde erst nach monatelanger Diskussion und mit vielen Einschränkungen dieses Bot-Einsatzes möglich. So müssen diese Ersetzungen explizit als "automatisch erfolgt und ungeprüft" markiert werden, mit einer Aufforderung an die Benutzer, den Link manuell zu prüfen. Automatisches Erstellen von Wikipedia-Artikeln im Stile der schwedischen Wikipedia ist bei einer so ausgerichteten Community undenkbar. - Man kann wohl sagen: Dass die verschiedenen Wikipedias gleich aussehen und sich gleich benutzen lassen, mag darüber hinwegtäuschen, dass es sich um Projekte handelt, die sich im Laufe der Jahre stark auseinanderetwickelt haben. Mich stört es daher immer, wenn ich irgendwo eine Untersuchung oder einen Zeitschriftenartikel sehe, worin davon die Rede ist, dass sich in "der Wikipedia" dies und jenes so oder so verhalte - und wenn man es dann genauer betrachtet, ist "die Wikipedia" die englische Wikipedia und es wird etwas beschrieben, das vielleicht einzig dieser Sprachversion eigen ist.
THX!
Ach ja, die "Halbwissenden".
Wen zählen Sie denn zu den Mehr- bis Ganzwissenden?
Was haben Sie denn von aristotelischer Syllogik gelesen, dass Sie Augustinus' "tertium non datur" (gut 700 Jahre später) dem guten Aristo(-Krat?) zuordnen? (KI-/Entropie-Blog)
Da hätte ein kurzer Blick ins Wiki ja schon gut getan.
Das Problem ist sicher nicht, dass zuwenig Bücher gelesen würden, - es hapert aber mit dem Verstehen, - auch weil Überblickswissen, zu dem Wiki schomma ganz gut ist, gering geschätzt wird: es steht nämlich im Widerspruch zum meist unbewußten Ziel der Sektifizierung/Identifikation/Beheimatung/stupenden Bornierung.
"Automatisches Erstellen von Wikipedia-Artikeln im Stile der schwedischen Wikipedia ist bei einer so ausgerichteten Community undenkbar."
Die schwed. Wikipedia besteht zu wesentlichen Teilen (->Umfang) aus automatisch erstellten Artikeln? Dann wird sie vermutlich nicht sehr gut sein ...?
Broken-links automatisch durch archive-links zu ersetzen mag eine Hilfe sein, doch bei der Qualität/inhaltlichen Trefflichkeit sind archives zumeist (ca. 90%) ziemlich näbbe de Kapp, reflektieren i. a. R. nicht mehr den ursprünglich angepeilten Inhalt (infolge von Nachversionen vor dem engültigen Abbruch/Verschwinden, die das archive überschrieben haben). ... Da muß schon geprüft werden, ob eine zutreffende Vorversion im int.-archive da ist, die noch als "Beleg", Weiterführung u. ä. taugt, weshalb eine entspr. Markierung und Aufforderung zur Prüfung sehr sinnvoll erscheint.
||| Da hätte ein kurzer Blick ins Wiki ja schon gut getan. |||
Darf ich zitieren?
"The earliest known formulation is in Aristotle's discussion of the principle of non-contradiction, first proposed in On Interpretation,[1] where he says that of two contradictory propositions (i.e. where one proposition is the negation of the other) one must be true, and the other false.[2] He also states it as a principle in the Metaphysics book 3, saying that it is necessary in every case to affirm or deny,[3] and that it is impossible that there should be anything between the two parts of a contradiction.[4]" (Law of the excluded middle)
||| Das Problem ist sicher nicht, dass zuwenig Bücher gelesen würden, - es hapert aber mit dem Verstehen, - auch weil Überblickswissen, zu dem Wiki schomma ganz gut ist, gering geschätzt wird |||
Ja, es hapert allzuoft mit dem Verstehen. Deswegen Halbwissen, wobei ich Ihnen zugestehe, dass der Ausdruck falsch gewählt wurde. Da ich an der von Ihnen aufgegriffenen Stelle aber auch erläutert habe, dass es um das Erfassen von Zusammenhängen geht, die vielfach eben nicht mehr erfasst werden, hoffte ich allerdings, dass mir eine etwas saloppere Sprache verziehen würde. Das entspricht meiner Neigung zur Unordentlichkeit eher als das Penible^^
ach ja!
wie schön ist doch beheimatung/vertrautheit im lokalen,
in einem kategorialen rahmen!
der halt und fundament bietet.
auch wenn un- tiefen
und phänomene am un-überschaubaren rand übrig bleiben.
theorien zum wohl-fühlen, die weitgehend ohne
verschwörungs-annahmen auskommen,
knappheiten aus mangel-situationen erklären
und herrschaft als konsequenz von chancen-/options-fülle
gegenüber der kargen ausstattung der macht-losen plausibel machen...
jenseits religiöser welt-formeln...
ein rührend-schönes narrativ,
das alles irgendwie sinn-voll erscheinen läßt,
verzweiflung + leben-vergießen als not-wendige stufen
auf-hebt.
ich wünsche allen einen schönen gedenk-tag,
welcher der mental-ideellen auf-richtung dienlich ist.
auch ein kräftiger strudel erzeugt plötzlich zusammen-hänge,
die vorher nicht da waren...
erst das geschickte erfassen von zusammen-hängen
macht den marionetten-animateur zum meister.
oda?
thx und in erwartung gelegentlicher beteiligung/eingriffe hier...
im engeren sinne sinds also schwellen/zugangs-beschränkungen,
die durch zu erwerbende skills überwunden werden können.
der teilhabe/partizipation am netz stehen
an-alfabetismus-ähnliche hemmnisse entgegen.
wobei an-alfabetismus
auch als historisches/soziales faktum betrachtet werden kann.
oder?
ja.
der erwerb neuer fähigkeiten ist menschl. faktum seit ur-zeiten.
bringt den voran-gehenden individuen prämien.
macht unterschiede im sozialen gefüge,
petrifiziert sich, je mehr sich herrschafts-interessen dran knüpfen
und je monopolisierbarer sie sind.
<Die Community der deutschsprachigen Wikipedia hat traditionell geradezu eine Aversion gegen den Einsatz von Bots und betont sehr den Wert des "Handgeschriebenen", von Menschen Bearbeiteten.>
Das läßt hoffen, daß es bei uns nicht so schlimm kommt.
Da möchte ich auf ein Kriterium hinweisen, das strikt nahelegt, wann man von KI oder Maschinenbewußtsein wird sprechen können: wenn die Maschine nicht mehr nur positiv operiert, sondern zu einer nicht bloß formalen Negation fähig ist, also zur negierenden Reflexion; wenn sie sich wundern und (sich selbst) widersprechen kann. Das ist schwer vorstellbar. Solange das nicht so ist, macht der Mensch das „Operieren“ zum „Denken“, den Algorithmus zum intelligenten Algorithmus.
Ob der Strudel tatsächlich neue Zusammenhänge erzeugt oder einfach nur bestehende Zusammenhänge sichtbar macht, ist im Einzelfall nicht immer ganz leicht zu entscheiden und vielleicht auch von Fall zu Fall verschieden. Aber ja: Ohne Erfassen der möglichst vollständigen Zusammenhänge bedeutet ein Einzelfaktum kaum irgendetwas, das über sich selbst hinaus von Bedeutung ist. Umgekehrt ist es natürlich auch richtig: Werden Zusammenhänge anhand falscher Einzelfakten entwickelt, o weh^^
nicht, dass irgendetwas davon unsere Narrativ-Seller kümmern würde^^
"Das läßt hoffen, daß es bei uns nicht so schlimm kommt."
Wahrscheinlich wird es uns ein paar Jahre schenken oder kosten, je nach Perspektive, also das Ganze einfach nur ien bisschen verschieben.
Herzlichen Dank für Ihr ausführliches Feedback. Die kulturellen Unterschiede zwischen der deutschsprachigen und der englischsprachigen Wikipedia kommen hier tatsächlich zu kurz. Mehr dazu liefert u. a. diese Arbeit von Ulricke Pfeil, die die kulturellen Unterschiede in der Kollaboration zwischen Autoren anhand des deutschen, französischen, niederländischen und japanischen Wikipedia-Artikels "Game" untersucht.
Aber auch wenn ClueBot NG in der deutschen Wikipedia kaum eine Rolle spielt, verrichten auch dort zahlreiche Bots ihre Arbeit. In der Regel scheinen ihre Aufgaben nicht so weit in die policy der Wikipedia einzudringen, wie in der englischen. Meist erledigen sie eher unkritische Standardaufgaben, wie das Löschen doppelter Weiterleitungen oder die Anpassung von Artikeln an eine Formatvorlage.
Die weiteren Aspekte lassen sich aber soweit direkt übertragen. Auch in der deutschen Wikipedia gibt es das Projekt Vandalismusbekämpfung und auch dort wird mit Huggle ein halb-automatisches Werkzeug eingesetzt. Ebenso wie in der englischsprachigen Wikipedia ist die Nutzung an eine bestimmte Nutzerolle, die des aktiven Sichters, gebunden.
Kurzum, trotz einiger Unterschiede, gibt es durchaus zahlreiche Gemeinsamkeiten zwischen den beiden Wikis. Das gilt zum Beispiel auch für die Geschlechterungleichheit.
Sie spielen auf jeden Fall eine wichtige Rolle. Abschottungstendenzen innerhalb der Community tragen aber auch dazu bei.
Sie dürfen, müssen, sollen, können zitieren!
Das ist die erste große Pleite, die ich mit einem Verweis auf Wiki erlebe, den ich nicht zeitnah nochmals überprüft habe.
Vor bis ca. 10 Jahren war nicht nur im Wiki auf "tertium non datur" vor allem Augustinus erschienen. Das deckte sich mit dem Philo-Unterricht aus den 70gern, der bei mir ziemlich gut war, promovierter Lehrer (Altphilologe) in den 30gern, der gerade zusammen mit einem universitären Philosophiehistoriker seine eigene Lehrbuchreihe zur Philosophie rausgab. Solche Doktores gönnte sich die katholisch-humanistisch ausgerichtete Schule, angeblich 800 n. C. als Domschule zu Münster gegründet, mit altsprachlich-musischem Schwerpunkt und elitärem Anspruch schon mal.
Heute bringt niemand mehr das 'tnd' mit Augustinus in Verbindung, ist die Rolle Augustinus' in Fragen der Aussagenlogik auf ein stoisches Lehr-Umfeld unter seinem Namen bis ca. 10. Jh. zusammengeschnurrt, - bis eben Aristoteles' Organon usw. wieder bekannt/verfügbar wurde. Denn eine Aussagenlogik i. e. u. vor allem heutigen Sinn ist kaum in den Augustinischen Schriften überhaupt zu finden, geschweige denn ein tnd in solchem Kontext. Dementsprechend muß auch in der "Null-Nummer" des Lehrbuches, das damals nur aus Original-Exzerpten phil. Texte bestand, - wozu der Dr. Armin Müller halt noch extemporierte, was die Sache lebendiger machte als unter den späteren Versionen, die die zugehörigen Kommentare dann schon enthielten -, ein entspr. Textauszug klar gefehlt haben. Vermutlich waren seine Ausführungen zur "Wahrheit" drin, und Müller hat die "Aussagenlogik" nach katholisch-humanistisch-deutscher "Überlieferung" dazu extemporiert. Was auf die Frage nach der Möglichkeit, "alles" eines Fachgebietes leidlich verständig auch nur gelesen zu haben, zeigt: das ist m. E. so kaum möglich, zumindest dann, wenn noch andere Tätigkeiten als Lesen, wie Lehre, Schreiben o. a. Broterwerb hinzutreten. Und im "Nur-Lesen"-Modus können eben Zweite u. Dritte nichts/kaum etwas von diesem Wissen zur Kenntnis bekommen ...
kein Ding, Fehler können immer mal passieren^^
Wobei Ihre Reminiszenz an Augustinus im Kontext durchaus etwas Apartes hat. Es gibt da einen klitzekleinen Unterschied, je nachdem, ob Sie "philosophische" Philosophiebücher befragen oder "theologische" Philosophiebücher. Die eine Sorte wird von Philosophen geschrieben, die nichts mit Theologie am Hut haben und sich gegen jede Vermengung ihres Faches mit theologischem Gedankengut verwahren, die andere Sorte von Philosophen, die in erster Linie Theologen sind oder/und in Diensten der Katholischen Kirche stehen. Letztere kommen gelegentlich zu erstaunlichen philosophischen Aussagen, und dazu gehört auch der immer wieder mal anzutreffende Versuch, Augustinus auch solche philosophische Meriten zuzuschreiben, die er sich definitiv nicht erworben hat. Vermutlich gehörte Herr Müller einfach nur zu den theologischen Philosophen.