Hass kann man jetzt messen. Schreibt ein Mensch in einer Online-Diskussion wie hier auf der Facebook-Seite der AfD: „Die Menschen zweiter Klasse mit eigenen Lobbys, Interessenverbänden und Politikerunterstützung sind Transatlantiker, Antifanten, Homosexuelle, Schmierfinken der Mainstreampresse und linksgrünversiffte Gutmenschen“, handelt es sich dabei mit einer Wahrscheinlichkeit von 67,13 Prozent um ein Hass-Posting. Sogar bei 80,83 Prozent liegt die Wahrscheinlichkeit bei dem in holprigem Deutsch verfassten Beitrag: „Die Grünen gehören abgeschafft. Nachdem sie ein leben lang Deitschland geschadet haben können sie sich satt zurück lehnen und fein von der Alterssicherung leben für sie diese Schmarotzer keinen Cent je eingezahlt haben.“
Solche Prozentrechnungen muten seltsam an? Kann sein, aber es ist ein Anfang: „Hate Mining“ heißt das Projekt, das Wirtschaftsinformatiker der Universität Münster jetzt in die Welt gesetzt haben. Dahinter steckt der Versuch, mit Algorithmen die Emotionen von Menschen zu messen; oder genauer: ihren Hass – um ihn dann auszusortieren. Weil es so viel davon gibt, weil er überall ist. „Wir haben eine unbefriedigende Ist-Situation. Nämlich, dass Debatten im Netz einfach nicht mehr möglich sind“, sagt Sebastian Köffer vom Hate-Mining-Team.
So viele Pluralformen
Noch ist das Programm in der Entwicklungsphase – zu Testzwecken kann aber bereits heute jeder, der will, auf der Internetseite des Projektes einen beliebigen Text in eine Maske eingeben und sich Hass in Prozenten errechnen lassen. Zum Einsatz kommen soll Hate Mining einmal im halbautomatisierten Verfahren in Online-Redaktionen, um dort überlastete Social-Media-Redakteure zu unterstützen. Die Maschine sortiert nach Prozenten, der Mensch entscheidet – so ist es gedacht. Bei Yahoo wird derzeit ein ganz ähnliches Programm für die Arbeit mit den eigenen Kommentarspalten erprobt.
Gebrauchsfertig sind all diese Analysemethoden noch nicht. Bei den Hate Minern in Münster beschränkt man sich derzeit auf die Untersuchung von Kommentaren, die im weitesten Sinne zur Flüchtlingskrise zu zählen sind – beziehungsweise der rechtsextremen Narrative, die sich in deren Fahrwasser durchgesetzt haben. Einfach deshalb, weil es derzeit noch zu viel Aufwand bedeuten würde, den Blickwinkel weiter zu fassen. „Die deutsche Sprache ist schwer zu analysieren, etwa, weil sie so viele Pluralformen hat“, sagt Sebastian Köffer.
370.000 Kommentare haben die Forscher gesammelt und aus ihnen Schlüsselbegriffe extrahiert, die ihrer Ansicht nach auf einen Hasskommentar hindeuten – oder aber im Gegenteil auf, wie sie es nennen, „Nicht-Hass“. Am Ende steht ein Wörterbuch mit 60.000 Begriffen, in dem jeder einen Punktewert hat: „Lügen“ oder „Verbrecher“ liegt bei einem Hass-Wert von ungefähr 1, „Demokratie“ oder „Integration“ bei rund -0,75. Gibt man nun einen Kommentar mit mindestens 200 Zeichen in die Maske ein, errechnet die Software anhand der vorkommenden Worte einen Gesamtwert und teilt dann mit, für wie hoch sie die Wahrscheinlichkeit eines Hasskommentars hält. Worte ergeben Punkte, Punkte ergeben Wahrscheinlichkeiten.
Ähnliche Verfahren werden nicht nur dann angewendet, wenn es darum geht, Hass zu identifizieren. „Ich habe in meinem Experiment auf dieselbe Art gearbeitet“, sagt Hernani Marques. Er ist Mitglied im Chaos Computer Club Zürich und hat sich für seine Masterarbeit im Fach Computerlinguistik einfach mal eine Weile selbst überwacht. Genauer gesagt: Marques wollte wissen, ob er schlicht aufgrund seines Surfverhaltens für einen Geheimdienst als terrorverdächtig gelten könnte.
Geheimdienste überwachen das Surfverhalten von Menschen mittels sogenannter Selektoren – bestimmte Begriffe oder Wortpaare, deren Vorkommen einen Nutzer oder eine Internetseite verdächtig machen. Um welche Begriffe es sich handelt, ist stets streng geheim; für Hernani Marques nicht in Erfahrung zu bringen.
Also versuchte er, sich in einen Geheimdienst hineinzudenken, und legte seine eigenen Selektoren fest. Er konnotierte etwa „Kapitalismus“ oder „Solidarität“ mit Linksextremismus – „Flüchtlingsflut“ und „Schweizer“ mit Rechtsextremismus. Anschließend surfte er so selbstverständlich wie möglich im Internet, zehn Tage lang. Und sein eigener kleiner Spitzel wies derweil jeder aufgerufenen Seite einen Punktewert zu. Am Ende stufte das Programm ein Drittel der besuchten Seiten als verdächtig ein. „Das ist sehr gefährlich. Auf diese Weise können Leute als einer bestimmten Strömung zugehörig klassifiziert werden, ohne dass sie dieser tatsächlich angehören“, sagt Marques.
Es gibt eine Zahl, die nahelegt, dass Marques mit seinem Experiment nicht weit von der Wirklichkeit entfernt gewesen sein kann: Über 25.000 Mal haben nach Angaben des Parlamentarischen Kontrollgremiums im Jahr 2014 die Filterprogramme des BND aufgrund terrorverdächtiger Begriffe in SMS- und E-Mail-Nachrichten Alarm geschlagen. Nur 65 Fälle waren tatsächlich bedeutsam, nicht einmal 0,26 Prozent.
All das muss man wissen, wenn man über Hass im Netz redet und über Programme, die ihn identifizieren sollen. Man landet da ganz schnell bei Techniken, wie sie Geheimdienste seit Jahren einsetzen.
Und doch gibt es beträchtliche Unterschiede. Zunächst mal einen ganz pragmatischen, nämlich bei der zu erwartenden Treffergenauigkeit: Ein Merkmal von Terroristen ist, dass sie relativ selten sind. Wer nach ihnen sucht, muss zwangsläufig in Kauf nehmen, häufig Unschuldige zu verdächtigen. Hate Speech dagegen ist Volkssport. Dass beispielsweise ein Kommentar, in dem Worte vorkommen wie „Neger“, „linksgrünversifft“ und „Migrantenkriminalität“, mit einer recht hohen Wahrscheinlichkeit einen herabsetzenden und diskriminierenden Inhalt enthält – dem würden die meisten Menschen wohl auch ohne systematische Analyse zustimmen. Anders gesagt: Wo viel Hass ist, kann auch viel gefunden werden.
Zudem werden durch das Hate Mining immer nur einzelne Kommentare untersucht, nicht der Mensch, der sie abgegeben hat. So ist es angelegt. Auch das ein Unterschied zur geheimdienstlichen Terroristensuche. Vor allem aber analysiert die Maschine keine privaten Äußerungen, sondern nur solche, die sich im öffentlich zugänglichen Raum einer Kommentarspalte befinden. Auch das kann man durchaus kritisch sehen, aber es ist trotzdem ein anderer Maßstab.
Die Weisheit der Vielen
Und dennoch: Schränkt man mit so einer Software nicht die Freiheit der Rede ein? Schon möglich, aber gilt das nicht in viel größerem Maße für die entgrenzte Hass-Sprache selbst? Ist sie es nicht, die jeden Diskurs dominiert – und damit anderen Menschen das ihr zugrunde liegende brutale Denken und Handeln aufzwingt? Eine Welt, in der Menschen zum US-Präsidenten gewählt werden, die andere Menschen in sozialen Medien als „geisteskranke, dumme Verlierer“ beschimpfen, leidet wohl nicht zu allervorderst unter dem Problem einer überregulierten Sprache.
Nur: Was ist eigentlich Hass? Was einen Menschen zum Terroristen macht, zum Mörder oder Betrüger, das kann man im Strafgesetzbuch nachlesen. Aber was ist ein Hasser? Beim Hate Mining setzt man auf die Weisheit der Vielen: Bevor man sie fertig gebaut hat, wurde die Maschine angelernt. Über soziale Netzwerke trommelten die Macher möglichst viele Menschen zusammen, die für den Algorithmus eine Vielzahl von Kommentaren bewerten sollten – auf der Grundlage der Hass-Definition des Ministerkomitees des Europarates, die unter diesem Begriff unter anderem alle Ausdrucksformen versteht, „die Rassismus, Fremdenfeindlichkeit, Antisemitismus oder andere Formen von Intoleranz“ verbreiten. Am Ende waren knapp 3.000 Kommentare rund 12.000 Mal bewertet worden. Das ist das Gewissen der Maschine. Jedenfalls das ihrer ersten Version.
Es ist klar, dass das nicht reicht. Bewertet haben zu wenige Nutzer, die möglicherweise auch aus einem recht ähnlichen Milieu kommen. Nur: Es wird niemals reichen. Ob 3.000 Menschen bewerten, 300.000 oder 30 Millionen: Die Gruppe derjenigen, die laut „Zensur“ schreien, wird es immer geben. Die Frage ist nur: Können wir sie dann noch hören? Und wie finden wir das?
Kommentare 28
Hier kann man doch keine Kontrolle mehr ausüben, bzw. ein regulieren der negativen Impulse von Manipulationen und kriminellen Absichten aufspüren und diese auch ausgrenzen zu wollen, um eine saubere Plattform für zivilisierte Kommunikation zu reanimieren. Das Internet ist einfach der Sumpf und unser Spiegel von Geist, Seele und was sich sonst noch an menschlichen Abstrusitäten auf zeigen lässt.
Da das Internet eine militärische Grundidee ist und zur Destabilisierung von Meinungen in anderen Gebieten dient, um für die eigene Gruppe Vorteile zu erarbeiten, funktioniert das doch super gut. Will ich rauben und plündern gehen muss ich vorher destabilisieren und Verwirrung stiften, um meine wirklichen Absichten zu verschleiern. Der ganz normale Wahnsinn der sonst als social engineering auch passiert. Nur bekommt es dann kaum einer mit.
ich finde es erschreckend, wie leichtfertig hier algorithmengesteuerte zensur propagiert wird, die zum einen den grundsatz der freien rede verletzen dürfte, zum anderen von firmen oder ihren programmen, statt von gerichten, ermächtigt wäre, was auch immer (wem?) nicht gefällt zu löschen.
wenn das die antwort der demokratie sein soll, was soll man dann verteidigen?
ich stelle mir vor, nur der mist, den heiko maas in seiner amtszeit eingeführt hat, gerät in die hände einer offen rechtsnationalen regierung ... die opposition wäre von heute auf morgen mundtot oder ganz verschwunden.
Wie züchtet man sich die eigene Isolationsblase? So.
Nicht zur Kenntnis nehmen wollen, wie viele Leute ticken, aber die vom Schicksal Geplagten mimen, wenn zuletzt alles zusammenbricht.
Ja, so wird die "schöne, neue Welt" daherkommen: äußerlich ganz progressiv, alles natürlich nur zum Schutz der Minderheiten und der Pluralität. Und das Wahrheitsministerium wird neoliberal folgerichtig an einen US Internet-Konzern "outgesourced".
“Die Maschine, die alles mitliest“ Die wird es schon lange geben! Und wer noch glaubt, er könne unerkannt unter pseudonym schreiben, der glaubt auch an den Weihnachtsmann!
Ich finde (auch bei den "Fake-News" jetzt) diesen ganzen Sauerstoffzelt-Ansatz grundfalsch: Also die Leute in einem hochreinen Sauerstoffzelt vor jeglichen schädlichen Keimen abschirmen zu wollen.
So wie Kinder früher im Dreck spielen durften und nicht nur im behüteten Supersauber, und damit klarkamen - wünsche ich mir lieber Leute, die seeehr medienkompetent sind, und Dreck, Fake-News und Hate selbständig erkennen, wichten und einordnen können.
Aber vielleicht kann man seeehr medienkompetente Leute nicht riskieren . . . . . . . . so muss man sie lieber von allem (außer der eigenen Prawda) abschirmen ...
Ja das stimmt. Ich wunder mich nur über diese Fake News Aktion. Falsche Nachrichten gibt es doch seitdem es Interessenbewegungen gibt, um Vorteile zu erhalten für die Interessen die man durchsetzen möchte. Die ganze Wirtschaft, Arbeitswelt und Politik ist voll davon. Mit dem Weihnachtsmann will man ja auch nur Geld machen, wie der Freitag.
Is ja der Hammer,
da kann man nun endlich lesen, was der Deutsche so denkt, was vorher nur am Stammtisch, zu später Stunde im "deutschen Eck", beim Metzger in der Schlange oder mit vorgehaltener Hand erzählt wurde und noch vielmehr von der schweigenden Mehrheit akzeptiert, toleriert und gutgehießen wurde, bestenfalls ignoriert wurde und nun liegt dieser Aussagendreck tatsächlich überall rum.
Und keiner kann ihn wegräumen, denn es steht ja noch aus, die Frage zu klären, ob ihn überhaupt jemand wegräumen will und wenn ja wer und mit welcher Schaufel? Vorher ist noch zu klären, ob es sich um schon um Dreck handelt oder noch um Material, was politisch und ökonomisch vermehrwertet werden könnte.
Die Idee jedenfalls den schon stinkenden Dreck, also die mit Absichten verbreitete Unwahrheit oder Teilwahrheit, wie annodunnemals mit Puder und Parfüm ("Freiheit Demokratie Frieden Wohlstand"-Geheuchel) zu übertünchen oder einfach anderen Dreck drüberzukippen und das dann arroganterweise noch Deutungshoheit nennen zu wollen, dürfte nicht mehr funktionieren.
Hehe die Seite (hatemining) ist witzig ...
meine emotionalsten beiträge auf ZON: Kein Hass - Polemik wird wohl nicht erkannt.
$4 AsylG: 84% Hass
Merkelrede (aus FAZ-Artikel die Anteile der wörtlichen Wiedergabe): 89% Hass
Also da ist noch ne Menge Potenzial nach oben für den Algorithmus :-)
Das Ganze hat mit Zensur und Meinungsäußerungsfreiheit nichts zu tun. Die private oder geschäftliche Website eines anderen ist kein öffentlicher Ort. Ein Publizist im Internet, wie z.B. hier "der Freitag", hat auf seiner Internetseite eine Art "Hausrecht". Er kann deshalb z.B. für das Verfassen von Kommentaren eine "Hausordnung" erlassen - bei den meisten Organen ist dieses in den Nutzungsbedingungen festgelegt, denen Sie als Nutzer bei der Anmeldung (allzuoft auch ungelesen) zustimmen. Der Publizist entscheidet dann über die Veröffentlichung nach seinem Ermessen. Er kann zum Sortieren der Beiträge menschliche Redakteure und/oder unterstützende Technologien einsetzen - wie er will. Ein allgemeines Recht auf Meinungsfreiheit greift hier nicht. Sie würden ja auch nicht mit Ihrem Beitrag ins Redaktionsbüro Ihrer Tageszeitung gehen und sagen: "Sie müssen das drucken, denn schließlich herrscht Meingsfreiheit!"
Von diesem rechtlichen Aspekt einmal abgesehen finde ich es abgründig, das Recht der Meinungsäußerungsfreiheit ausgerechnet an der Veröffentlichung von Beleidigungen, Schmähungen, Drohungen etc. festzumachen. Wer das unter "Meinung" versteht, der dürfte in der realen Welt wohl einige gravierende Probleme haben.
Danke für Ihren Kommentar und die Klarstellung, denn die wenigsten ordnen die Thematik richtig ein.
Ticken denn die "vielen Leute", von denen Sie hier sprechen, nur in Schimpfwörtern, Beleidigungen oder Aufrufen zu Gewalt? Oder lassen sich deren Ansichten eventuell auch in sachlichem Deutsch fassen?
So ist es.
Ergänzend: Hass ist eine so legitime Triebfeder politischen Handelns und Denkens wie jede andere Emotion auch. Es ist auch nicht jeder Hass ungerechtfertigt.
»Dass beispielsweise ein Kommentar, in dem Worte vorkommen wie „Neger“, „linksgrünversifft“ und „Migrantenkriminalität“, mit einer recht hohen Wahrscheinlichkeit einen herabsetzenden und diskriminierenden Inhalt enthält – dem würden die meisten Menschen wohl auch ohne systematische Analyse zustimmen. Anders gesagt: Wo viel Hass ist, kann auch viel gefunden werden.«
Na, da sehe ich rabenschwarz für einen ordentlichen Kindergeburtstag mit Negerkußschlacht.
* * * - )
"Da das Internet eine [geheimdienstlich-]militärische Grundidee ist und zur Destabilisierung von Meinungen in [weltweiten] anderen Gebieten dient, um für [die Finanz-, Rüstungs-, Rohstoff-, Meinungs- und Monopolbourgeoisie] die eigene Gruppe Vorteile zu erarbeiten, funktioniert das doch super gut. Will ich rauben und plündern [Krisen und Wirtschaftskriege führen] gehen muss ich vorher destabilisieren und Verwirrung [Bewusstseinsmanipulation] stiften, um meine wirklichen Absichten zu verschleiern." !
C10H15N - oder ist das sonst zu erklären?
Korrektes Denglish wäre »ge|outsourced«.
hallo franz, es geht mir nicht um z.b. eine moderierte diskussion hier im freitag oder gegen das hausrecht irgendeines eines seiteninhabers! ich habe bedenken wegen der gleichzeitlichen technischen und politisch vorangetriebenen entwicklung von wahrscheinlich effektiver zensurtechnologie. denn die wird, zusammen mit den bots, die jeweils nicht zensiert werden, weil es die eigenen sind, dazu führen, dass öffentliche meinung im netz so aussieht, wie sich das die staatlich-privaten betreiber auch immer vorstellen.so bißchen wie fernsehen damals.
dass es vordergründig und im moment gegen den hatespeech der nazispasten geht ist meiner meinung nach nur ablenkung, vorwand. am ende werden sie alles löschen, wozu sie lust haben. womit es auch links von kretzschmann, maas und gabriel stiller werden wird. v-theorie, chemtrail, weißtschon.
Ja, mit Ihren Ergänzungen ist das noch besser auf den Punkt gebracht. Ich mach das auch zur Zeit nur so nebenbei beim Frühstücken und streng mich auf diesem Gebiet nicht zu 100% an.
Ich finde es höchst fragwürdig, wie selbstverständlich man solchen gesellschaftlichen Problemen wie Hate Speech mit technologischen Schein-"Lösungen" begegnet. Ein scheinbar "objektiver" Algorithmus soll demnach den Hass "messen". Und irgendwann kommt sicher jemand auf die blöde Idee, auch die Entscheidung zu löschen dem Algorithmus zu überlassen. Aber diese Vorgangsweise begründet sich auf der sehr subjektiven Verwendung von Catch Words. Ich meine, bei rassistischen Schimpfwörtern mag das ja noch nachvollziehbar sein, aber wie kommt man auf die Idee, dass Begriffe wie "Lüge" und "Verbrecher" per se auf Hate Speech hinweisen? Hier kommt es doch auf den Kontext an, in dem diese Begriffe verwendet werden. Und genau diesen Kontext wird ein Algorithmus ganz bestimmt nicht durchschauen. Von ironischen Beiträgen ganz zu schweigen. Also es ist ja verständlich, wenn man den Forenmoderatoren die Arbeit angesichts der Flut an Hasspostings erleichtern möchte, aber der Weg mit Algorithmen erscheint mir wie so oft völlig falsch.
"Die vielen Leute" von denen ich spreche, können Sie praktisch jederzeit in x-beliebigen Nachrichtensendungen über Deutschland bewundern, sowohl im Rudel für's Grobe als auch für Maischberger, Will und Co. auf intellektuell gestylt.
Wenn deren Ansichten in sachlichem und diskursiven Deutsch besprochen würden, wäre ja schn viel gewonnen. Die etwas weniger feinstofflichen Nuancen in diesen Aussagen könnten, eine etwas abseitige aber vielleicht doch denkbare Vermutung, gerade etwas damit zu tun haben, dass diese Leute nicht ernstgenommen werden, dass für ergebnisoffene Diskussionen kein Platz ist, und dass sie das auch wissen. Ich weiß nicht, was Sie für ein Deutschlandbild haben. Das einzige, was mich verwundert, ist, dass die AfD noch keine 50% hat. Kommt bald.
Und nein, ich bin kein AfD-Anhänger und kein Pegida & Co-Freund. Das ist in sachlicher Hinsicht alles ganz große Scheiße. Aber wenn diese Scheiße eine regierungsfähige Mehrheit bekommt, werden alle noch einigermaßen demokratisch gesonnenen Kräfte den Zeiten hinterhertrauern, in denen man diese Menschen vielleicht noch hätte erreichen können. Aber aut Caesar aut nihil endet allzuoft mit nihil, und das steht auch hier zu befürchten - der Wahn, mit Maximalforderungen und Maximallösungen das Schöne, Wahre und Gute durchzusetzen, bewirkt im Allgemeinen, dass selbst das Mögliche verloren geht bzw. nicht erreicht wird.
Die Zulassung von "Hate Speech" hat zwei ganz gewaltige Vorteile: Erstens erkennt man unmissverständlich, wie die Betreffenden ticken, was zweitens dazu führt, dass keine uneigentlichen Diskussionen um Nebenkriegsschauplätze geführt werden müssen.
Sie sind ein KALTER KRIEGER in Neuauflage! Dabei auch noch ohne Dienst- und Beamtenauftrag vom BND-Kapital-Finanz-Banken-Börsen-Rüstungs-Monopolschutz und BfV-VS-gau(c)klerischen BStU-Staats- und Ministeriumsschutz!
"Schränkt man mit so einer Software nicht die Freiheit der Rede ein? Schon möglich, aber gilt das nicht in viel größerem Maße für die entgrenzte Hass-Sprache selbst?"
Achso, na dann ist es ja nicht so schlimm! Solange es die „Guten“ sind, die die Freiheit einschränken... Nein, der Zweck heiligt nicht die Mittel!
Ich sehe nicht, dass „Hass-Sprache“ die Rede- und Meinungsfreiheit einschränkt.
Es gibt den Tatbestand „Hasskommentar“ (noch) nicht, sondern nur „Beleidigung“, „Verleumdung“ etc. Wer sagt: Egal, wir müssen trotzdem mit anderen Mitteln als Argumenten dagegen vorgehen, der verlässt den Boden des Rechtsstaats.
Der wissenschaftliche Dienst des Deutschen Bundestags hat sich mit dem Thema „Hass“ auch auseinandergesetzt und nochmal klar gemacht, dass wir hier kein „Gesinnungsrecht“ haben! D.h. um rechtlich belangt zu werden, muss immer eine Tat her!
„Das geltende Strafrecht als Tatstrafrecht knüpft Strafbarkeit stets an Handlungen, nicht allein an Meinungen, Überzeugungen oder die Täterpersönlichkeit“ Es ist „kein Gesinnungsstrafrecht. Gedanken, Überlegungen und Meinungen können für sich genommen nicht strafrechtlich relevant sein...“ (http://www.bundestag.de/blob/483584/1ccf107faf0d0f8a98de634009cf33b6/hass-und-hetze-im-strafrecht-data.pdf)
"Ist sie es nicht, die jeden Diskurs dominiert – und damit anderen Menschen das ihr zugrunde liegende brutale Denken und Handeln aufzwingt?"
Wie kommen Sie denn darauf, dass auch nur ein einziger Mensch sich durch ein sogenanntes „Hass-Posting“ irgendetwas aufzwingen lässt?
Ich habe Sie und auch sonst niemanden dazu gebeten, mich vor der Meinung (in welcher Art und auf welche Weise diese auch immer geäußert wird) meiner Mitmenschen zu beschützen.
Meinungsfreiheit ist die Mutter aller Freiheiten
Zu guter Letzt: Es kann nicht sein, dass alle über „Hate-Speech“ reden, aber niemand definieren kann, was das denn genau sein soll und warum das neuerdings justiziabel ist (ist es nämlich nicht! S.o.). Das ist übrigens auch mit dem Begriff „rechts“ der Fall.
Ganz schön frech, wie Sie hier Ihre eigene subjektive Meinung als stellvertretend für alle anderen hinstellen. Dazu gehört schon eine Portion Größenwahn. Es sei Ihnen natürlich unbenommen, dass Sie keinen Schutz vor Hate Speech benötigen. Aber andere Menschen brauchen diesen Schutz sehr wohl, denn sie sind Opfer des Terrors durch Hasskommentare.
Nur weil Sie persönlich nicht von diesem Problem betroffen sind, heisst das noch lange nicht, dass es das Problem nicht gibt und dass andere auch keine Unterstützung brauchen.
Da Sie zugeben, null Ahnung zu haben, was Hate Speech bedeutet, Sie sich aber gleichzeitig als Paragraphenreiter aufspielen, dürfte Ihnen auch nicht klar sein, was dieser Terror für die Betroffenen bedeutet, hier also eine kleine Nachhilfe:
Menschen, die Hasskommentaren ausgesetzt sind, landen oft in einer psychischen Krise, sie entwickeln Angststörungen, Eßstörungen, Depressionen, bis hin zum Nervenzusammenbruch. Sie meiden als Folge des Hasses das Internet und halten sich bei Diskussionen heraus.
Das heisst, man muss hier durchaus abwägen, denn die Betroffenen von Hate Speech werden in ihrem Recht auf freie Meinungsäußerung durch den Hass eingeschränkt, da sie sich nicht mehr trauen, an Diskussionen zu beteiligen. Da ist es wohl das Mindeste, den Hass einzudämmen. Auch wenn die Freunde der Hasskommentare, so wie Sie, dann gerne auf die Meinungsfreiheit von hasserfüllten Leuten pochen, ohne die Meinungsfreiheit der vom Hass Betroffenen zu berücksichtigen.
ja, Sascha, sobald man einen kennt, der psychisch etwas zerbrechlicher ist und durch Hasskommentare oder Netzmobbing aus der Bahn geworfen worden ist - ist man sicherlich mehr auf deiner Seite
aber siehst du nicht doch die Gefahr - dass man hiermit eine Infrastruktur zur Netzzensur schafft (Wegfilterung von Hass und Fakenews) - die vielleicht zuerst gut gemeint ist, aber dann Tür zu allem möglichen (politischer Zensur) öffnet?
wie wäre eigentlich folgende Idee: jeder User könnte selbst entscheiden, ob er Kommentare, die von einem fürsorglichen Algorithmus für hasserfüllt gehalten werden, sehen will oder nicht (zB eingeklappt) ...?
Was meint dieser Algorythmus eigentlich zur gegenwärtigen Kommunikation zwischen den USA und Russland, bzw. China? Oder Merkel und Putin? Wahrscheinlich wird der verbale Schlagabtausch zwischen einzelnen Regierungen als völlig ungefährlich eingestuft- auch wenn daraus schlimmstenfalls ein (Welt)kieg hervorgeht... Der Westen wird immer komischer, wirklich: Sind wir uns eigentlich für gar nichts mehr zu schade?
Naja, ich bin ja selbst unschlüssig darüber, welche Mittel am geeignetsten sind, um gegen den Hass vorzugehen. Ich sehe jedenfalls die Gefahr der "Zensur" nicht wirklich.
So schade das auch ist, aber scheinbar brauchen wir im Netz einen Verhaltenskodex, der so simple Dinge erklärt wie: "du sollst nicht andere als Person angreifen und beschimpfen", "du sollst keine Vergewaltigungs- und Morddrohungen aussprechen", "spar dir den Rassismus, Sexismus" usw. Viele Leute scheinen nicht einmal diese Mindestanforderungen eines zivilisierten Umganges zu beherrschen.
Wenn dazu auch gewisse Mittel nötig sein sollten, wie Hasspostings einfach zu löschen, dann ist das eben so. Besser wäre es natürlich, wenn die Menschen allgemein einen freundlichen Umgang mit einander speziell im Netz erlernen würden und die Hasskultur einer Respektkultur weichen würde.
Und Ihren Vorschlag, dass die User selbst entscheiden sollen, was sie wegklappen, finde ich deshalb nicht so gut, weil damit ja wieder nur der und die einzelne in der Verantwortung steht - und die Gesellschaft ist fein raus und entzieht sich jeder Verantwortung. Aber der Hass ist eben ein gesellschaftliches Problem, das im Übrigen nicht nur im Netz stattfindet, und wir sollten uns dem Problem auch entsprechend als Gesellschaft stellen und nicht den einzelnen Opfern des Hasses die ganze Verantwortung allein übergeben.