Das Internet und die Medien – 3. Brave New (Web)World

Bei diesem Beitrag handelt es sich um ein Blog aus der Freitag-Community.
Ihre Freitag-Redaktion

Im ersten Teil meiner Betrachtungen hatte ich die These aufgestellt, das Internet sei kein neues Medium „sui generis“. Das bedeutet allerdings nicht, dass es nicht doch eine Reihe innovativer Elemente in die Medienlandschaft eingeführt hätte, die diese in einigen Aspekten radikal verwandelt haben. Auch wenn das Web nur die bereits existierenden Medientypen aufgenommen und auf einer Plattform zusammengeführt hat, ist es doch weit mehr als nur deren verdünnte, substanzlose Kopie.

Was dieses Neue ist, möchte ich in diesem dritten Artikel herauszuarbeiten versuchen, ohne dabei in die ideologischen Fallen so manches Internet-Aktivisten zu fallen, dessen gnadenlose Selbstüberschätzung den unbefangenen Beobachter glauben machen könnte, er hielte sich für die Verkörperung des „neuen Menschen“, von dem die Utopisten aller Zeiten träumten und noch träumen. Statt vom neuen Generationenkampf zu schwärmen und die kritische Betrachtung durch Lagerdenken („Liebe Web-2.0-Gemeinde“, heißt es da gerne einmal in der Anrede) zu ersetzen, will ich die neuen Features des Webs einer insgesamt kritischen Betrachtung unterziehen. Nur so erscheint es mir möglich, eine qualitative Einschätzung und eine Prognose zur Nachhaltigkeit dieser neuen Medienelemente abzugeben.

Was also hat das Web wirklich neu entwickelt, wo liegen seine Stärken im Vergleich mit den klassischen journalistischen Medien, wo verändert es sie und stellt sie in Frage?

Aktualität und Schnelligkeit

Eine der unbestreitbaren Leistungen des Webs auf journalistischem Gebiet ist die Schnelligkeit und Aktualität der Nachrichtenübermittlung. Gegenüber Printmedien – ganz gleich, ob es sich um Tageszeitungen oder Zeitschriften handelt – lag dieser Vorteil schon lange auf der Hand; mit Instrumenten wie Twitter wurde er sogar gegen den bisherigen Schnelligkeits-Champions, Radio und Fernsehen, manifest. Legendär die Berichterstattung aus Bombay, als Amateure bereits die ersten Nachrichten und Bilder von den Angriffen auf zwei Hotels übermittelten, als die Nachrichtenagenturen noch nicht einmal von ihnen wussten.

Professionell dargebotene Aktualität hat zweifelsohne das Potenzial Leser bzw. Zuschauer/-hörer von den klassischen Medien abzuziehen. Wer sich jederzeit per Webbrowser über die Aktualität in aller Welt informieren kann, den wird die traditionelle (abendliche) Nachrichtensendung nur noch am Rande interessieren, von der Tageszeitung (am nächsten Morgen) ganz zu schweigen. Mit Aktualität können diese klassischen Medien nicht mehr punkten – ihr journalistischer Schwerpunkt muss sich, wie bereits im letzten Artikel gesagt, verlagern: Mehr Details, mehr Hintergründe, mehr Tiefe, mehr Reflexion!

Aber: Nicht alles, was das Internet kann, trifft auch auf wirklich nachhaltige Bedürfnisse. Mir jedenfalls hat noch niemand schlüssig erklären können, inwiefern es für mehr als nur eine kleine Minderheit von Internetusern relevant ist, ob sie um 9 Uhr morgens oder erst aus den Mittagsnachrichten erfahren, dass es in China ein Bergwerksunglück gab, dass ein Herr namens Köhler zum Bundespräsidenten gewählt wurde oder dass in Bangkok bewaffnete Terroristen Hotels angriffen. Dieses „Wissen in Echtzeit“ mag für den einen oder anderen kurzzeitig einen schönen Nervenkitzel bieten, aber die Schnelligkeit des Internets ist kein Wert an sich. Wer das nicht akzeptiert, vergisst, dass das Internet eben nicht nur die wenigen tausend Freaks sind, denen bei jedem Tweet ob der eigenen Fortschrittlichkeit ein heiliger Schauer über den Rücken läuft, sondern Millionen Menschen, bei denen solche Gefühle eher selten auftreten.

Die gigantische Schnelligkeit des Webs interessiert auf Dauer wohl nur bestimmte Berufsgruppen – Journalisten, Börsenmakler, Politiker und noch einige mehr. Mehr noch: Sie kann sogar einer gewissen Hysterie Vorschub leisten wie der Kommunikationsprofi Peter Engel kürzlich auf handelsblatt.de zu Recht betonte. Ob die menschliche Psyche (und Physis) diesen Nervenkitzel und diese Hysterie überhaupt dauerhaft aushalten, sei hier einmal dahingestellt.

Deshalb: Wer im Internet erfolgreich und nachhaltig publizieren will, muss das gesamte Panorama seiner (nicht nur technischen) Möglichkeiten zwar kennen, aber gleichzeitig den Verlockungen der Technik auch einmal widerstehen können, sie sinnvoll einzusetzen wissen. Das wird noch mehr in Zukunft gelte, wenn die User mit Smartphones und ihren „Apps“ nicht mehr nur am heimischen Computer, sondern in jeder passenden oder unpassenden Situation zu erreichen sind. Übrigens geht die oben geschilderte Abneigung gegen das Internet ja zum Teil – und das sollte man auf keinen Fall verschweigen – auf Exzesse der „Technik-„ und „Webfreaks“ zurück, die sich aus dem „technischen“ Kommunikationsmittel Internet immer mal wieder eine Art ganz eigener Weltanschauung basteln. Das war schon mit dem „alten“ Web 1.0 der Fall und es gilt heute noch viel mehr.

Billig und einfach

Eine der wesentlichen (technischen) Voraussetzungen für den Erfolg des Internets war nicht nur die Tatsache, dass jedermann zumindest nach einigen Jahren mit recht geringem finanziellem Aufwand Zugang zu ihm erhielt, sondern dass es auch (fast) jedermann die Möglichkeit bot, ohne die enormen Kosten (v. a. Druck und Vertrieb) der klassischen Medien und auch fast ohne technische Kenntnisse (dank guter Web-Editoren) zu publizieren, was immer ihm in den Sinn kam. Jeder wurde jetzt zum Publizisten – die alte Unterscheidung zwischen Verleger und Journalisten war tendenziell aufgehoben. Zwar wusste zumindest am Anfang niemand so recht, ob seine Artikel überhaupt gelesen wurden, aber das war den meisten der Pioniere – auch mir als ich 1997 mit ENO WorldWine () anfing – erst einmal egal.www.enobooks.de

Heute, in Zeiten von Blogs, von Twitter, Facebook oder Posterous, ist das Ganze noch mehr zu einem technischen Kinderspiel geworden, und auch die Kosten sind praktisch nicht mehr relevant – die aktuell viel diskutierten Tageschau-Apps für das I-phone sollen läppische 30.000 Euro gekostet haben, ein Betrag, für den man wahrscheinlich nicht einmal die TV-Ausgaben der Tagesschau für einen einzigen Tag produzieren kann – vorausgesetzt man bringt ein wenig guten Willen und viel Zeit mit, denn die ist auch und gerade beim Publizieren im Web notwendig.

Vielleicht erklärt sich ja die Vehemenz der Döpfnerschen Reaktionen (nicht nur seiner!) auf die „Webkommunisten“ (s. Teil 1 unserer Serie) genau aus dieser tendenziellen Infragestellung der Rolle des klassischen Verlegers, die mit den neuen Möglichkeiten des Internets einher geht. Wer früher beispielsweise eine Publikation ähnlich dem heutigen Bildblog herausgeben wollte, der musste entweder mit viel Kapital eine neue Zeitung oder Zeitschrift gründen oder aber eine Publikation finden, die seine Beiträge aufzunehmen bereit war – und das war nicht immer leicht, da bekanntermaßen eine Krähe der anderen kein Auge aushackt.

Die geringen Publikationskosten haben viele dazu verleitet, zu glauben, journalistischer Content im Web koste gar nichts mehr – weder den User noch seinen Erzeuger. Für die vielen Nachrichten-Aggregierer – man braucht hier gar nicht immer nur an Google News zu denken, auch im Weinbereich gibt es diese Künstler der Billig-Algorithmen – oder PR-Kopierer mag diese Milchmädchenrechnung ja noch aufgehen, aber sobald es daran geht, eigenständigen Qualitätsjournalismus zu produzieren, stimmt das natürlich genauso wenig wie bei den Printmedien. Denn selbst wenn zwei Drittel von deren Kosten (Druck, Vertrieb) nicht mehr oder nur noch in geringem Umfang anfallen, das restliche Drittel kostet genauso viel, wenn nicht sogar mehr, da die Möglichkeiten des Webs, Aktualität und Schnelligkeit, auch Imperative und damit kostenintensive Anforderungen ans journalistische Arbeiten sind. Auch dazu später noch mehr.

Demokratie und Freiheit

Mit den technischen Möglichkeiten des Webs waren die Figur und damit auch die Ideologie des Jedermannpublizisten und Hobbyverlegers geboren. Ohne die Kosten und ohne die „Zensur“ schwerfälliger Apparate und interessengeleiteter Verleger, „frei“ publizieren zu können, was man wollte – der eine oder andere vergaß dabei leider auch, dass die Vorschriften des Bürgerlichen Gesetzbuches auch für ihn noch galten –, setzte auch neue Hoffnungen und Überzeugungen frei: Es war die Idee eines „freien“, „demokratischen“ Internets.

„Freiheit ist im Netz der höchste Wert von allen. Sie steht weit über dem Wert der Qualität“, hat Jakob Augstein kürzlich geschrieben, und wer wollte, durfte darüber rätseln, ob er das nun besonders toll fand oder nicht. Diese Freiheit, dieses Gefühl, im Web eine Art unmittelbarer, urtümlicher Demokratie zu leben – Google lässt grüßen! –, verdient es, ein wenig genauer betrachtet zu werden.

Dabei ist diese Idee des demokratischen Internets, anders als es heute häufig behauptet wird, nicht erst mit dem Aufkommen des so genannten Webs 2.0 entstanden. Schon Ende der 1990er Jahre, als erstmals Diskussionsforen und Chatrooms auftauchten, besang man das Hohelied dessen, was heute auch gerne als „Mitmachweb“ apostrophiert wird. Am populärsten war diese Idee immer dann, wenn sie sich gegen autoritäre Eingriffe ins demokratische Leben und Selbstgefühl richtete: Webzensur in China, unwirksame, aber zum Missbrauch einladende Webfilter gegen Kinderpornographie, Abmahnungsorgien privater Firmen gegen ihre Kritiker. Hier fand die Idee der Web-Demokratie in den letzten Jahren nicht nur die emotionsbeladene Zustimmung der „Web-Gemeinde“, sondern weit darüber hinaus reichenden Konsens.

Die Idee der Freiheit, des demokratischen Webs wurde wohl v. a. deshalb so populär, weil sie auf ein Demokratiebedürfnis traf, das eine defizitäre Situation in vielen Bereichen unserer Gesellschaft widerspiegelte – Politikverdrossenheit, Ende der Volksparteien, Radikalisierung, lauten nur einige der Stichworte, die in ihrer politischen Substanz denselben Sachverhalt beschreiben.

„SPD oder CDU, das ist wie die Wahl zwischen Persil und Dash (heute würde man sagen Ariel)“, hieß es schon einmal zu Zeiten der Demonstrationen gegen die Notstandsgesetze. Heute, nach einer Periode des „Demokratie wagen“ scheint die politische Ohnmacht, die diese Idee der Freiheit quasi als Reflex widergibt, wieder zum Inventar des politischen (oder unpolitischen) Denkens eines Großteils der Bevölkerung zu gehören. Und so ist das „freie Internet“ nur der Spiegel einer Gesellschaft, die diese Freiheit offenbar in anderen Bereichen nicht mehr oder nur eingeschränkt genießt.

Als Paradebeispiel für die wichtige Rolle, die das Internet für „die Demokratie“ spielt, werden gerne die Ereignisse im Iran herangezogen. Hier waren es tatsächlich Blogger und Twitterer, die erfolgreich der Informationsblockade durch die iranischen Behörden trotzten und zumindest in gewissem Umfang dafür sorgten, dass die internationale Öffentlichkeit auch mit „unwillkommenen“ (für die Ayatollahs!) News versorgt wurde. Das die Relevanz der Blogs und Tweets im Lande selbst dagegen praktisch Null war (s. hier), wird gleichzeitig aber gerne verschwiegen.

Es mag ein wenig sarkastisch klingen, aber manchmal habe ich das Gefühl, dass über der „eigenen“ Großtat, den Ayatollahs ein Schnippchen geschlagen zu haben, vergessen wird, gegen das zu kämpfen, was diese Großtaten überhaupt erst nochwendig gemacht hat: Die fast vollständige Unterdrückung der Meinungs- und Pressefreiheit im Iran. Wie schnell letztlich auch diese letzte Pforte kritischer Information zu schließen ist, das beweisen seit Jahren die Behörden in China, die das Internet – und damit auch Blogs, Twitterer, Social Media – nach Lust und Laune zulassen, schließen, zensieren und kontrollieren, wobei die (westlichen) Internetmonopole, die Googles, Yahoos und Microsofts, dieses Spiel jedes Mal willfährig mitzuspielen scheinen.

Freiheit und Qualität

Aber Jakob Augstein sprach nicht nur von Freiheit, sondern auch von Qualität. Von der Qualität des Contents, der im Internet geboten wird, so als stünden sich die beiden antagonistisch gegenüber und so als könne erstere die zweite ersetzen. Geführt wurde diese Debatte um Freiheit und Qualität immer wieder exemplarisch am Thema der Online-Enzyklopädie Wikipedia.
Demokratie, Freiheit … und Wikipedia? Das könnte dem einen oder anderen, der den jüngsten Spendenaufruf von Jimmy Wales, dem Wikipedia-Gründer, aufmerksam gelesen hat, wie eine seltsame Paarung vorkommen. Dort heißt es, in unübertroffener Demut und Bescheidenheit: „Stellen Sie sich eine Welt vor, in der jeder Mensch freien Zugang zum gesamten Wissen der Menschheit hat. Das ist unser Ziel. Und mit Ihrer Hilfe werden wir dieses Ziel erreichen.“

Einmal abgesehen von der „intellektuellen Hybris“, die hinter solchen Äußerungen steckt: Ich kann mich nicht entsinnen, in den letzten Jahren etwas Arroganteres und Menschenverachtenderes aus der Web-Gemeinde gelesen zu haben – vielleicht mit Ausnahme der jüngsten Deklaration von Facebook-Gründer Mark Zuckerberg, das Zeitalter des Privaten sei zu Ende. Und das von einem Menschen, dessen Online-Lexikon noch nicht einmal das Wissen von 100 der insgesamt schätzungsweise 3.500 lebenden Sprach- und Kulturräume vereint, ganz zu schweigen vom gesamten nicht-schriftlichen Wissen der Menschheit, das für Wikipedia auf ewig ein nicht zu erschließender Fundus sein wird!

Das Wissen der Völker ohne eigene Schrift – kein Bestandteil des „gesamten Wissens der Menschheit“? Das Wissen all derer, die sich mit dem Internet schwer tun – kein Bestandteil des „gesamten Wissens der Menschheit“? Das Wissen derer, die in den übrigen 3.400 lebenden Sprachen (ganz zu schweigen von den ebenso vielen, deren Überleben in Gefahr ist) kommunizieren – kein Bestandteil des „gesamten Wissens der Menschheit“? Man mag es Arroganz oder – in ideologischer Diktion – Ausdruck des amerikanischen Kulturimperialismus nennen – Tatsache ist, dass solche Prinzipien ein Hohn auf die im Web vielbeschworene Idee der Freiheit und der Demokratie sind.

„Aber die dürfen doch alle gern auf Wikipedia schreiben“, höre ich schon die Einwände aus den Rängen der „Web-Gemeinde“, „sie brauchen ja nur schreiben lernen und sich einen Computer anschaffen.“ Genau darum geht es: Wer das Diktat des Webs, mit welchen Mitteln, auf welche Weise, in welcher Sprache kommuniziert wird, akzeptiert – für den gibt es Demokratie und Freiheit. Und die andern? Die haben halt Pech gehabt!

Dabei ist Wikipedia eigentlich ein tolles Projekt – es stellt dem User kostenlos einen enormen Wissensfundus zur Verfügung, und das ist eine nicht zu unterschätzende Leistung, die es vielleicht sogar Wert ist, durch Spenden unterstützt zu werden. Nur: Wenn ich mich dieses Wissensfundus‘ bedienen will, kann ich mich dann auch wirklich darauf verlassen? Kann ich das, was ich dort finde, verwenden, zitieren, kann ich Schlussfolgerungen daraus ziehen, hilft es mir weiter? Oder muss ich mich nicht durch Tonnen enzyklopädischen „Mülls“ wühlen, um vielleicht eine Perle zu finden, deren Qualität ich aber wiederum nur wirklich einschätzen kann, wenn ich in der Materie bereits Experte bin?

Hier liegen die eigentlichen Probleme der Wikipedia, Probleme, die man nur kurze Zeit durch merkwürdiges Konkurrenzgehabe gegenüber den klassischen (Print)Enzyklopädien wie der Encyclopedia Britannica oder dem deutschen Brockhaus übertönen konnte. Ich erinnere mich noch mit einem gewissen Vergnügen an die vor zwei Jahren genüsslich verbreiteten Berichte, „unabhängige Institute“ hätten festgestellt, dass die Artikel der Wikipedia besser und mit weniger Fehlern belastet seien als die der Printklassiker. Einmal abgesehen davon, dass diese Art von Vergleichen natürlich dem Gefühl „Freiheit ist wichtiger als Qualität“ diametral entgegen läuft – wenn Qualität ohnehin nur ein untergeordnetes Element im Wertegefüge ist, kann sie auch nur schwerlich zum Beweis der eigenen Überlegenheit ins Feld geführt werden – geht sie auch haarscharf an der wirklichen Problematik vorbei.

Demokratie ohne Transparenz?

Denn das Problem von Wikipedia, anders gesagt, die Leistung der klassischen Enzyklopädien bestand und besteht gar nicht darin, dass der eine oder andere Artikel des einen oder des anderen Konkurrenten von jemandem als sachlich richtiger oder kompetenter eingeschätzt wird. Das Problem ist vielmehr, dass Auswahl, Gewichtung und Kalibrierung der Artikel, d. h. die eigentliche Leistung einer enzyklopädischen Redaktion, bei den Klassikern von einer anerkannten – vom Markt! – Redaktion durchgeführt werden. Es sind diese Redakteure und es ist die Marke (Brockhaus, Encyclopaedia Britannica), die sie vertreten, die genau für diese Art (!) von Kompetenz und für redaktionelle Unabhängigkeit stand und steht.

Bei Wikipedia dagegen ist es weitestgehend intransparent, wer welche Kompetenz auf sich vereinigt, wer auswählt, gewichtet und kalibriert. Man muss sich schon sehr weit in die Tiefen der Diskussion vorwagen, um auf die Namen von Entscheidern (Administratoren) zu stoßen, und selbst dann hat man allenfalls eine Liste von Namen, die erst einmal für gar nichts stehen: nicht für Kompetenz, nicht für Sachlichkeit, nicht für Neutralität bei strittigen Fragen – und damit eben nicht für saubere lexikalische Arbeit. Will man wissen, ob die Entscheider der Wikipedia die Sachkompetenz und die Unabhängigkeit besitzen, um wirklich auswählen, gewichten und kalibrieren zu können, muss man sich die Mühe machen, deren gesamte Arbeit nachzuverfolgen – eine Sisyphusarbeit, die wohl nur eine absolute Minderheit der User auf sich nimmt. Das allein wäre schon Grund genug, am hehren demokratischen Prinzip zu zweifeln: Demokratie ohne Transparenz ist wirklich nur schwerlich vorstellbar.

Mehr noch: Nur wenige Monate nach den triumphalen gefeierten „Erfolgen“ von Wikipedia über die enzyklopädischen Klassiker brach innerhalb der Wiki-Community ein Streit aus, der zeigte, dass die Frage Demokratie und/oder Qualität bei weitem nicht entschieden war: Soll Wikipedia alles veröffentlichen, was geschrieben wird – das absolut demokratische Prinzip –, oder sollte es nicht doch eine Instanz geben, die Artikel auf ihre „Relevanz“ prüft und notfalls korrigiert oder löscht – dann stünde die Qualität oben an. Dieser Problematik entgeht man auch dann nicht, wenn man behauptet, Relevanz sei „ein Wort aus dem letzten Jahrtausend“ (netzpolitik.org) – zumal, wenn man gleichzeitig gestehen muss, dass es absolut nicht geklärt ist, ob „bei strittigen Themen (wirklich) das bessere Argument“ zählt, und wer dieses bessere Argument letztlich hat.

Wenn gleichzeitig eingestanden wird, dass weit mehr Artikel geschrieben werden, als die Autorengemeinschaft, sprich die Administratoren, zu „pflegen“, d. h. zu überprüfen, imstande sind, dann ist das eigentlich eine Bankrotterklärung für jedes enzyklopädische Projekt dieses Ausmaßes. Wie sich das mit dem gigantischen Anspruch von Jimmy Wales verträgt, auf Wikipedia das gesamte Wissen der Menschheit zu versammeln, ist in diesem Licht dann vollends unklar. Zu Tage kommt – einmal mehr – ein genetischer Defekt eines Großteils der Web-Publizistik: Alle Fragen werden fast ausschließlich aus der Perspektive der (Mit)Macher, der Gemeinde, angedacht, nie aus der der Millionen User, Leser, Käufer, Ratsuchenden, Informationsdurstigen, die dem Web mit ihren Milliarden Visits und Page Impressions überhaupt erst Sinn geben.

Die Community – „many to many“

Über der Auseinandersetzung um Qualität oder Freiheit bleibt das unbestimmte Gefühl, dass der demokratische Elan im Web eine zeitlich recht begrenzte Erscheinung sein könnte. Wo konkrete Motive und präzise Ziele fehlen, da hat die Begeisterung, so ideologisch oder dogmatisch sie sich auch geben mag, immer nur eine eher kurze Halbwertzeit. Jenseits der ideologischen Komponente existiert allerdings auch eine reale Dimension dieser Idee von Demokratie, die ihrerseits in der Lage ist, die Grundlagen der journalistischen Publizistik insgesamt zu verändern – nicht nur im Web. Es ist die Ebene der „communities“, der „social media“, der Kommentarfunktionen in fast jeder Online-Publikation, der Chatrooms, Diskussionsforen, Blogs und Microblogs.

Dass all dies bereits im „alten“ Web 1.0 angelegt war, soll hier einmal nicht interessieren. Tatsache ist, dass es erst wirklich in der Lage war, die Koordinaten journalistischer Arbeit zu verschieben, als es mithilfe intelligenter Programmierung und angereichert um viele, interessante und flexible Zusatzfunktionen einem Milliardenpublikum zugänglich gemacht wurde.

Nun mag man diese neuen Formen des sozialen Austauschs – der Begriff ist wohl treffender als das englische „social media“ – allesamt abtun als „Stammtisch“, „Marktplatz“ oder „belangloses Privatgeschwätz“, wie dies von Anhängern der „alten“ Medien immer wieder getan wird. Dabei wird allerdings übersehen, dass sie die Bedingungen journalistischen Publizierens viel mehr verändert haben, als es die bloße Nutzung des Comupterbildschirms (und der Telefonleitung) für die Wiedergabe von Texten, Bildern, Tönen oder Videos jemals konnte.

Wieder liefert die Weinpublizistik gute Beispiele. Im bereits zitierten Artikel „Death oft he Wine Magazine“ wird eine Erfahrung wiedergegeben, die auch hierzulande zum Leidensgepäck des professionellen Weinkritikers gehört: Internetuser, insbesondere Mitglieder bei sozialen Netzwerken wie Facebook, Xing oder Twitter, scheinen bei Weinbeschreibungen und –bewertungen inzwischen mehr ihren „friends“ oder „followers“ – selbst dann, wenn sie von ihnen außer dem „nickname“ buchstäblich nichts wissen – zu glauben als den Spezialisten, ganz gleich, ob die jetzt Parker, Robinson, Johnson, Bettane, Scheuermann. Gabriel oder auch, pardon, Supp heißen. Das liegt einerseits bestimmt daran – und ich wiederhole meinen Vorwurf, den ich in Teil 2 an die Printmedien gemacht habe -, dass diese Spezialisten oft viel zu dröge, insiderhaft und genussfeindlich berichten.

Durch ihre langen Listen (das gilt durchaus auch für meine eigene Publikation, ENO WorldWine) kämpft sich nur der Profi oder der, der einen bestimmten Wein sucht und wissen will, wie er bewertet wurde. Weinempfehlungen mit Authentizität und Engagement, die zu lesen Spaß macht und die gleichzeitig praktisch nachvollziehbar sind, findet der normale Weinfreund dagegen dort nur selten. Aber: Wie viele dieser Weinempfehlungen, die „Freunde“ und „Kontakte“ im Web aussprechen, beruhen letztlich – manchmal über zwei oder drei Zwischenstufen versteckt – nicht doch wieder auf Empfehlungen von Profis? Weil der „follower“ die Empfehlung vorher woanders, vielleicht beim professionellen Weinkritiker gelesen hat oder weil sich hinter seiner Maske nur ein werbender Weinhändler versteckt?

Aber das interessiert letztlich nur den, der bei diesem Spiel zu verlieren droht, den professionellen Kritiker. Natürlich hat der allein aufgrund der enormen Anzahl Weine, die er im Laufe eines Jahres verkostet, einen unbestreitbaren Wettbewerbsvorteil, uns seine Aussagen sollten, „sauberes“, unabhängiges Arbeiten einmal vorausgesetzt, in punkto Zuverlässigkeit und Autorität auch nur schwer zu übertreffen sein. Das jedoch kommt nur zum Tragen, wenn er die Resultate seiner Arbeit auch spannend und (!) glaubwürdig darstellt. Letztlich kann er diesen neuen Wettbewerb nur gewinnen, wenn er die neuen Ausdrucksformen seiner – einstmals nur passiven, jetzt auch aktiven – Leser in seine Arbeit integriert, ihre Anregungen aufnimmt, ihren Empfehlungen seinerseits „folgt“, kurz, den aktiven Dialog mit ihnen sucht, anstatt sich von ihnen abzuschotten.

Das gilt dann allerdings nicht mehr nur für den Weinjournalisten, sondern für fast alle Sparten und Rubriken, dazu aber mehr im vierten Teil meiner Betrachtungen, in denen ich etwas detaillierter darauf eingehen will, was das bisher Gesagte für Journalismus und Verlegertum bedeutet.

Dieser Beitrag gibt die Meinung des Autors wieder, nicht notwendigerweise die der Redaktion des Freitag.
Geschrieben von

Eckhard Supp

Journalist, Buchautor und Herausgeber von ENO WorldWine (www.enobooks.de)

Avatar

Was ist Ihre Meinung?
Diskutieren Sie mit.

Kommentare einblenden