Private Ear

Sound-Forensik Lawrence Abu Hamdan macht Klänge für kriminaltechnische Ermittlungen nutzbar. Doch auch diese sind manipulierbar

Man stelle sich ein Gefängnis vor, das noch nie jemand gesehen hat, der dort festgehalten wurde. Verhaftete kommen mit verbundenen Augen an und verschwinden dann im Dunkeln. Die räumliche Desorientierung wird ergänzt durch eine gnadenlose Logik des Entzugs – nicht nur der Sichtbarkeit, sondern auch des Sehens. Bei jedem Kontakt mit den Wärtern sind die Augen der Insassen verbunden oder sie müssen mit den Händen bedeckt sein. Die Regeln verlangen absolute Stille.

Das syrische Gefängnis Saydnaya liegt etwa 25 Kilometer nördlich von Damaskus in der Wüste. Es ist nicht nur ein Ort, an dem brutal gefoltert wird – das Gebäude selbst, sagt Eyal Weizman, ist ein Folterinstrument. Weizman ist Direktor von Forensic Architecture, einem der Universität von London angeschlossenen Institut, das mit neuen Recherchemethoden Menschenrechtsverletzungen auf den Grund geht. Aus der Schwärze von Saydnaya ist hier eine neue Enzyklopädie der Klänge entstanden. Die Mitarbeiter von Forensic Architecture haben die akustischen Erinnerungen ehemaliger Gefangener abgeglichen und in ein dreidimensionales Computermodell des Gebäudes übertragen. Aus Schritten, klackenden Türschlössern, dem Geräusch des Wassers, das von den Decken tropft, und dem Hall von Schreien ergab sich nach und nach die Topografie eines unsichtbaren Orts.

Nicht nur Gefangenschaft, Gewalt und Folter – Verbrechen jeder Art lassen sich klanglich verzeichnen. Statt einfach nur atmosphärische Störungen zu sein, können sich Hintergrundgeräusche zu juristischen und politischen Wahrheiten verdichten. Was den Ermittlern der Fernsehserie CSI Haare, Hautschuppen oder Mikropartikel, sind dem Sound-Forensiker Tonschnipsel und Klangumgebungen. Indem Töne technisch vermessbar und codierbar werden, rücken sie immer mehr ins Zentrum kriminologischen Interesses und liefern inzwischen eine neue Qualität strafrechtlich relevanter Indizien und Beweise.

1816 fing es an

Maßgeblich beteiligt an der virtuellen Rekonstruktion des syrischen Verlieses war der Künstler Lawrence Abu Hamdan, der für seine Beschäftigung mit akustischer Forensik – also mit der Nutzbarmachung von Klängen, Tönen und Geräuschen für kriminaltechnische Ermittlungen – kürzlich den mit 25.000 Euro dotierten Nam June Paik Award des Landes Nordrhein-Westfalen verliehen bekam. Die Installation Earshot basiert auf Material, mit dem nachgewiesen werden konnte, dass zwei palästinensische Jugendliche von israelischen Soldaten durch scharfe Munition getötet wurden, obwohl diese nach eigener Aussage nur mit Gummigeschossen gezielt hatten. Abu Hamdan analysierte die Tonaufnahmen der Schüsse: „Da die Körper der Opfer religiös bestattet worden waren und nicht zur Verfügung standen, griff ich zur Autopsie des Klangs.“

Lawrence Abu Hamdan tritt als Klangexperte für Amnesty International unter anderem auch vor dem Internationalen Strafgerichtshof als Gutachter auf. „Ich arbeite als Private Ear“, beschreibt er seine Rolle als Ermittler in Anlehnung an die englische Bezeichnung des Privatdetektivs als „Private Eye“: „Die Mehrzahl der Verbrechen findet im Verborgenen statt, doch Töne überspringen Grenzen und dringen nach draußen. Deshalb ist die O-Ton-Forensik heute von so großer Bedeutung.“ Auch in den Fällen um Trayvon Martin, Michael Brown oder Oscar Pistorius waren Berichte von Ohrenzeugen wichtige Elemente der Beweisaufnahme.

Im Mittelpunkt der forensischen Aufmerksamkeit steht die Untersuchung der menschlichen Stimme. So genannte Automatic Speaker Recognition Systems (ASRS) arbeiten daran, durch biometrische Stimmerkennung einen eindeutigen „Fingerabdruck“ der Sprechweise jedes Einzelnen anzufertigen. Die marktführende Software Batvox etwa kommt in mittlerweile 35 Ländern bei Fahndung und Überwachung zum Einsatz, auch in der Bundesrepublik und den USA.

Als Pionier der forensischen Sprachwissenschaft gilt der englische Linguist und Professor Peter French, der seit über 30 Jahren weltweit in Tausenden Gerichtsprozessen aufgetreten ist, ob bei Verfahren gegen Kriegsverbrecher oder der Untersuchung von Nordirlands Bloody Sunday. Frenchs Geschäft nahm Fahrt auf, als 1984 in Großbritannien der Police and Criminal Evidence Act (PACE) erlassen wurde: Sämtliche polizeilichen Verhörräume sind seitdem mit Aufnahmegeräten versehen, Tonkassetten füllten fortan ganze Lagerhallen. Nicht nur was, sondern wie jemand sprach, wurde Gegenstand der Untersuchung. Klang der Verdächtige ängstlich, schien etwas auswendig gelernt, was für Charaktermerkmale ließen sich ablesen? Profile wurden erstellt, Linguisten waren auf einmal gefragte forensische Experten, und Peter French erkannte, dass Laute immer politisch befrachtet sind. Mit dem Aufzeichnen telefonischer Notrufe wurden dann auch O-Töne und Geräusche des Tatorts phonetisch ausgewertet. So wurde ausgerechnet das Jahr 1984 zur Keimzelle heutiger flächendeckender Überwachungsmethoden.

Den Anfang des forensic listening verortet Lawrence Abu Hamdan aber bereits mit der Erfindung des Stethoskops im Jahr 1816: Indem ein Arzt die inneren Geräusche des Körpers abhorchte, umging er die subjektive Aussage des Patienten und kommunizierte stattdessen unmittelbar mit dessen Organen, was zugleich eine Objektivierung der medizinischen Erkenntnis bedeutete. Heutige Dialekttests, wie sie etwa für Asylsuchende in Ländern wie Australien, Belgien, Schweden, der Schweiz oder Deutschland angewandt werden, versuchen etwas Ähnliches: Interviews werden nur noch scheinbar durchgeführt, um inhaltliche Rückschlüsse zu ziehen. Tatsächlich ergänzt die Stimmanalyse nicht die Interpretation des Gesagten, sondern löscht dessen Inhalt aus. Ähnlich wie schon beim „Petersilien-Massaker“ 1937 in der Dominikanischen Republik kann ein einziges falsch ausgesprochenes Wort tödliche Folgen haben. Angestachelt durch rassistische Äußerungen des Diktators Rafael Trujillo waren damals 20.000 mutmaßliche Einwanderer aus Haiti ermordet worden, die das „r“ in perejil nicht korrekt aussprachen.

Agenturen wie das schwedische Unternehmen Sprakab bieten heute die Dialektanalyse als Dienstleistung an, um aus Aussprache und stimmlichen Eigenheiten Rückschlüsse auf die Herkunft der Antragsteller zu ziehen. Wie eine Art algorithmischer Lügendetektor soll die Software Layered Voice Analysis (LVA) funktionieren. Sie zerlegt sprachliche Äußerungen in Phoneme, ihre kleinste Einheit also, und ist so angeblich in der Lage, zu erkennen, wenn der oder die Sprechende unter Stress steht oder sich verstellt. Dass Sprache sozial und kulturell bedingt und mitnichten national eindeutig zu verorten ist, dass gerade die Lebenswirklichkeit von Flüchtenden durch vielerlei Einflüsse, Aufenthalte in Lagern oder lange Zwischenstopps geprägt ist, unterschlagen solche Untersuchungen.

Photoshop für Töne

Angesichts dieser Entwertungen des willentlichen Sprechakts wird nachvollziehbar, wieso es für einen Künstler wie Lawrence Abu Hamdan politisch gerade nicht darum gehen kann, Betroffenen „eine Stimme zu geben“. Stattdessen holt er die Störgeräusche aus dem Hintergrund nach vorne und verschiebt die Aufmerksamkeit vom Sprechakt auf die Umstände des Zuhörens – ob im Gerichtssaal, im Parlament oder im öffentlichen Raum. Letzterer wird zunehmend zur forensischen Materialkammer, etwa durch die akustische Überwachungssoftware Shotspotter, die in New York weiträumig installiert wurde und das Abfeuern von Waffen automatisch meldet.

Dabei geht die digitale Erfassung klanglicher und stimmlicher Ereignisse schon in die nächste, postfaktische Schleife: Gerade hat die Firma Adobe mit ihrem Projekt VoCo (Voice Conversion) eine Software vorgestellt, die anhand eines Stimmsamples Sprachäußerungen nachbearbeiten und verändern kann, ohne dass dies erkennbar wäre. Was Photoshop für die Bildbearbeitung ist, könnte VoCo für die Bearbeitung von Audiodateien werden. Vermeintlich originale Tonaufnahmen lassen sich damit problemlos fälschen, auch wenn Adobe seine Skeptiker beruhigt, ein „digitales Wasserzeichen“ werde falsche von echten Inhalten unterscheiden.

Nimmt man die Software Face2Face hinzu, die sich derzeit noch in der Entwicklung befindet, dann zeichnet sich ab, dass bald auch eine live gesendete Rede keineswegs mehr echt sein muss. Mittels „Real-time Face Capture“ soll das Programm die Mimik einer Person, die mit einer einfachen Webcam abgefilmt wird, simultan auf das Gesicht einer anderen Person, die auf einem Bildschirm zu sehen ist, übertragen können.

06:00 18.01.2017

Kommentare