Intime Fotos und Videos werden oft auch ohne Zustimmung der dargestellten Personen ins Netz hochgeladen. Das Hamburger Start-up „Am I in Porn?“ bietet seinen Nutzern die Möglichkeit, ungewollte Aufnahmen aufzuspüren.

Pornografie ist im digitalen Zeitalter leicht verbreitbar und zugänglicher als je zuvor. Auch intime Aufnahmen, die lediglich für private Zwecke aufgenommen wurden, landen inzwischen im Netz. Sogenannter Non Consensual Porn, also die Verbreitung und Veröffentlichung von sexuellen Bildern und Videos ohne die Zustimmung der Abgebildeten, kann für Betroffene schnell rufschädigend und manchmal sogar existenzbedrohend werden. Häufig ist den Opfer gar nicht bewusst, dass explizite Inhalte von ihnen im Internet kursieren.

Yannick Schuchmann ist Experte für technisch gestützte Lösungsentwicklungen. Mit seinen Partnern Jonas Schnabel und Lukas Henseleit rief er 2019 die Plattform ‘Am I in Porn?’ ins Leben.

Yannick Schuchmann, Lukas Henseleit und Jonas Schnabel haben sich “die Wahrung der eigenen Würde im digitalen Raum” zur Mission gemacht: Zusammen gründeten und entwickelten sie das Portal „Am I in Porn?“. Dank künstlicher Intelligenz kann man dort mithilfe eines Fotos überprüfen, ob ungewollt pornografische Inhalte verbreitet wurden. Im Interview mit FINK.HAMBURG spricht Schuchmann darüber, wie das Konzept der „Digital Dignity“ aussieht, wie es zur Idee des Portals kam sowie über mögliche Gefahren und künftige Entwicklungen im Bereich der Deepfakes (siehe Kasten).

FINK.HAMBURG: Warum habt ihr „Am I in Porn?’’ gegründet?

Yannick Schuchmann: Eine Freundin von einem Bekannten hatte sich von ihrem Freund getrennt. Ihr Ex-Freund hat intime Inhalte von ihr ins Internet gestellt. Sie selbst wusste nichts davon, aber Menschen aus ihrem Bekanntenkreis haben die Sachen zugespielt bekommen. Da gehen Leute dran kaputt. So kamen wir mit Rachepornografie das erste Mal in Berührung und haben beschlossen, etwas dagegen zu unternehmen. 

Wie funktioniert “Am I in Porn?”

1. Um ein Foto hochzuladen, musst du dich nicht verifizieren.
2. Der Service kostet zwei Euro.
3. Nachdem die Suchmaschine die Seite Pornhub durchforstet hat, bekommst du eine Nachricht.
4. Die Inhalte werden dir per Link gesendet.
5. Deine Bilder werden anschließend den Betreibern zufolge in keiner Datenbank gespeichert.

Es gibt einem ein ziemlich komisches Gefühl, wenn irgendwo im Internet Inhalte von einem kursieren. Ich bin zum Beispiel nicht auf Instagram und dennoch tauchen Bilder von mir im Internet auf, weil mich Leute in der Öffentlichkeit fotografiert haben oder ich auf Gruppenfotos bin. Bei Fotos wie Nacktaufnahmen, die sehr intim und eigentlich in einer Beziehung entstanden sind, ist das dann nochmal krasser, wenn man die von sich im Internet entdeckt.

Wie könnt ihr feststellen, ob jemand auf einer Pornoseite ist?

Im letzten Jahr haben wir begonnen, eine Datenbank aufzubauen, indem wir Videos von einer Plattform untersucht haben. Zum Start haben wir die Plattform Pornhub genommen und begonnen, alle Videos dort zu analysieren. Dadurch haben wir sozusagen eine mathematische Repräsentation von jedem Gesicht der Seite mit Referenz zum betreffenden Video. Ein Kunde oder Suchender hat die Möglichkeit, ein Foto von sich in unserer Suchmaschine hochzuladen. Unsere Software analysiert dann das Gesicht, basierend auf ganz vielen verschiedenen Merkmalen und erstellt eine Repräsentation davon. Diese wird mit allen bekannten Repräsentationen aus Pornovideos abgeglichen und es wird eine Ähnlichkeit errechnet. Der Kunde bekommst dann die 30 ähnlichsten Videos zugespielt. Das heißt allerdings nicht unbedingt, dass derjenige in dem Video vorkommt. Wir können nur eine Wahrscheinlichkeit errechnen.

Wenn man pro Suche von euch 30 Videos zugesendet bekommt, macht ihr euch keine Sorgen, dass ihr an der Verbreitung von Pornografie beteiligt seit?

Dazu muss man sich unsere Zielgruppe genauer anschauen. Das sind Menschen, die sich sorgen, Opfer von Rachepornografie oder Deepfakes geworden zu sein. Ihnen geben wir die Möglichkeit, darüber wieder Kontrolle zu erlangen. Wir richten uns ausdrücklich nicht an Menschen, die auf der Suche nach pornografischem Material sind. Der Use Case zum Versenden der Links ist daher nicht Pornografie, sondern das Wiedererlangen der Menschenwürde im digitalen Zeitalter.

Man muss sich aber auf eurem Portal nicht zusätzlich verifizieren. Jede*r könnte also beispielsweise sagen: Ich habe jemanden kennengelernt und überprüfe, ob von der Person Inhalte im Netz kursieren. Ist das nicht gefährlich?

Das stimmt und das ist ein heikles Thema. Wir arbeiten bereits mit höchster Priorität an der Verifizierung, haben uns jedoch entschieden, zunächst ohne online zu gehen, um jetzt schon Menschen helfen zu können. Um Missbrauch jetzt schon entgegenzuwirken, kann man keine gespeicherten Dateien auswählen, sondern nur ein Foto machen und dieses direkt hochladen. Manche würden jetzt sagen, wir fördern eher die Verbreitung von diesen Videos. Unser Anspruch ist aber, Menschen die Rechte an ihren eigenen Inhalten im Netz zurückzugeben.

Und was mache ich, wenn ich mich in einem Video entdecke? 

Falls du dich wiedergefunden hast, bekommst du im nächsten Schritt eine Step-by-Step-Anleitung, wie du auf dieser Plattform veranlassen kannst, dass das Video von dieser Seite entfernt wird. Man kann aber leider nicht garantieren, dass das Video nicht am nächsten Tag woanders hochgeladen wird.

„Wir wollen, dass Menschen auch im Netz ihre Würde bewahren können”

Habt ihr auch andere Seiten außer Pornhub genutzt?

Nein, wir haben bisher nur Pornhub analysiert. Weitere Pornografie-Seiten konnten wir bisher als Start-up wegen des Aufwandes nicht in unserer Datenbank aufnehmen. Uns ist wichtig, Menschen eine Möglichkeit zu geben, ungewollte Inhalte aus dem Netz aufzuspüren und entfernen lassen zu können. Das nennt sich „Digital Dignity“, also digitale Menschenwürde. Bei dieser Idee geht es darum, zu jeder Zeit jeden Nutzer darauf aufmerksam zu machen, was für Inhalte von ihm im Internet herumschwirren.

Also nicht nur auf einer Pornografie-Seite?

Unsere Vision ist, dass Nutzer eine App auf ihrem Smartphone haben und eine Benachrichtigung bekommen können, wenn ihr Gesicht irgendwo auftaucht. Auf dieser App soll dann auch übersichtlich gelistet sein, wo die Bilder überall im Netz verstreut sind. Langfristig planen wir, Social-Media-Plattformen zu integrieren. 

Es werden ja laufend neue Inhalte auf Pornhub hochgeladen. Erhält eure Datenbank auch regelmäßig ein Update? Und falls ja, wie macht ihr das?

Wir haben uns am Anfang darauf fokussiert, eine Datenbank aufzubauen, um damit das ganze System zu testen. Nachdem das stabil lief, haben wir angefangen, den Importer (ein Programm, das automatisch Daten von einer Website abgreift, Anm. d. Red.) kontinuierlich nebenher laufen zu lassen. Das läuft sozusagen rund um die Uhr, um sicherzustellen, dass auch aktuelle Videos damit abgefangen werden.

Helft ihr auch bei rechtlichen Schritten, wenn sich jemand in einem der Videos entdeckt?

Wir weisen darauf hin, dass wir die Person unterstützen wollen, wenn sie Videos von sich findet. Allerdings hat das bislang noch niemand genutzt. Pornhub hat in der Vergangenheit eigentlich bei Fällen, die gemeldet wurden, relativ schnell das Video gelöscht. Zudem untersucht das Unternehmen das Userprofil, welches das Video hochgeladen hat.

Was ist ein Deepfake?

Deepfakes sind mit künstlicher Intelligenz hergestellte Fake-Videos, bei denen das Aussehen bestehender Personen durch das einer anderen ersetzt wird. Deepfakes sehen äußerst realistisch aus und können sogar Mimik imitieren.

Lässt sich immer überprüfen, wer hinter einem hochgeladenen Video steckt? Gibt es für die Person auch Konsequenzen?

Wenn es ein anonymes Profil ist, ist es relativ schwer, das nachzuvollziehen. Bei Pornhub muss man sich als Nutzer nicht verifizieren. Das heißt, wenn der Username nicht dem echten Namen entspricht, kann man nur über IP-Adressen gehen. Um an die zu gelangen, muss ein Strafverfahren eröffnet werden.

„Deepfake wird eines der wichtigsten menschenrechtlichen Themen in den nächsten Jahren sein’

Wer nutzt eure Suchmaschine? 

Ich glaube, dass es hauptsächlich Privatleute sind. Generell ist es aber für jeden Menschen spannend, der auch nur ein schlechtes Gefühl hat. Gleichzeitig ist das Thema Deepfake stark im Kommen. Das macht eine solche Suchmaschine auch für Menschen interessant, die in der Öffentlichkeit stehen.

Gab es die Technik zum Scannen des Gesichtes schon oder habt ihr sie komplett neu entwickelt?

Die Technologie basiert auf einem Paper von Google-Ingenieuren, dem  FaceNet. Dazu gab es auch eine Open-Source-Entwicklung (ein unlizensiertes Programm, das frei verfügbar ist, Anm. d. Red.). Das haben wir als Basis für unser Programm genommen und optimiert.

Lernt eure Anwendungen noch dazu? Bei der KI von Google war es beispielsweise so, dass sie mit jeder Anwendung schlauer geworden ist und Leute besser differenzieren konnte.

Unsere Software lernt ebenfalls dazu. Sobald ein Gesicht gemeldet wurde, kann unsere KI dadurch weiter lernen, sich verbessern und Ähnlichkeiten besser differenzieren. Momentan ist sie trainiert mit einem Set aus Daten, das aus professionellen Pornodarstellern besteht.

Es gab bis jetzt zum Glück noch niemanden, der/die sich über eure Plattform in einem Video wiedergefunden hat – wie viele Menschen haben es denn überhaupt schon ausprobiert?

Wir sind ja erst vor Kurzem gestartet. Deswegen hatten wir noch nicht so viele Nutzer. Wir hatten am Anfang auch ein Vertrauensproblem. Das Thema ist sehr heikel, wenn in der Domain das Wort “Porn” vorkommt und in der Headline steht: “Finde dich in Pornovideos”. Die größte Herausforderung ist es daher, vertrauenswürdig für potenzielle Nutzer zu wirken.

Titelfoto: Dainis Graveris/Unsplash