27
submitted 1 year ago by Synecdoche@feddit.de to c/dach@feddit.de
all 20 comments
sorted by: hot top controversial new old
[-] Lemmchen@feddit.de 20 points 1 year ago* (last edited 1 year ago)

Besonders perfide: Offenbar werden Kinderfotos häufig auch nachträglich bearbeitet und für die Verbreitung pornografischer Inhalte missbraucht. Julia Kaiser von der Landesmedienanstalt des Saarlandes beschreibt: "Durch Kinderbilder, die im Netz frei verfügbar sind, werden Tatgelegenheiten für Hersteller computeranimierter Kinderpornografie geschaffen. Aufnahmen bekleideter Kinder können so umgestaltet werden, dass sie leicht bekleidete oder gar nackte Kinder abbilden. So werden auch vermeintlich harmlose Bilder sexualisiert oder in einen sexuellen Kontext gestellt."

Sorry, wenn ich da jetzt mal entgegen argumentieren muss, aber das ist ein so dermaßen irrelevantes Randproblem. Da jetzt "Pädokriminelle" daraus zu machen und das als tatsächlich überall lauernde Gefahr darzustellen ist doch völlig absurd. Wisst ihr wie viel echtes CSAM existiert? Es ist enorm viel. Glaubt mal nicht, dass es irgendwer tatsächlich nötig hätte Familienbilder zu shoppen. Die Suche nach echtem Material ist sehr viel weniger aufwändig.

Natürlich wird hier die Privatsphäre der Kinder verletzt. Und das sollte auch das Thema sein, worüber geredet werden muss. Aber doch nicht irgendwelche Räuberpistolen von nachträglich bearbeiteten Familienfotos, also echt. Ich würde es ja noch im Kontext "Deepfakes" verstehen, aber das wird ja hier quasi gar nicht erwähnt und selbst dann ist es ein allgemeines Problem und keines, welches auf Kinder beschränkt wäre.

Vielleicht bin ich aber auch einfach zu kinderlos um das Ausmaß völlig zu verstehen, wer weiß.

[-] tin@fedica.ch 1 points 1 year ago

@Lemmchen Als würde die Problematik gerade nur aus einem einzigen Aspekt bestehen... Kinderbilder gehören nicht aufs Netz. @Synecdoche

[-] Wirrvogel@feddit.de 18 points 1 year ago

Das ist so verrückt. Einerseits erlauben soziale Netzwerke, dass man seine Kinder in allen Lebenslagen der Öffentlichkeit präsentiert, aber wenn der Suchalgorithmus ein nicht veröffentlichtes, in deiner privaten Cloud bei Microsoft/Google/Apple gespeichertes, Badebild deines Kleinkindes entdeckt, wird dir der Account gesperrt und wieder bekommen ist ohne Anwalt aussichtslos und mit schwer bis aussichtslos.

https://www.heise.de/hintergrund/Automatisierte-Scans-Microsoft-sperrt-Kunden-unangekuendigt-fuer-immer-aus-7324608.html

[-] akarossa@feddit.de 14 points 1 year ago

habe in whatsapp so viele menschen die mich fast nicht kennen (flüchtige arbeitskollegen, reisegruppen, usw), dennoch weiß ich alles über deren kinder. geburtstage, krankheiten, probleme... die müllen ihren status täglich mit updates und bildern zu, vollkommen egal wer das sieht.

bin immer wieder aufs neue schockiert: eine person teilt auch manchmal intimere bilder, zb nach dem duschen in unterwäsche. von ihren kindern!! da war ich kurz davor eine nachricht zu schreiben um sie darauf hinzuweisen, dass anscheinend jeder den status sehen kann und sie keinerlei gewissheit hat, was mit den bildern passiert. verstehe nicht wie man so verantwortungslos handeln kann. schränkt doch wenigstens ein, wer den status sehen kann. bitte.

[-] geizeskrank@feddit.de 9 points 1 year ago

Nunja, einfachste Abhilfe sollte sein, seine Bilder nicht öffentlich zu teilen.

[-] tin@fedica.ch 6 points 1 year ago

@Synecdoche Schon so oft wurde von verschiedenen Seiten darauf hingewiesen, Kinderfotos eben nicht auf dem Netz zu veröffentlichen. Aber zu oft kommt immer noch der Spruch, jeder solle doch machen dürfen, wie er wolle oder man habe nichts zu verbergen. Oh ja, die Digitalkompetenz der Leute ist noch heute leider an vielen Orten minimal.

[-] neolazy@feddit.de 2 points 1 year ago

Ich muss gestehen, das ich das Problem null verstehe. Absolut gar nicht. Was ist die Gefahr?

[-] jmcr@lemmy.ml 2 points 1 year ago* (last edited 1 year ago)

Mir kam das Problem mit den Bildern auch immer abstrakt vor. Als ob für Vegetarier Kochbücher mit Fleischgerichten genauso schlimm wären wie das Schlachten an sich.

Generell gibt es glaub zwei Gefahren:

  1. Viktimisierung: Die fortgesetzte Zirkulation solcher Materialien kann zu anhaltendem psychischem Leid und Trauma bei den Opfern führen.
  2. Nachfrage: Wenn die Verbreitung nicht verfolgt wird, werden Täter ermutigt, neues Material zu produzieren. Somit schützt ein Verbot mittelbar Kinder vor Missbrauch.

Im Artikel ist das Ganze nochmal abstrakter, weil es um Urlaubsfotos geht. In dem Fall greift wahrscheinlich nur der Viktimisierungsaspekt.

[-] neolazy@feddit.de -2 points 1 year ago

Danke für die ernsthafte Antwort.

Viktimisierung kann ich ein bisschen nachvollziehen, allerdings muss das Opfer davon ja erst erfahren um ein Traum zu erleiden. Passiert das wirklich? Hier fehlt mir die Quantifizierung der anscheinend nicht vorhandenen Daten, den was auf irgendwelchen anderen Plattformen passiert bekommt man ja erstmal gar nicht mit.

Zur Nachfrage finde ich auch das es auf die Urlaubsfotos nicht zutrifft. (Natürlich sollte die Verbreitung illegalen Inhalts verfolgt werden, aber davon ist hier nicht die Rede).

this post was submitted on 05 Aug 2023
27 points (100.0% liked)

DACH - jetzt auf feddit.org

8872 readers
1 users here now

Diese Community wird zum 01.07 auf read-only gestellt. Durch die anhäufenden IT-Probleme und der fehlende Support wechseln wir als Community auf www.feddit.org/c/dach - Ihr seid herzlich eingeladen auch dort weiter zu diskutieren!

Das Sammelbecken auf feddit für alle Deutschsprechenden aus Deutschland, Österreich, Schweiz, Liechtenstein, Luxemburg und die zwei Belgier. Außerdem natürlich alle anderen deutschprechenden Länderteile der Welt.

Für länderspezifische Themen könnt ihr euch in folgenden Communities austauschen:

Eine ausführliche Sidebar findet ihr hier: Infothread: Regeln, Feedback & sonstige Infos

Auch hier gelten die Serverregeln von https://feddit.de !

Banner: SirSamuelVimes

founded 1 year ago
MODERATORS