80
you are viewing a single comment's thread
view the rest of the comments
view the rest of the comments
this post was submitted on 07 Dec 2023
80 points (100.0% liked)
DACH - jetzt auf feddit.org
8872 readers
1 users here now
Diese Community wird zum 01.07 auf read-only gestellt. Durch die anhäufenden IT-Probleme und der fehlende Support wechseln wir als Community auf www.feddit.org/c/dach - Ihr seid herzlich eingeladen auch dort weiter zu diskutieren!
Das Sammelbecken auf feddit für alle Deutschsprechenden aus Deutschland, Österreich, Schweiz, Liechtenstein, Luxemburg und die zwei Belgier. Außerdem natürlich alle anderen deutschprechenden Länderteile der Welt.
Für länderspezifische Themen könnt ihr euch in folgenden Communities austauschen:
Eine ausführliche Sidebar findet ihr hier: Infothread: Regeln, Feedback & sonstige Infos
Auch hier gelten die Serverregeln von https://feddit.de !
Banner: SirSamuelVimes
founded 1 year ago
MODERATORS
Also wenn ich manuell die genau gleiche Berechnung durchführe ist das okay?
Du kannst auch einfach gar nicht antworten (als Vermieter z.B. nicht auf Nachfragemails reagieren), oder dir einfach eine andere Begründung aus den Fingern saugen, wie bisher auch schon.
Mein Punkt war dass Automatisierung hier doch nicht das Problem ist, im Gegenteil, Automatisierung heißt eigentlich wenn überhaupt bessere Nachvollziehbarkeit wie eigentlich entschieden wird. Manuelle Entscheidungen führen nämlich genau zu dem was du gerade beschrieben hast.
Mit KI sind teilweise selbst die automatisierten Entscheidungen schlecht nachvollziehbar.
Das stimmt wohl aber diese Art von Regelungen kommen meist von den Leuten die das Wort Algorithmus verwenden als wäre es etwas schlechtes.
Es ist vlt. noch nicht okay, aber es ist zumindest deutlich besser.
Das bedeutet, dass zumindest ein Memsch drübergeschaut haben muss und Fehler im System bemerkt werden können (Wenn das gewollt ist). Vollautomatische Systeme die komplexe Entscheidungen treffen können unentdeckte Fehler lange mitschleppen. Gerade wenn z.B. ein neuronales Netz die Bonität prüft können so Fehlschlüsse wie "ausländischer Name = schlecht" oder der Schufaklassiker Postleitzahl als Einflussfaktor rauskommen.
Dann sollen sie vorschreiben dass hier ein bekannter, nachvollziehbarer Algorithmus verwendet werden muss statt irgendwelcher AI-Verfahren, das ist aber nicht das gleiche with manuell und Automatisierung. Im übrigen schleppen gerade manuelle Prozesse auch sehr oft problematische Verfahren über Jahrzehnte mit ohne dass jemand groß darüber nachdenkt.