Die Verordnung schreibt vor, dass Entscheidungen, die für Betroffene rechtliche Wirkung entfalten, nicht nur durch die automatisierte Verarbeitung von Daten getroffen werden dürfen.
Also wenn ich manuell die genau gleiche Berechnung durchführe ist das okay?
Du kannst auch einfach gar nicht antworten (als Vermieter z.B. nicht auf Nachfragemails reagieren), oder dir einfach eine andere Begründung aus den Fingern saugen, wie bisher auch schon.
Mein Punkt war dass Automatisierung hier doch nicht das Problem ist, im Gegenteil, Automatisierung heißt eigentlich wenn überhaupt bessere Nachvollziehbarkeit wie eigentlich entschieden wird. Manuelle Entscheidungen führen nämlich genau zu dem was du gerade beschrieben hast.
Es ist vlt. noch nicht okay, aber es ist zumindest deutlich besser.
Das bedeutet, dass zumindest ein Memsch drübergeschaut haben muss und Fehler im System bemerkt werden können (Wenn das gewollt ist). Vollautomatische Systeme die komplexe Entscheidungen treffen können unentdeckte Fehler lange mitschleppen. Gerade wenn z.B. ein neuronales Netz die Bonität prüft können so Fehlschlüsse wie “ausländischer Name = schlecht” oder der Schufaklassiker Postleitzahl als Einflussfaktor rauskommen.
Dann sollen sie vorschreiben dass hier ein bekannter, nachvollziehbarer Algorithmus verwendet werden muss statt irgendwelcher AI-Verfahren, das ist aber nicht das gleiche with manuell und Automatisierung. Im übrigen schleppen gerade manuelle Prozesse auch sehr oft problematische Verfahren über Jahrzehnte mit ohne dass jemand groß darüber nachdenkt.
Also wenn ich manuell die genau gleiche Berechnung durchführe ist das okay?
Du kannst auch einfach gar nicht antworten (als Vermieter z.B. nicht auf Nachfragemails reagieren), oder dir einfach eine andere Begründung aus den Fingern saugen, wie bisher auch schon.
Mein Punkt war dass Automatisierung hier doch nicht das Problem ist, im Gegenteil, Automatisierung heißt eigentlich wenn überhaupt bessere Nachvollziehbarkeit wie eigentlich entschieden wird. Manuelle Entscheidungen führen nämlich genau zu dem was du gerade beschrieben hast.
Mit KI sind teilweise selbst die automatisierten Entscheidungen schlecht nachvollziehbar.
Das stimmt wohl aber diese Art von Regelungen kommen meist von den Leuten die das Wort Algorithmus verwenden als wäre es etwas schlechtes.
Es ist vlt. noch nicht okay, aber es ist zumindest deutlich besser.
Das bedeutet, dass zumindest ein Memsch drübergeschaut haben muss und Fehler im System bemerkt werden können (Wenn das gewollt ist). Vollautomatische Systeme die komplexe Entscheidungen treffen können unentdeckte Fehler lange mitschleppen. Gerade wenn z.B. ein neuronales Netz die Bonität prüft können so Fehlschlüsse wie “ausländischer Name = schlecht” oder der Schufaklassiker Postleitzahl als Einflussfaktor rauskommen.
Dann sollen sie vorschreiben dass hier ein bekannter, nachvollziehbarer Algorithmus verwendet werden muss statt irgendwelcher AI-Verfahren, das ist aber nicht das gleiche with manuell und Automatisierung. Im übrigen schleppen gerade manuelle Prozesse auch sehr oft problematische Verfahren über Jahrzehnte mit ohne dass jemand groß darüber nachdenkt.