Найти тему

Debatte über den Einsatz von Prognosealgorithmen im Vereinigten Königreich.

Оглавление
Prädiktive Algorithmen und ihre Fähigkeit, Probleme zu erkennen, bevor sie auftreten, haben vielfältige Anwendungen im Bereich der öffentlichen Verwaltung, vom Verkehr bis zur Sozialhilfe. Dies gilt umso mehr, wenn es sich um kommunale Institutionen handelt.

Und in einigen Ländern scheinen sie das bereits erkannt zu haben: Eine aktuelle Studie, die gemeinsam von der Cardiff University und Sky News durchgeführt wurde, zeigt, dass bis zu 53 Rathäuser und 14 der 45 Polizeikräfte des Landes diese umstrittene Technologie bereits nutzen.

Dies hat zu einer Debatte im Land geführt. Auf der einen Seite behaupten die Befürworter der Verwendung von Algorithmen, dass ein vorhersehbares Problem leichter verhindert werden kann, während die Gegner darauf hinweisen, dass nicht klar ist, wie genau die enorme Menge an personenbezogenen Daten, die die Algorithmen benötigen, um ihre Vorhersagen zu treffen, verwendet wird.

https://i.pinimg.com/564x/56/f8/83/56f883da093ddec5984b2f0ef78fd85f.jpg
https://i.pinimg.com/564x/56/f8/83/56f883da093ddec5984b2f0ef78fd85f.jpg

Das ist kein Minoriten Report.

Die Forscher heben den Stadtrat von Bristol als eine bahnbrechende kommunale Institution in diesem Bereich hervor, die über eine speziell dafür eingerichtete Einrichtung verfügt, den Bristol Integrated Analytics Hub.

Seine Mission ist es, Informationen über Einkommen, Schulbesuch, Fälle von Teenagerschwangerschaft oder psychischen Erkrankungen usw. aus den Daten von 54.000 lokalen Familien zu sammeln.

Ziel ist es, anhand dieser Daten vorherzusagen, welche Kinder am stärksten häuslicher Gewalt, sexuellem Missbrauch oder ähnlichen Situationen ausgesetzt sind.

Das System funktioniert, indem es jedem Minderjährigen eine Punktzahl von 0 bis 100 zuordnet, eine Zahl, die seine Gefährdungsbeurteilung angibt und von dort aus den Sozialarbeitern in der Gemeinde Vorschläge macht, so wie es eine Empfehlungsmaschine von Websites wie Amazon oder Facebook tun würde.

"Unsere Forschung zeigt eine versteckte Revolution, die in den britischen öffentlichen Diensten stattfindet. Es gibt kaum eine Aufsicht über diesen neuen Bereich, da weder die zentrale noch die lokale Regierung Informationen darüber bereitstellt, wie die Daten der Bürger verwendet und weitergegeben werden."

Laut dem Journalisten Rowland Manthorpe sagen sie, dass sie im Laufe des Berichts festgestellt haben, dass die Öffentlichkeit die prädiktiven Algorithmen weiterhin durch das Prisma eines einzigen fiktiven Werkes sieht: Minority Report. "Ich meine nicht, dass jeder, den wir getroffen haben, es erwähnt hat.... aber fast.

Was, wenn Beamte zu viel von dem glauben, was der Algorithmus sagt?

"Glücklicherweise (oder leider hängt es vom Standpunkt ab) ist die Realität sehr weit von der Vorkriminalität entfernt", erklärt er.

Die von Kommunen und Polizeikräften verwendeten Algorithmen sind weder per se künstliche Intelligenz, noch führen sie eine automatische Überwachung durch: Sie beschränken sich darauf, den städtischen Arbeitnehmern Vorschläge zu unterbreiten.

Laut Joanna Redden, Co-Direktorin des Justice Data Lab an der Universität Cardiff, "neigen die Menschen dazu, dem Computer zu vertrauen; selbst wenn sie sagen, dass er Ihnen helfen kann, eine Entscheidung zu treffen, ersetzt er tatsächlich die menschliche Entscheidung, weil Sie sicher sind, dass Sie immer Recht haben werden.

Inzwischen wissen die Betroffenen nicht einmal, dass ihr Leben durch das Ergebnis eines Algorithmus beeinflusst wird.

Die Beamten und Polizisten, mit denen die Ermittler sprachen, waren sich "der Gefahr" bewusst, Entscheidungen zu treffen, die auf einer nur unvollständigen Aufzeichnung der Vergangenheit der Menschen beruhen. Mit Manthorpes Worten:

"Ich hatte das Gefühl, dass sie auf eine Art und Weise, wie ich es fast nie tue, wenn ich mit Big Tech spreche, auf die Risiken ihrer eigenen Technologie achten."

Sparsamkeit 2.0?

Im Gegensatz zum Big Business haben die Versorgungsunternehmen jedoch kein Geld und wenig Handlungsspielraum. Sie führen diese Art von Programmen mit dem Versprechen ein, dass sie die Kosten senken werden, obwohl sie eigentlich mehr investieren sollten, um den Übergang zu erleichtern.

Manthorpes Fazit ist, dass diese Wette auf Algorithmen wenig mit dem Glauben an das Potenzial der Technologie zum Aufbau eines Wohlfahrtsstaates 2.0 zu tun hat, und viel mit der "Automatisierung der Sparsamkeit":

"Mit Einsparungen von mehr als 40% seit 2010 ist das Potenzial von Algorithmen zur Kostensenkung zu attraktiv, um sich zu wehren."
"Aber ohne angemessene Garantien können diese Systeme die bestehenden Schwierigkeiten verschärfen, indem sie die Ärmsten und Schwächsten einem System der Disziplinierung ohne Transparenz, Rechenschaftspflicht oder, was am wichtigsten ist, der Menschlichkeit unterwerfen."