ED-209 ci aspetta dietro l’angolo

Logo di Feddit Logo di Flarum Logo di Signal Logo di WhatsApp Logo di Telegram Logo di Matrix Logo di XMPP Logo di Discord

ED-209 wartet um die Ecke auf uns

Warnung: Dieser Beitrag wurde erstellt 3 Jahren tut

Dies ist ein automatisch aus dem Italienischen übersetzter Text. Wenn Sie unsere Arbeit schätzen und sie gerne in Ihrer Sprache lesen, denken Sie über eine Spende nach, damit wir sie weiterhin durchführen und verbessern können.

Die Artikel von Cassandra-Kreuzung Ich bin unter Lizenz CC BY-SA 4.0

Cassandra-Kreuzung ist eine Spalte, die von erstellt wurde Marco Calamari mit dem „nom de plume“ von Kassandra, geboren 2005.

Jeden Donnerstag, ab 9. September, bieten wir Ihnen an eine alte Prophezeiung von Cassandra, um heute noch einmal gelesen zu werden, um über die Zukunft nachzudenken, abwechselnd mit aktuellen Artikeln, ausgewählt aus den neuesten Veröffentlichungen.

Der Artikel, den wir heute vorschlagen, ist sehr interessant und, obwohl er 2008 geschrieben wurde, unserer Meinung nach sehr aktuell. 13 Jahre später haben wir immer noch Drohnen, die nur unschuldige Zivilisten töten 1 und Gesichtserkennung mit Problemen des Geschlechterrassismus und mehr 2 3.

Trotzdem wird die Gesichtserkennung immer noch verkauft 4 als Wendepunkt für die Sicherheit, ungeachtet der Risiken und Warnungen des Datenschutzgaranten 5.

Dieser Artikel wurde geschrieben am 10. Oktober 2008 von Cassandra

Der Einsatz von Maschinen für Sicherheitsaufgaben, die von Menschen ausgeführt werden sollten, birgt nicht nur Gefahren für den Menschen, sondern ermöglicht auch die Übertragung von Verantwortung auf die Maschine. Es passiert bereits.

10. Oktober 2008 – Wenn wir Zeitungen lesen und den Medien zuhören, lesen wir zufällig Artikel über die zukünftige Entwicklung von Sicherheitssystemen.

Wunderbare Gesichtserkennungsalgorithmen ermöglichen es uns bereits, einen flüchtenden Kriminellen unter den Hunderten von Kameras am Bahnhof Termini automatisch zu verfolgen.

Datenbanken mit Informationen über Flugpassagiere ermöglichen es, potenzielle Terroristen zu entdecken, bevor sie an Bord gehen können.

Intelligente Algorithmen werden es uns ermöglichen, Gesichtsausdrücke und Reaktionen von Menschen zu unterscheiden, die lügen. Die Analyse der Bewegungen jeder Person in einer Menschenmenge wird es uns ermöglichen, die Absichten einer bestimmten Person zu verstehen, bevor sie gefährliche Handlungen ausführt.

Alles automatisch, zuverlässig, sparsam, sauber.

Die Frage, die nie eine Antwort erhält bzw. die in diesen Artikeln nicht einmal formuliert wird, ist, ob die Automatisierung solch heikler Vorgänge sowohl aus nachrichtendienstlicher und rechtlicher Sicht als auch aus Sicht des Schutzes der Bürgerrechte wünschenswert sein könnte?

Es sind drei wichtige Punkte zu berücksichtigen:

Zuverlässigkeit der Automatisierung; Es ist nicht der Hauptpunkt, aber kennen Sie die kleinen Probleme, die die Ihnen bekannten Automatisierungen beeinträchtigen? Die Banktür, die Sie wegen Ihrer Gürtelschnalle nicht hereinlässt? Es wird verwendet, um Maschinengewehre und ihre Besitzer fernzuhalten, aber es hält auch Sie fern, wenn Sie sich nicht ausziehen. Der Geldautomat, der eine vollkommen gültige Karte frisst, weil er sie falsch gelesen hat?

Und was soll man zu den Reaktionen bestimmter Mitarbeiter am Schalter sagen, die auf eine ganz normale Anfrage antworten, dass das Verfahren sie das nicht zulässt oder dass der Computer einfriert? Würden Sie Ihr Leben einem dieser Automatismen anvertrauen? Würden Sie sich von einem elektronischen Richter beurteilen lassen? Besuchen Sie einen elektronischen Arzt? Beichten vor einem elektronischen Beichtvater?

Es gibt Probleme, die keinen Automatismus zulassen.

Auf einer überfüllten und schlecht beleuchteten Straße zu patrouillieren und die Guten von den Bösen zuverlässig zu unterscheiden, ist für einen Menschen schon fast unmöglich. In „Robocop“ von Paul Verhoeven der Roboter ED-209 (Enforcement Droid 209 – Force Robot) ist eine Karikatur dieser Automatismen zur Kontrolle von Menschen. Groß und laut, es brüllt wie ein Löwe, aber es funktioniert schlecht, es tötet diejenigen, die aufgeben, es erweist sich als stark, aber völlig ineffizient. Aber es wird von einem multinationalen Unternehmen hergestellt, es wird von einem lokalen Politiker gewollt, es wurde geschaffen, um eine Militärtechnologie zu werden ...

Gesetze, Zwänge und Regeln: Lawrence Lessig sagt als Anwalt, aber sehr effektiv und richtig, dass im Cyberspace nur Software Gesetz ist. Er sagt dies im Rahmen seiner Kritik am Ansatz des amerikanischen Rechtssystems, das das Internet regulieren will, indem es es als Schatten, als Analogie zur materiellen Welt betrachtet.

Das ist absolut wahr, denn der Cyberspace besteht aus Software, die ohne sie gar nicht existieren würde.

In unserem Fall sind die Bedingungen des Problems völlig umgekehrt. Kann Software in der materiellen Welt Gesetz sein? Man kann sagen, dass Software kein Gesetz auferlegt, sondern den Menschen einfach dabei hilft, die Regeln durchzusetzen, indem sie Beschränkungen schafft, die Kriminalität verhindern oder potenzielle Kriminelle aufdecken.

Hier entsteht ein Teufelskreis, der uns an sehr gefährliche Orte führt.

Gesetze entstehen aus Konsens zur Festlegung gemeinsamer Regeln; Der Einzelne entscheidet frei, ob er sie respektiert oder verletzt und trägt die Konsequenzen. In beiden Fällen gibt es Menschen, die bewerten, möglicherweise strafrechtlich verfolgen, urteilen und verurteilen müssen.

Es ist der tugendhafte, aber oft vergessene Kreis der Demokratie und freier Menschen mit freiem Willen. Aber was passiert, wenn die Regeln zu Zwängen werden? Wenn ein nichtmenschlicher Mechanismus wie Software Sie daran hindert, eine Regel zu verletzen, wenn sie zu einer Einschränkung wird, zu einer totalen Einschränkung, zu einem obersten Kontrolleur, der automatisch über Schuld entscheidet?

Die Existenz von Gesetzen und Regeln anerkennt und schützt den freien Willen, die Existenz von Zwängen versklavt Gerechte und Ungerechte. Es ist kein Detail, es ist eine völlige Verzerrung, eine Antithese.

Wenn es das Richtige ist, Gesetze zu haben, dann kann es keine Einschränkungen geben. Zwänge brauchen keine gemeinsamen Gesetze, und wenn sie erst einmal etabliert sind, können sie schnell und dauerhaft zu Instrumenten der Macht werden.

Leider haben diejenigen, die bereit sind, ihre Freiheit im Austausch für ein Mindestmaß an vorübergehender Sicherheit aufzugeben, kein Problem damit, sich Zwängen zu unterwerfen, anstatt als freier Mann gemeinsame Gesetze und Regeln respektieren zu müssen.

Männer in der Befehlskette: Wenn ich kurz auf ED-209 zurückkomme, denke ich immer noch an die tragikomische Situation, in der die Techniker, die es ins Leben gerufen haben, verzweifelt versuchen, es zu stoppen, während es die Führungskräfte in Verlegenheit bringt.

Dies ist nicht der übliche Archetyp der Kreatur, die ihrem Schöpfer entgeht, und auch nicht das ebenfalls aktuelle, aber weniger diskutierte Problem, ob autonome Roboter das „Recht“ haben, Menschen zu töten. Fliegende Drohnen und autonome Maschinengewehre können das bereits und daher ist die Frage überflüssig.

Das Problem liegt jedoch viel weiter flussaufwärts. Ist es sinnvoll, im Zusammenhang mit schwierigen, teuren und komplexen Tätigkeiten wie nachrichtendienstlichen Tätigkeiten eine Automatisierung der „Erkennung von Verdächtigen“ für möglich zu halten? Ist es legitim, in einer Universitätsarbeit skizzierte Algorithmen als Endlösung gegen den Terrorismus zu propagieren?

Es ist hier nicht der Ort, diese Algorithmen aus technischer oder statistischer Sicht lächerlich zu machen; Fragen wir uns einfach, wie viele echte Terroristen dank der von CAPPS-2 ausgetauschten und gespeicherten persönlichen Daten von Passagieren identifiziert wurden? Wie viele Angriffe wurden durch den Einsatz der „Flugverbotsliste“ verhindert?

Doch schon ein einziger vereitelter Angriff wäre ein Knüller; Stattdessen lesen wir in der Presse, dass Bill Clinton nicht in das Flugzeug steigen konnte oder dass ein vierjähriges Kind auf der Flugverbotsliste stand.

Das Problem ist heimtückischer. Stellen Sie sich vor, während Sie im Supermarkt Ihren Lieblingsjoghurt auswählen oder einen Badeanzug anprobieren, geht ein rotes Licht an und ein Herr voller Abzeichen bittet Sie, ihm zu folgen. Das automatische System zur proaktiven Erkennung von Ladendiebstählen wurde aktiviert. Was machst du? Sie sind wütend? Lassen Sie sich ruhig durchsuchen, da Sie nichts zu verbergen haben? Und wenn Sie einmal identifiziert und als unschuldig anerkannt sind, werden Sie dann darum bitten, dass die Daten dieses falschen Positivs gelöscht werden? Dies kann niemals der Fall sein, schon allein aus Gründen des rechtlichen Schutzes desjenigen, der die Durchsuchung durchgeführt hat.

Was passiert, wenn das rote Licht aufleuchtet, während Sie am Flughafen einchecken? Würden Sie sich wohl fühlen, wenn ein Mensch in der Befehlskette der Aktivitäten steht? Natürlich wäre alles in Ordnung, wenn Sie einen mächtigen und gütigen Weisen finden würden, der Ihre widergespiegelte Ehrlichkeit sofort erkennt. Aber die Chancen stehen gut, dass Sie stattdessen am Ende eine gelangweilte und unterbezahlte Person haben, die am Ende der Schicht nach Hause will und ganz genau weiß, dass noch nie jemand gefeuert wurde, weil er auf die rote Ampel gehorcht hat. In diesem Fall verabschieden Sie sich von der Reise.

Und das ist schon in Ordnung für dich, denn jeder konnte das rote Licht sehen, auch du, und das bedeutete nur, dass du nicht fliegen konntest. Was ist, wenn das rote Licht ausgeblendet ist und bedeutet, dass Sie ein mutmaßlicher Terrorist sind? Das Schild über der roten Ampel könnte auf eine „verdächtige Schwellung unter dem Fell“ während einer Fahrt in der Londoner U-Bahn hinweisen. Beeilen Sie sich nicht, den abfahrenden Zug zu erreichen, denn jemand oder vielleicht etwas könnte Ihnen die klassischen sechs Kugeln in den Kopf jagen. Und viele Entschuldigungen an die Familie: „Leider ging die rote Ampel an und er fing an zu rennen…“.

Natürlich wird es immer einen Menschen in der Befehlskette geben, aber die Computerisierung nachrichtendienstlicher Aktivitäten wird unweigerlich dazu führen, dass Autorität und Vertrauen vom Menschen auf die Maschine übertragen werden, was jedem Bericht, insbesondere in Notfällen, Zuverlässigkeit verleiht. Sobald das Omelett vorbei ist, können Sie die Verantwortung, die Schuld, auch auf einen fehlenden Patch, auf einen bösen Hacker, auf einen unterbrochenen Draht, auf eine fehlerhafte Komponente oder auf einen Fehler in der Software übertragen.

Erinnern Sie sich an die Prüfungen des Ingenieurs, der verdächtigt wird, der Unabomber zu sein (siehe Cassandra Crossing/ Du, der Unabomber und die Vorratsdatenspeicherung)?

Die Ermittler hatten „berechnet“, und zwar mithilfe einfacher Datenbanken eine abweichende Methode, dass der Ingenieur zu einer Gruppe von einem Dutzend „technisch perfekter Täter“ gehörte?

Wie weit ist die Einführung der Automatisierung in der Aufklärung und Bevölkerungskontrolle von der Gleichung entfernt?Das rote Licht ist angegangen und Sie sind schuldig”?

Der Grund und die Ursache der Zündung dürften ebenso unzugänglich sein wie die Gründe für die Untersuchung in „Der Prozess“ von Franz Kafka. Offensichtlich aus Sicherheitsgründen!

Für Fehler, die nicht genannt werden „getötet" Aber "FehlalarmDann gilt der Grundsatz, dass es sich um einen unglücklichen Unfall handelte, der durch einen fehlerhaften Computer verursacht wurde. Oder besser gesagt, um die Kosten weiter zu senken, wird vielleicht jemand eine „kreative“ Gesetzesschleife wiederbeleben, wie sie es der SS erlaubte, einen Feind des Heimatlandes ohne Gerichtsverfahren legal hinzurichten, und die jeden, der von der SS erschossen wurde, als Feind des Heimatlandes definierte das Heimatland.

Lehrbuchvereinfachung und Kostensenkung, wenn auch auf Kosten von Freiheit und Demokratie.

ED-209 bringt Sie immer noch zum Lächeln? Oder bereitet Ihnen der Gedanke an Ihre unsichtbaren Enkel ein Unbehagen? Das eigentliche Anliegen sollte bereits beim Lesen der oben genannten Artikel deutlich werden und Sie dazu veranlassen, zu Wort zu kommen und Ihre Meinung zu äußern. Ansonsten steht um die Ecke, zusammen mit den Enkelkindern von Ed-209, der historische und immer lauernde Slogan „Wer nichts zu verbergen hat, hat nichts zu befürchten“.

Marco Calamari

Schreiben Sie an Cassandra — Twitter — Mastodon
Videokolumne „Ein Gespräch mit Cassandra“
Cassandras Slog (Statischer Blog).
Cassandras Archiv: Schule, Ausbildung und Denken
  1. Das Pentagon gibt zu: „Bei unserem Drohnenangriff auf Kabul wurden nur unschuldige Zivilisten getötet[]
  2. Die Gesichtserkennung ist genau, wenn Sie ein Weißer sind[]
  3. Geschlechts- und rassistische Vorurteile in der Gesichtserkennungstechnologie von Amazon (erneut).[]
  4. Gesichtserkennungssysteme halten Einzug in italienischen Städten[]
  5. Maßnahme vom 26. Februar 2020 [9309458][]

Treten Sie Communities bei

Logo di Feddit Logo di Flarum Logo di Signal Logo di WhatsApp Logo di Telegram Logo di Matrix Logo di XMPP Logo di Discord




Wenn Sie Fehler im Artikel gefunden haben, können Sie diese per Klick melden Hier, Danke schön!