Dall’Occhio della Mente al buco in fronte

Logo di Feddit Logo di Flarum Logo di Signal Logo di WhatsApp Logo di Telegram Logo di Matrix Logo di XMPP Logo di Discord

Vom geistigen Auge bis zum Loch in deiner Stirn

Warnung: Dieser Beitrag wurde erstellt 3 Jahren tut

Dies ist ein automatisch aus dem Italienischen übersetzter Text. Wenn Sie unsere Arbeit schätzen und sie gerne in Ihrer Sprache lesen, denken Sie über eine Spende nach, damit wir sie weiterhin durchführen und verbessern können.

Die Artikel von Cassandra-Kreuzung Ich bin unter Lizenz CC BY-SA 4.0

Cassandra-Kreuzung ist eine Spalte, die von erstellt wurde Marco Calamari mit dem „nom de plume“ von Kassandra, geboren 2005.

Jeden Donnerstag, ab 9. September, bieten wir Ihnen an eine alte Prophezeiung von Cassandra, um heute noch einmal gelesen zu werden, um über die Zukunft nachzudenken, abwechselnd mit aktuellen Artikeln, ausgewählt aus den neuesten Veröffentlichungen.

Der heutige Artikel steht im Einklang mit früheren Beiträgen zur künstlichen Intelligenz, z Dein Selbstmörder Und ED-209 wartet um die Ecke auf uns. Es ist ein Artikel von vor fast zehn Jahren, aber wie so oft bei Cassandra liest er sich, als wäre er gestern geschrieben worden.

Dieser Artikel wurde geschrieben am 5. November 2012 von Cassandra

Vom geistigen Auge bis zum Loch in deiner Stirn

Als Prophetin in Kriegszeiten war Cassandra schon immer überempfindlich gegenüber den militärischen Anwendungen der Informationstechnologie und insbesondere gegenüber Situationen, in denen das menschliche Urteilsvermögen, wenn auch nur teilweise, durch das einer Maschine ersetzt wurde.

Es war der Fall der ersten Schreie des automatisierte Killerdrohnen , und sogar schon davor Automatismen, die auf Situationen angewendet werden, die über Gut und Böse entscheiden von Leben und Tod.

Deshalb hält er es für wichtig Nachricht , viel kommentiert von der internationalen und der italienischen Presse, einer vielversprechenden Forschung, die am Carnegie Mellon mit i durchgeführt wurde DARPA-Finanzierung das heißt, der amerikanischen Armee, die darauf abzielt, das Verhalten von Menschen anhand von Videoüberwachungsaufnahmen vorherzusagen.

Geistiges Auge : „das Auge des Geistes“, oder besser gesagt „Verwendung von Ontologien in einem kognitiv fundierten System: Automatische Aktionserkennung in der Videoüberwachung“, d. h. „Die Verwendung von Ontologien in einem wissensbasierten System: Automatische Erkennung von Aktionen in Videoüberwachungsaufnahmen“ .

Nun wissen diejenigen, die noch nicht zu Wikipedia geeilt sind, was es bedeutet.“ Ontologie ” (ein Computerbegriff, kein philosophischer), sowohl weil sie die Bedeutung bereits kennen, als auch weil sie sie ignorieren und nur die allgemeine Bedeutung dessen, was sie lesen, erfassen wollen, müssen sie gleichzeitig von Cassandra zufrieden gestellt werden. Schwierige Aufgabe…

Kurz gesagt handelt es sich hierbei um eine Forschung, die auf den Aufbau computergestützter Systeme abzielt, die das Videomaterial einer komplexen Szene als Eingabe verwenden produzieren als Ausgabe eine textliche Beschreibung der stattfindenden Aktionen und innerhalb bestimmter Grenzen ihrer „ Bedeutung „.

Ein System dieser Art würde es ermöglichen, ja, es wird es sicherlich ermöglichen, eine Schlacht, eine Menschenmenge bei einem Konzert oder eine Demonstration zu filmen und Gruppen- oder Einzelaktionen zu isolieren, aber nicht als Bilder („Hier ist ein Mann mit seiner Hand in der Hand“) Tasche in der Mitte der Menge“), sondern als Aktion und Bedeutung in einem bestimmten Kontext („Hier ist ein Attentäter, der im Begriff ist, seine Waffe zu zücken und den Präsidenten zu erschießen“).

Jetzt hofft Cassandra, zunächst eine gesunde Heiterkeit hervorgerufen zu haben, der unmittelbar darauf eine noch gesündere Ratlosigkeit folgte.
„Aber wird es wahr sein?“

Die richtige Frage lautet stattdessen: „Wollen sie es wirklich?“
Die Antwort ist einfach: „Ja“.

Da dies möglich ist (zumindest innerhalb gewisser Grenzen), wird es mit Sicherheit auch umgesetzt werden: Schon jetzt gibt es verschiedene Situationen, einige davon militärisch, aber viele mehr mit sozialer Kontrolle, in denen eine solche Technik eingesetzt wird, sobald sie einigermaßen funktionsfähig ist .

Und was bedeutet „vage funktionsfähig“? Wird es einen Mann geben, der die Alarme filtert? Wird es sie effektiv filtern?
Aus den vielen bereits oben genannten Gründen Vorheriger Artikel Die Wahrscheinlichkeit, dass diese Vorsichtsmaßnahmen effektiv genutzt werden, ist praktisch gleich Null.

Und welche Reaktionen werden die erklärten verdächtigen Bewegungen eines Herrn mit weitem Regenmantel und Händen in den Taschen auslösen? Wird einfach ein Bild auf einem Monitor mit einer Beschriftung gesendet, die besagt, was es tut?
Was wäre, wenn in diesem Moment ein wichtiger Politiker zu Besuch wäre? Dann wäre vielleicht ein Alarm auf dem Smartphone der Leatherheads eine gute Idee.
Und was wird der oben genannte Agent tun? Wird er mehr oder weniger vorsichtig sein, wenn er den Alarm von einem Computer und nicht von einem Bediener erhalten hat?
Wird die Wahrscheinlichkeit, dass der oben erwähnte Mann im Regenmantel ein Loch im Kopf bekommt, größer oder geringer sein?
Und wer sich im Nachhinein als kälteempfindlicher und übergewichtiger Familienvater entpuppt?

Alle Situationen, in denen das menschliche Urteilsvermögen, auch nur teilweise, durch das eines Computers ersetzt wird, haben zweifellos den Vorteil, dass es weniger kostet und schneller ist. Aber das ist auch ihre Hauptgefahr.

Wird es mehr Terroristen geben, denen ein Loch in den Kopf geschlagen wird, bevor sie den Knopf drücken? Vielleicht.
Doch die Frage, die die Bürger eigentlich am meisten interessieren dürfte, lautet: „Wird es mehr oder weniger Löcher in unschuldigen Köpfen geben?“

Schwer zu sagen. Bei den ersten Erkennungssystemen wahrscheinlich schon, bei anderen fortgeschritteneren, wer weiß.

Das Problem, über das man sich Sorgen machen muss, wird die Wahrnehmung von Verantwortung sein, nicht die wichtigen „False Positives“ (sprich „Löcher in den Köpfen unschuldiger Menschen“) der Systeme.
Es gibt „grünes Licht“ für bestimmte Arten von Fehlern.

Niemand wird entlassen oder strafrechtlich verfolgt, weil er das „rote Licht auf dem Monitor“ nicht blockiert oder gelöscht hat.
Und es wird ein weiterer Schritt vorwärts gemacht worden sein, in der Richtung, dass Software nicht im Cyberspace, wo sie bereits existiert, sondern in der materiellen Welt gesetzlich verankert und eingeschränkt wird.
Ein Schritt in Richtung der Entmenschlichung des Menschen, indem man ihn zu Kontrollsystemen der Technik versklavt, einem immer beliebter werdenden Sport unter denen, die Kräfte unterschiedlicher Art unter dem Vorwand verwalten, „Sicherheit“ zu bieten.

Marco Calamari

Schreiben Sie an Cassandra — Twitter — Mastodon
Videokolumne „Ein Gespräch mit Cassandra“
Cassandras Slog (Statischer Blog).
Cassandras Archiv: Schule, Ausbildung und Denken

Treten Sie Communities bei

Logo di Feddit Logo di Flarum Logo di Signal Logo di WhatsApp Logo di Telegram Logo di Matrix Logo di XMPP Logo di Discord




Wenn Sie Fehler im Artikel gefunden haben, können Sie diese per Klick melden Hier, Danke schön!