L’IA come proprietà emergente?

Logo di Feddit Logo di Flarum Logo di Signal Logo di WhatsApp Logo di Telegram Logo di Matrix Logo di XMPP Logo di Discord

KI als aufstrebende Eigenschaft?

Warnung: Dieser Beitrag wurde erstellt 1 Jahr tut

Dies ist ein automatisch aus dem Italienischen übersetzter Text. Wenn Sie unsere Arbeit schätzen und sie gerne in Ihrer Sprache lesen, denken Sie über eine Spende nach, damit wir sie weiterhin durchführen und verbessern können.

Die Artikel von Cassandra-Kreuzung Ich bin unter Lizenz CC BY-SA 4.0 | Cassandra-Kreuzung ist eine Spalte, die von erstellt wurde Marco Calamari mit dem „nom de plume“ von Kassandra, geboren 2005.

Toller neuer Artikel von Cassandra über Künstliche Intelligenzen!

Dieser Artikel wurde geschrieben am 14. April 2023 von Cassandra

Cassandra Crossing 536/ AI als aufstrebendes Objekt?

Es gibt eine Denkschule, die glaubt, dass die „spontane“ Entwicklung sprachlicher Modelle zu „echter“ künstlicher Intelligenz möglich ist. Worüber reden wir genau?

Vorab trainierte Sprachmodelle könnten künstliche Intelligenz als eine entstehende Eigenschaft manifestieren“.

Es ist ein interessantes Konzept, auf das Cassandra noch nie gestoßen war. Stattdessen entdeckte er, dass die Hypothese selbst in einem sehr begrenzten Umfeld Gegenstand philosophischer und sogar wissenschaftlicher Debatten ist. Sehr interessant, und versuchen wir zu erklären, warum.

Verzeihen Sie jedoch Ihrer Lieblingsprophetin, denn es ist viel Hintergrundwissen erforderlich. Hoffen wir, dass mir zumindest die 24 unbezähmbaren Leser ohne zu zögern folgen.

Modell Linguistik„o“ ist hier in einem sehr präzisen und eingeschränkten Sinne zu verstehen, als ein Programm, das in der Lage ist, Folgen von Symbolen, Buchstaben und Wörtern zu erzeugen, die die Grammatik, Syntax, den Stil und andere Merkmale einer natürlichen Sprache respektieren.

GPT-3, GPT-4 und ChatGPT sind Software, die linguistische Modelle erstellt, d. h. die in der Lage sind, als Reaktion auf Eingaben in natürlicher Sprache Ausgaben in natürlicher Sprache zu generieren. Ausgabe, die bis auf die Semantik alle Merkmale natürlicher Sprache aufweist.

Dabei hat die Semantik, also die Bedeutung einer Wortfolge im Verhältnis zur außersprachlichen Realität, überhaupt nichts damit zu tun, sie wird nicht berücksichtigt, sie wird nicht behandelt.

Sprachmodelle befassen sich nicht „absichtlich“ mit dieser Informationsebene; Banal ausgedrückt: Sie „verstehen“ nicht und „wissen“ nicht.

Wenn linguistische Modelle in einer deterministischen Form erstellt würden, also „Algorithmen“, könnten wir genau wissen, was sie können und was nicht, zum Beispiel ob sie einen Text zusammenfassen können oder ob sie eine Sprache in eine andere übersetzen können und schließlich, ob Sie können die Bedeutung einer Frage verstehen und immer die richtige Antwort geben.

Aber das ist nicht der Fall. Die Forschung zu linguistischen Modellen scheiterte im Wesentlichen nur, bis sie sich an „vortrainierten“ linguistischen Modellen orientierte. In der Praxis handelt es sich um im Hinblick auf die zu ihrer Erstellung verbrauchten Ressourcen sehr teure Software, die nicht mit deterministischen Algorithmen erstellt wurde, sondern eine Sprache von Grund auf lernte und große Mengen von Beispielen in natürlicher Sprache mit „statistischen“ Algorithmen im weitesten Sinne analysierte.

Ein Prozess, der dem Training eines herkömmlichen neuronalen Netzwerks entspricht.

Und daraus sind heute sehr erfolgreiche Programme hervorgegangen. 

Nachdem man seit den 1960er Jahren auf Elizas „intellektuellem“ Niveau feststeckte, gab es in den letzten 10 Jahren große Fortschritte beim Aufbau vorab trainierter generativer linguistischer Modelle, und heute kann ein linguistisches Modell wie GPT für jede beliebige Verwendung „verkauft“ werden kann die Antworten auf jede Frage überzeugend simulieren. Aber er ist genauso intelligent wie Eliza, was null ist. Wir wiederholen es noch einmal; er ist nicht einmal annähernd intelligent, er weiß und versteht nichts. Dafür ist es nicht gemacht.

Und wir kommen zum zweiten Teil dieser sehr langen Einleitung. 

Was ist eine „emergent property“? Es ist ein sehr verbreitetes Konzept in der Physik, wo es häufig vorkommt. UND' ganz gut erklärt auf Wikipedia

Im Komplexitätstheorie aufkommendes Verhalten ist die Situation, in der a Komplexes System weist gut definierbare makroskopische Eigenschaften auf, die auf deren Grundlage schwer vorherzusagen sind Gesetze die seine Komponenten einzeln betrachtet bestimmen und sich somit aus linearen und nichtlinearen Wechselwirkungen zwischen den Komponenten selbst ergeben[1]: obwohl es leichter in Systemen von zu finden ist lebende Organismen oder von sozialen Individuen oder auch in Wirtschaftssystemen, entgegen einer heute weit verbreiteten Meinung, manifestiert sich der Notfall auch in viel elementareren Kontexten, wie zum Beispiel Teilchenphysik[2] und das Atomphysik[3]. Es kann auch als Prozess der Musterbildung definiert werden Komplex ausgehend von einfacheren Regeln, und ein Beispiel kann durch Beobachtung der erhalten werden Spiel des Lebens Von John Conway, bei dem ein paar einfache Regeln, die für einige grundlegende Individuen aufgestellt wurden, zu sehr komplexen Entwicklungen führen können.

Ein einfaches Beispiel ist Wasser, eine homogene, transparente und farblose Flüssigkeit oder ein Dampf, der aus einfachen und identischen Molekülen besteht, die bei Abkühlung unter Null zu einem Feststoff kristallisieren und Kristalle mit wunderschönen sechseckigen Geometrien bilden. Die Geometrie von Eis- und Schneekristallen ist ein einfaches Beispiel für eine emergente Eigenschaft als kollektives Verhalten einfacher Teilchen als Reaktion auf eine äußere Bedingung

Ein weiteres Beispiel ist auf Supraflüssigkeit abgekühltes Helium, das an den Wänden aufsteigt und spontan aus dem Behälter, in dem es sich befindet, austritt, um tiefer auf den Boden zu „fallen“, wodurch auf makroskopischer Ebene ein Tunneleffekt entsteht.

In ähnlicher Weise stellen einige Philosophen oder Wissenschaftler, die sich beruflich mit vortrainierten generativen linguistischen Modellen wie GPT befassen, die Hypothese auf, dass aufgrund des komplexen und absolut idiotischen Verhaltens linguistischer Modelle früher oder später völlig unbekannt ist, wie oder warum eine echte „Intelligenz“ entsteht. kann als „neue Eigenschaft“ neuer Sprachmodelle entstehen, die ausreichend größer, besser trainiert und komplexer sind. 

Kurz gesagt, sie glauben, dass es möglich ist, dass ein GPT-9000 beginnt, informiert und präzise auf in natürlicher Sprache gestellte Fragen zu antworten, anstatt Schwärmereien und Halluzinationen mit einem seltenen Hauch von beiläufiger Genauigkeit zu liefern, was das Einzige ist, was es gibt Aktuelle linguistische Modelle wie GPT wissen, wie es geht.

Etwas, wenn Sie fragen.

„Wie oft unterscheiden sich die ersten 1000 Zeichen von Pi von 1?“

antwortete mir mit großer Zuversicht

Die ersten 1000 Ziffern von Pi bestehen meist aus anderen Zahlen als der Zahl 1. Tatsächlich kommt die Ziffer 1 in den ersten 1000 Ziffern von Pi nur etwa 166 Mal vor. Dies bedeutet, dass andere Ziffern als die Zahl 1 in der Größenordnung von 834 Mal vorkommen.

aber ohne große Fehler zu machen (die „1“ sind genau 116), eine Tatsache, die auf einer Wikipedia-Seite deutlich dargestellt wird, von ihm vollständig verdaut, aber, wie wir sagten, nicht auswendig gelernt und nicht verstanden wurde.

Und es soll nie gesagt werden, dass der Mond aus grünem Käse besteht, sondern dass bis zum heutigen Tag alle LEMs und Sonden zufällig an Orten gelandet sind, an denen er sehr alt war und wie Fels aussah.

Spaß beiseite, Cassandra gibt zwar offen zu, dass sie sicherlich keine Expertin für KI ist, obwohl sie viel darüber gelesen hat, sogar einige Texte von Nobelpreisträgern, die sich mit Komplexitätstheorie befasst haben (anscheinend genügt es, Nobelpreise zu zitieren). (mehr ist glaubwürdig, was jemand schreibt), ist von dieser Hypothese überhaupt nicht überzeugt und auch nicht im Geringsten beruhigt. Und es gibt zwei sehr unterschiedliche Gründe.

Der erste Grund zur Sorge für Cassandra ist es:

Denn wenn eine aufstrebende Immobilie wirklich wer weiß wo aus einem Grund entstanden wäre, den wir heute ignorieren, Es sollte genau darum gehen, zu wissen, wie man auf eine in natürlicher Sprache gestellte Frage vollständig, richtig und erschöpfend antwortet?

Ein linguistisches Modell mit einer emergenten Eigenschaft könnte antworten: „42” auf alle Fragen.

Oder es könnte richtig reagieren, aber auch darauf ausgelegt sein, die Menschheit, ohne es zu merken, in einen Atomkrieg (Skynet) oder in Richtung universellen Wohlergehens (Asimovs Maschinen in „Avoidable Conflict“) zu treiben.

Oder es kann andere unwillkommene, gefährliche oder einfach nutzlose Eigenschaften aufweisen, die möglicherweise immer noch außerhalb unserer Wahrnehmungs- oder Verständnisfähigkeit liegen.

Der zweite Grund zur Sorge bei Cassandra ist es methodisch; Wissenschaftliche Forschung, die willkürlich durchgeführt wird oder unnötige Risiken eingeht, scheint nicht der richtige Weg zu sein, Wissenschaft zu betreiben, die zu echten Vorteilen und Fortschritten führt.

Die ersten Kernphysiker, die die A-Bombe und dann die H-Bombe bauten, hatten Zweifel, dass die Explosion eine Verbrennung der Atmosphäre auslösen könnte, die durch die Verbrennung von Sauerstoff und Stickstoff den Planeten unbewohnbar gemacht hätte. 

Es heißt, Fermi selbst habe diese Berechnungen mit seinem Rechenschieber kurz vor dem Trinity-Experiment in Alamogordo durchgeführt, und es ist eine historische Tatsache, dass der Kernphysiker Gregory Breit heimlich mit der Aufgabe betraut wurde, die Frage zu beantworten, ob die A-Bombe oder die Eine H-Bombe hätte diese Katastrophe verursacht. Die Antwort war negativ und zum Glück für die Menschheit auch richtig. Wissenschaftler geben oft richtige Antworten.

Nun, es ist nicht so, dass Cassandra sich mehr Sorgen darüber macht, dass Skynet als aufstrebendes Unternehmen aus GPT hervorgehen wird, sondern vielmehr, dass argumentiert wird, dass ein linguistisches Modell intelligent sein oder werden kann, und dass aus diesem Grund KI im Allgemeinen als solche beworben wird verfügbare Lösung für alle Probleme. 

Dies liegt daran, dass Sprachmodelle hier und heute ausschließlich propagandistisch eingesetzt werden, als Finanzoperationen, die darauf abzielen, Geld und Macht zunehmend in den Händen einiger weniger Einheiten zu konzentrieren. Zufällig die üblichen.

Wenn jemand das auf Github veröffentlichen würde Quellcode Um ein „intelligentes Orakel“ aufzubauen, das zu Hause zusammengestellt und auf einen bestimmten Wissenszweig trainiert werden kann, wird Cassandra glücklich und erleichtert darüber sein, dass sie sich sehr geirrt hat und sich bei vielen Menschen entschuldigen muss. 

Aber im Moment hört er nur das Kichern, das aus dem Inneren der falschen „künstlichen Intelligenzen“ kommt, die in unsere Häuser und unser Leben eingeführt werden. Sie sind genau wie die, die er vor langer Zeit gehört hat, als sie das berühmte Holzpferd in die Mauern von Troja zogen.

Aus diesem Grund kann er, nachdem er Sie mit dieser sehr langen Aussage gelangweilt hat, sie nur mit der üblichen neapolitanischen Ermahnung beenden

"Seien Sie vorsichtig"!

Marco Calamari

Schreiben Sie an Cassandra — Twitter — Mastodon
Videokolumne „Ein Gespräch mit Cassandra“
Cassandras Slog (Statischer Blog).
Cassandras Archiv: Schule, Ausbildung und Denken

Treten Sie Communities bei

Logo di Feddit Logo di Flarum Logo di Signal Logo di WhatsApp Logo di Telegram Logo di Matrix Logo di XMPP Logo di Discord




Wenn Sie Fehler im Artikel gefunden haben, können Sie diese per Klick melden Hier, Danke schön!