IA: il Collasso, reloaded

Logo di Feddit Logo di Flarum Logo di Signal Logo di WhatsApp Logo di Telegram Logo di Matrix Logo di XMPP Logo di Discord

KI: Zusammenbruch, neu geladen

Dieser Beitrag wurde zuletzt aktualisiert von 3 Monaten tut

Dies ist ein automatisch aus dem Italienischen übersetzter Text. Wenn Sie unsere Arbeit schätzen und sie gerne in Ihrer Sprache lesen, denken Sie über eine Spende nach, damit wir sie weiterhin durchführen und verbessern können.

Die Artikel von Cassandra-Kreuzung Ich bin unter Lizenz CC BY-SA 4.0 | Cassandra-Kreuzung ist eine Spalte, die von erstellt wurde Marco Calamari mit dem „nom de plume“ von Kassandra, geboren 2005.

Cassandra kehrt zurück (hier ist der erste Teil) zum Thema KI mit immer wertvollen Ratschlägen!

Dieser Artikel wurde geschrieben am 29. Februar 2024 von Cassandra

Cassandra Crossing 575/ KI: Zusammenbruch, neu geladen

Warum sollte ein technisches Detail falscher KI, selbst ein mathematisches, jedem bekannt sein?

Diejenigen der 24 unermüdlichen Leser, die bereits versucht haben, Cassandras vorherige Aussage zum gleichen Thema zu lesen, können problemlos weitermachen; alle anderen sollten es tun Lies es einfach, als wäre es die erste Hälfte eines Krimifilms, zu dem man erst spät gekommen ist.

Es beginnt die zweite Hälfte, deren Drehbuchautorin nicht Cassandra ist, sondern eine verdiente Person, die auf Reddit eine gut gemachte Zusammenfassung einer eher abstrusen Frage gepostet hat, die in einem Fachartikel beschrieben wird.

Offenlegung: Cassandra hat es überarbeitet, übersetzt (mit einem LLM) und dann erneut überarbeitet und fügt es hier ein. Dann ein obligatorisches Dankeschön an den wahren Autor und weiter geht’s.

Achtung: Ein Mindestmaß an Mathematik ist erforderlich, aber wenn Sie jemals eine Prüfung oder eine Abschlussarbeit über grundlegende Statistiken geschrieben haben, werden Sie diese sehr klar verstehen und in ihrer Einfachheit sogar verblüffend sein.

. . .

Der Zusammenbruch eines Modellsoder LLM tritt auf, wenn ein Modell, das auf Daten früherer Modellgenerationen trainiert wurde, beginnt, Informationen zu verlieren, insbesondere an den Enden der statistischen Verteilung der Originaldaten, und schließlich zu einer Einpunktschätzung mit geringer statistischer Varianz konvergiert. (Anmerkung des Herausgebers: Kurz gesagt, er gibt auf jede Frage immer die gleiche Antwort).

Der Modellzusammenbruch tritt aufgrund von zwei Fehlerquellen auf: statistischer Näherungsfehler aufgrund endlicher Stichproben und funktionaler Näherungsfehler aufgrund unvollständiger Modelle. Diese Fehler häufen sich über Generationen hinweg und führen dazu, dass die geschätzte Verteilung weiter vom Original abweicht.

Einige Studien zeigen, dass es bei einfachen Modellen wie i zu einem Modellkollaps kommt Gaußsche Mischungsmodelle und von Variationale Autoencoder, sowie in Sprachmodelle komplexer. Auch eine Modellkalibrierung während des Trainings verhindert das nicht Modellzusammenbruch in sprachlichen Modellen.

Im Laufe der Zeit werden die von den betroffenen Modellen generierten Daten verändert Modellzusammenbruch Sie beginnen, unwahrscheinliche Sequenzen zu enthalten und verlieren Informationen über die statistischen Enden der ursprünglichen Verteilung.

Die Forscher argumentieren, dass der Zugriff auf Daten, die direkt von Menschen generiert und für das Training verwendet werden, weiterhin unerlässlich sein wird, um einen Zusammenbruch des Modells zu verhindern und seine Leistung aufrechtzuerhalten. Darüber hinaus werden die Daten, die bei menschlichen Interaktionen mit Sprachmodellen entstehen, immer wertvoller.

Zusammenfassend heben wir ein wichtiges Phänomen hervor, bei dem Modelle, die rekursiv auf ihren generierten Daten trainiert werden, beginnen, an Genauigkeit zu verlieren und sich schließlich einem suboptimalen Zustand zu nähern.

Der Zugriff auf von Menschen erstellte Originaldaten ist daher notwendig, um einen Modellkollaps zu verhindern und seine Leistung langfristig aufrechtzuerhalten. Aus diesem Grund wird die Unterscheidung menschlicher Daten von modellgenerierten Daten in großem Maßstab zu einer großen Herausforderung für das erfolgreiche Training von Sprachmodellen, da Sprachmodelle beginnen, immer mehr Webinhalte zu generieren.

. . .

Cassandra, die diesmal wirklich ihren Job macht, endet mit einer Warnung.

Ja, lasst uns darüber reden falsche künstliche Intelligenz die Sie bereits in den neuesten Versionen der von Ihnen verwendeten Produkte finden. Sogar in Computercodegeneratoren wie Copilot, die mittlerweile von den meisten Entwicklern verwendet werden. Und daher, deren Auswirkungen Sie in der von Ihnen verwendeten Software finden können und unterziehen jeden Tag, und wer wird die nächste Version des überprüfen intelligente Objekte.

Seien Sie vorsichtig!

Marco Calamari

Schreiben Sie an Cassandra — Twitter — Mastodon
Videokolumne „Ein Gespräch mit Cassandra“
Cassandras Slog (Statischer Blog).
Cassandras Archiv: Schule, Ausbildung und Denken

Dieses Tag @treue Alternativen wird verwendet, um diesen Beitrag automatisch an zu senden Feddit und erlauben Sie jedem im Fediversum, dazu Stellung zu nehmen.

Treten Sie Communities bei

Logo di Feddit Logo di Flarum Logo di Signal Logo di WhatsApp Logo di Telegram Logo di Matrix Logo di XMPP Logo di Discord




Wenn Sie Fehler im Artikel gefunden haben, können Sie diese per Klick melden Hier, Danke schön!

Kommentare

Jeder Artikel entspricht einem Beitrag auf Feddit wo du kommentieren kannst! ✍️ Klicken Sie hier, um diesen Artikel zu kommentieren ✍️

Feddit ist die von uns verwaltete italienische Alternative zu Reddit, basierend auf der Software Lemmy, eines der interessantesten Projekte von Fediversum.

Ein Kommentar

  1. Es geht nicht darum, die Eier im Korb zu zerschlagen, sondern darum, sie zu zerstören Blogger old school, zum Beispiel in dieser Passage:

    Einige Studien zeigen, dass es bei einfachen Modellen wie i zu einem Modellkollaps kommt Gaußsche Mischungsmodelle und von Variationale Autoencoder, sowie in Sprachmodelle komplexer. Auch eine Modellkalibrierung während des Trainings verhindert das nicht Modellzusammenbruch in sprachlichen Modellen.

    Ich hätte wahrscheinlich mindestens 2 oder 3 gesetzt Verknüpfung zum Papier verwendet, um diese Passage zu schreiben. Dann gibt es vielleicht eine dritte Quelle, die sich bereits mit der Sache befasst und darüber nachgedacht hat, nur fehlt auch diese dritte Quelle. Und dann, obwohl darüber geschrieben steht Warnung initial das

    Die Sache wird Ihnen sehr klar sein und in ihrer Einfachheit sogar verblüffend sein

    Und das stimmt, aber das bedeutet nicht, dass ich mich auf die Suche nach den Quellen machen und die gleichen Recherchen wie der Autor nachvollziehen muss, der dann am Ende genug Material hat, um selbst ein Buch zu schreiben. Post. Oder aus der Sicht eines Lesers, der nicht „professionell“ (im Sinne wissenschaftlicher Kommunikation) ist, wird das Geschriebene als „Goldguss“ angesehen.

Sie können diesen Artikel aus Ihrem Konto bei Fediverso kommentieren! Seid ihr Mastodon oder Lemmy (Feddit.it), sucht nach dem Link zu diesem Artikel und Kommentar von Fediverso! .