Deutschland
About Sammelbecken für deutsche Kartoffeln und ihre Nachrichten, Geschichten, Diskussionen über Deutschland.
Nicht zu verwechseln mit !dach@feddit.org , das für gesamten Europäischen deutschsprachigen Raum zuständig ist.
___
Einsteigertipps für Neue gibt es hier.
___
Schreibt hier Beiträge, die ganz Deutschland betreffen, nicht nur einen kleinen Teil.
Wir haben andere Communities für Bundesländer und Lokalnachrichten:
Städte / Landkreise
-!augsburg
-!bochum
-!bonn
-!braunschweig
-!Buxtehude
-!chemnitz
-!cologne
-!magdeburg
-!dresden
-!duisburg
-!heidelberg
-!stuttgart
-!wuppertal
-!ostwestfalen-Lippe
-!karlsruhe
-!rostock
Bundesländer:
-!bremen
-!niedersachsen
-!nrw
-!sachsen
-!bayern
-!hamburg
-!berlin
-!badenwuerttemberg
-!schleswig_holstein
-!rlp (Rheinland-Pfalz)
___
Regeln
Seid nett zueinander.
Sinnlose Provokationen ohne Inhalt werden gelöscht und User gebannt
Vom Posten von aktuellen Wahlumfragen bitten wir zurzeit Abstand zu nehmen. Begründung
___
Zusätzlich: alle Regeln, die ihr auf Feddit.org in der Sidebar lesen könnt.
___
view the rest of the comments
Das ist richtig. KI ist ein eher ein Sammelbegriff und nicht klar definierbar.
Hier hatte ich LLMs gemeint.
"Verstehen" ist auch mehr als Metapher gemeint, da ich größere Vorkenntnisse über die Technologie in der Comunnity hier erwartet hatte. Ich hätte näher ausführen sollen was damit genau gemeint ist.
Der "context" ist ein temporärer Bereich der bei jedem Chat mit einer LLM neu kreiert wird. Darin denkt/arbeitet/schreibt/generiert das Modell und kann theoretisch gesehen so groß sein wie es die Hardware erlaubt. Also in den hunderte Millionen token. Das nützt aber nichts wenn das Modell nur noch Buchstabensalat generiert wenn die trainierte Länge überschritten wurde.
Wichtig zu meinem Kommentar ist hier, egal wie lang die beworbene Länge context ist, (bei den meisten 128k-200k und Google 1m), die tatsächliche Länge womit das Modell arbeiten kann ist meist drastisch kürzer.
Ja, das Modell kann bis zum Ende des context sinnvoll klingende Sätzen schreiben ohne komplett zu kollabieren, das bedeutet jedoch nicht das das geschriebene tatsächlich Sinn ergibt.
Mein "Verstehen" bezieht sich darauf, wieviel context das Modell nutzen kann und trotzdem mit Sinn antworten kann. Wird ihm also ein langer Artikel oder eine große Studie eingespeist, sollte es keine Details vergessen oder übersehen.
Wird z.B. ein 200k Modell randvoll mit einer Codebase gestopft, ist es quasi garantiert das es Funktionen im 60-200k Bereich vergisst. Es kann wahrscheinlich nicht mal annähernd wiedergeben was gegen Ende des context überhaupt steht.
Das meine ich mit Verstehen, weil das Modell zwar theoretisch die Informationen im context hat, damit aber nichts anfangen kann.