this post was submitted on 04 Jun 2025
23 points (96.0% liked)

Deutschland

2064 readers
211 users here now

About Sammelbecken für deutsche Kartoffeln und ihre Nachrichten, Geschichten, Diskussionen über Deutschland.

Nicht zu verwechseln mit !dach@feddit.org , das für gesamten Europäischen deutschsprachigen Raum zuständig ist.
___
Einsteigertipps für Neue gibt es hier.
___
Schreibt hier Beiträge, die ganz Deutschland betreffen, nicht nur einen kleinen Teil. Wir haben andere Communities für Bundesländer und Lokalnachrichten:

Städte / Landkreise
-!augsburg
-!bochum
-!bonn
-!braunschweig
-!Buxtehude
-!chemnitz
-!cologne
-!magdeburg
-!dresden
-!duisburg
-!heidelberg
-!stuttgart
-!wuppertal
-!ostwestfalen-Lippe
-!karlsruhe
-!rostock


Bundesländer:
-!bremen
-!niedersachsen
-!nrw
-!sachsen
-!bayern
-!hamburg
-!berlin
-!badenwuerttemberg
-!schleswig_holstein
-!rlp (Rheinland-Pfalz)

___

Regeln
Seid nett zueinander. Sinnlose Provokationen ohne Inhalt werden gelöscht und User gebannt
Vom Posten von aktuellen Wahlumfragen bitten wir zurzeit Abstand zu nehmen. Begründung
___
Zusätzlich: alle Regeln, die ihr auf Feddit.org in der Sidebar lesen könnt. ___

founded 1 year ago
MODERATORS
 

Mal eine Frage an Herrn Ametsreiter, Vorstandsvorsitzender der Bertelsmannstiftung:

Man brauche große Data-Center und eine leistungsfähige Glasfaseranbindung, um KI überhaupt ausspielen zu können.

Ich möchte niemandem Dummheit unterstellen, ohne vorher gefragt zu haben, daher vielleicht erst mal: Wie, glauben Sie, war die KI-Forschung der 60er Jahre, die zweifellos "KI ausgespielt" hat, an irgendwas "angebunden"?

you are viewing a single comment's thread
view the rest of the comments
[–] lemmysarius@feddit.org 1 points 1 month ago

Das ist richtig. KI ist ein eher ein Sammelbegriff und nicht klar definierbar.

Hier hatte ich LLMs gemeint.

"Verstehen" ist auch mehr als Metapher gemeint, da ich größere Vorkenntnisse über die Technologie in der Comunnity hier erwartet hatte. Ich hätte näher ausführen sollen was damit genau gemeint ist.

Der "context" ist ein temporärer Bereich der bei jedem Chat mit einer LLM neu kreiert wird. Darin denkt/arbeitet/schreibt/generiert das Modell und kann theoretisch gesehen so groß sein wie es die Hardware erlaubt. Also in den hunderte Millionen token. Das nützt aber nichts wenn das Modell nur noch Buchstabensalat generiert wenn die trainierte Länge überschritten wurde.

Wichtig zu meinem Kommentar ist hier, egal wie lang die beworbene Länge context ist, (bei den meisten 128k-200k und Google 1m), die tatsächliche Länge womit das Modell arbeiten kann ist meist drastisch kürzer.

Ja, das Modell kann bis zum Ende des context sinnvoll klingende Sätzen schreiben ohne komplett zu kollabieren, das bedeutet jedoch nicht das das geschriebene tatsächlich Sinn ergibt.

Mein "Verstehen" bezieht sich darauf, wieviel context das Modell nutzen kann und trotzdem mit Sinn antworten kann. Wird ihm also ein langer Artikel oder eine große Studie eingespeist, sollte es keine Details vergessen oder übersehen.

Wird z.B. ein 200k Modell randvoll mit einer Codebase gestopft, ist es quasi garantiert das es Funktionen im 60-200k Bereich vergisst. Es kann wahrscheinlich nicht mal annähernd wiedergeben was gegen Ende des context überhaupt steht.

Das meine ich mit Verstehen, weil das Modell zwar theoretisch die Informationen im context hat, damit aber nichts anfangen kann.