36
submitted 2 days ago by Ananasdoener@feddit.org to c/dach@feddit.org
top 12 comments
sorted by: hot top controversial new old
[-] MurderCapitalism@feddit.org 6 points 1 day ago* (last edited 1 day ago)

Zuerst erstellen KIs Wikipedia-Seiten. Dann überprüfen andere KIs die Texte.

Was mich zur Frage führt: Wie viele Bots sind eigentlich auf Wikipedia aktiv?

[-] Kissaki@feddit.org 4 points 1 day ago

Vielleicht können wir das mit einer KI Analyse herausfinden?

[-] notastatist@feddit.org 1 points 8 hours ago

Das sollten wir am besten mal die KI fragen.

[-] CosmoNova@lemmy.world 20 points 2 days ago

Solange noch drübergelesen wird, habe ich grundsätzlich kein Problem damit, dass Texte maschinell entstanden sind. Jedoch könnte es schnell dazu führen, dass die Seite damit überflutet wird und bald keiner mehr hinterherkommt. Also aus organisatorischen Gründen ist es dann schon sehr bedenklich. Besonders wenn ich mir ansehe, wie andere Seiten mit hundert mal mehr Ressourcen damit bereits völlig überfordert sind.

[-] Kissaki@feddit.org 7 points 1 day ago* (last edited 1 day ago)

Ich bin etwas skeptisch ob ein Drüberlesen oder Prüfungsprozess ausreicht. Gerade auch weil auf Wikipedia nicht nur, oder ich nehme an nicht flächendeckend und ausreichend erfahrene und wissende, sorgfältige Freiwillige mitarbeiten dass das ausreichend sichergestellt werden könnte.

Dazu verlinke ich den EN Artikel Why AI Can Push You to Make the Wrong Decision at Work.

When the AI provided an incorrect result, researchers found inexperienced and moderately experienced radiologists dropped their cancer-detecting accuracy from around 80% to about 22%. Very experienced radiologists’ accuracy dropped from nearly 80% to 45%.

Wikipedia ist mir zu wichtig um dort großflächig zu experimentieren, ohne klaren Aus- oder Rückweg, wenn man befürchten muss dass beim Prüfen nur 20-40 % der Falschaussagen bemerkt werden.

Kann man vielleicht nicht so gleich setzen, aber macht mich zumindest skeptisch. Für Zuversicht bräuchte ich andere Argumentation oder Grundlagen. Text auf Fakten prüfen ist auch nicht unbedingt simpel. Ist ja jetzt vielleicht schon ein Problem.

Ein Ansatz von jemand der sich auskennt schreibt mit einer KI könnte besser sein als wir akzeptieren KI Beiträge und prüfen das. Zum Beispiel.

Interessanter könnte sein KI zum Prüfen und Melden von Verdachtsfällen zu nutzen.

[-] gencha@lemm.ee 13 points 1 day ago

Solange noch drüber gelesen wird? Die Leute generieren Abfall den sie gar nicht verstehen. Das können sie so lange lesen wie sie wollen. Erst wenn der Müll so genial klingt, dass man ihn selbst nicht mehr versteht, sind die Leute doch erst so richtig im Rausch. Es gibt keine kompetenten Personen die mit LLMs ihre Zeit verschwenden. Wenn man tatsächlich weiß was man schreiben will, dann tut man es einfach. Es ist unfassbar wie viele Leute auch mittlerweile echt glauben dieser LLM Output ist mit Fakten gleichzusetzen...

[-] cows_are_underrated@feddit.org 11 points 1 day ago

KI kann ein Helfer beim schreiben sein, ist jedoch, zumindest meiner Erfahrung nach, absolut nicht in der Lage die eigene Recherche und Schreibarbeit zu ersetzen.

[-] aktenkundig@discuss.tchncs.de 1 points 1 day ago

Es gibt keine kompetenten Personen die mit LLMs ihre Zeit verschwenden.

Ja, klar. Völlig undenkbar /s

[-] CosmoNova@lemmy.world 1 points 1 day ago* (last edited 1 day ago)

Mein Kommentar setzt nunmal voraus, das da jemand mit Ahnung drüber liest und einen Fachtext als Vorlage nimmt, statt ChatGPT einfach nur danach zu fragen und das erstbeste zu nehmen. Es ging mir dabei um den Grundsatz, also ob es theoretisch ein Problem sein muss und meine Antwort ist nein, es kann nützlich sein.

Ich hätte grundsätzlich erst mal nichts gegen generierte Formulierungen. Hier geht es ja nicht darum Kunstwerke zu schaffen, sondern darum, Wissen zugänglich zu machen.

Ich denke da eher in Richtung Zusammenfassungen von Fachtexten schreiben lassen über Themen, die man tatsächlich versteht. Als eine art Praktikanten-Assistent funktioniert das schon ganz gut. Denn auch wenn die Qualität oft nicht die beste ist und die Natur des Textes dem Thema manchmal nicht gerecht wird, sind die wichtigen Punkte meist alle drin und korrekt zusammengefasst.

Auf die Probleme bin ich ja auch schon eingegangen, denn Theorie und Anwendung sind hier zwei ganz verschiedene paar Schuh, wie ich bereits schilderte.

[-] Petter1@lemm.ee 0 points 1 day ago

Ich glaube gencha kann nicht mit generativer AI umgehen 🤔

[-] Mixel@feddit.org 8 points 2 days ago

Geb ich dir recht! Das einzige Problem was ich auch noch sehe ist das die Texte sich alle gleich anhören und selten viel Substanz kurz zusammenfassen sondern es lang gestreckt ist was meisten bei llm generierten texten der Fall ist

[-] Petter1@lemm.ee 1 points 1 day ago

Mit dem richtigen prompt kann man hier schon entgegenwirken.

this post was submitted on 12 Nov 2024
36 points (100.0% liked)

DACH - Deutschsprachige Community für Deutschland, Österreich, Schweiz

2021 readers
406 users here now

Das Sammelbecken auf feddit.org für alle Deutschsprechenden aus Deutschland, Österreich, Schweiz, Liechtenstein, Luxemburg und die zwei Belgier. Außerdem natürlich alle anderen deutschprechenden Länderteile der Welt.

Ursprünglich wurde diese Community auf feddit.de gegründet. Nachdem feddit.de mit immer mehr IT-Problemen kämpft und die Admins nicht verfügbar sind, hat ein Teil der Community beschlossen einen Umzug auf eine neue Instanz unter dem Dach der Fediverse Foundation durchzuführen.

Für länderspezifische Themen könnt ihr euch in folgenden Communities austauschen:

Eine ausführliche Sidebar mit den Serverregeln usw. findet ihr auf der Startseite von feddit.org

___

founded 4 months ago
MODERATORS