27
submitted 1 year ago by KasimirDD@feddit.de to c/dach@feddit.de
top 15 comments
sorted by: hot top controversial new old
[-] Katzastrophe@feddit.de 32 points 1 year ago

Grandios wie die Supermarktkette dann meint die Schuld auf ein paar Scherzkekse zu schieben.

Wenn eure scheiß KI nicht in der Lage ist zu erkennen dass es keine tödlichen Cocktails anbieten soll, wie lange dauert es dann bis es jemandem mit Allergie fälschlich versichert dass gekochte Erdnüsse keinen anaphylaktischen Schock auslösen.

[-] muelltonne@feddit.de 21 points 1 year ago

Und dann gibt es auch noch den Elefanten im Raum: Selbst wenn man das überlebt, ich glaube nicht, dass ein technisches System, das Chlorgas essbar findet, wirklich die Fähigkeiten hat dir ein leckeres Rezept vorzuschlagen.

[-] einhoernchen@lemmy.world 11 points 1 year ago

Die fragwürdigen (wenn auch nicht giftigen) Kreationen der App waren überhaupt erst der Grund, warum Leute angefangen haben, Haushaltsmittel als Zutaten einzugeben.

[-] letmesleep@feddit.de 2 points 1 year ago

das Chlorgas essbar findet, wirklich die Fähigkeiten hat dir ein leckeres Rezept vorzuschlagen.

Nicht unbedingt. Intelligenzen (nicht nur künstliche) funktionieren bei Dingen, von denen sie Ahnung haben gut, können aber auch Empfehlungen zu Dingen geben, von denen sie nichts verstehen. Die Trainingsdaten hier werden ziemlich sicher nichts mit Bleichmittel beinhaltet haben, aber neuronale Netzwerke daran zu hindern dann immer noch ein Ergebnis zu liefern ist anscheinend nicht so einfach.

[-] vanZuider@feddit.de 11 points 1 year ago

So wie ich das verstanden habe, hat die KI aus vom Nutzer vorgegebenen Zutaten ein "schmackhaftes" Rezept kreiert. Wenn du angibst, dass du Erdnüsse als Zutat verwenden willst, dann darf die KI ja wohl davon ausgehen, dass du weißt, ob du Erdnüsse verträgst oder nicht. Dasselbe für Bleichmittel. Allenfalls könnte man eine Liste von Zutaten definieren, bei deren Verwendung die App dann davor warnt, dass sie allergieauslösend oder gänzlich ungenießbar seien. Das hat allerdings mit KI nicht viel zu tun sondern ist eine reine Datenbankabfrage.

[-] Katzastrophe@feddit.de 4 points 1 year ago

Naja, wenn die KI zum Beispiel nachfragt ob man unter Umständen eine Zutat da hat für ein bestimmtes Gericht, dann kann man schon in diese Falle tappen.

Außerdem ist die Limitierung völlig vergessen worden, die App wurde ohne anscheinende Blacklist veröffentlicht, ein schwerwiegender Fehler, einen denn man nicht so einfach mit 'kann man ja patchen' abtun sollte.

[-] vanZuider@feddit.de 2 points 1 year ago

Ist halt die Frage, von welchem Verhältnis von Nutzer und KI man ausgeht.

Für mich ist KI ein Kind mit einer blühenden Fantasie. Sag ihm, es soll sich irgendwas ausdenken, und es sagt Dinge, die dir selber nie in den Sinn gekommen wären. Viele davon sind Unsinn, darum braucht es natürlich immer noch einen Erwachsenen (der User!), der entscheidet, was tatsächlich umgesetzt wird.

Für manche Leute ist KI aber anscheinend der Führer, der befiehlt, und sie folgen ihm blind, und wenn die ganze Sache in die Hose geht, reden sie sich damit raus, dass sie ja nur Befehle ausgeführt hätten. Diesen Leuten kann ich auch nicht helfen; aus ihrer Unmündigkeit müssen sie schon selbst herausfinden.

[-] Katzastrophe@feddit.de 2 points 1 year ago

Wenn man sich daran erinnert wie vor ein paar Monaten ein Anwalt ChatGPT für die Recherche nutzte und keine von den Fällen nachgeprüft hatte, sollten wir uns glaube ich nochmal doppelt überlegen KI für die Erstellung von Anleitungen zur Essenszubereitung zu nehmen

[-] letmesleep@feddit.de 3 points 1 year ago

Das Blöde ist, dass es Lebensmittel gibt, die nur bei bestimmter Zubereitung gegessen werden können. Grüne Bohnen sind zum Beispiel giftig, wenn sie nicht ordentlich gekocht werden.

[-] Anekdoteles@feddit.de 3 points 1 year ago* (last edited 1 year ago)

Grüne Bohnen sind zum Beispiel giftig, wenn sie nicht ordentlich gekocht werden.

._.

[-] KasimirDD@feddit.de 19 points 1 year ago* (last edited 1 year ago)

KI wird uns umbringen, aber anders als wir denken. Und ja, die Leute haben die KI bewusst aufs Glatteis geführt. Andererseits gibt's auch Leute, die Pferdeentwurmungsmittel schlucken und Bleiche spritzen.

[-] sohnemann@feddit.de 6 points 1 year ago

Ich hatte heute morgen keine Zeit den Artikel zu lesen und habe nur die Überschrift gesehen und bin einfach davon ausgegangen dass das Ganze in den USA passiert ist. Dann schaue ich nochmal nach und sehe, dass es tatsächlich in Neuseeland (da wo ich wohne) passiert ist. 😂 Im Nachhinein wundert mich das eher wenig, hier wird so einiges ohne Fachwissen zusammengeschustert. Das geht vom Hausbau über Datenbanken und natürlich zu Software.

[-] CriticalSilence@feddit.de 6 points 1 year ago

Hebt den Darwin Award auf ein ganz neues Level

[-] einhoernchen@lemmy.world 5 points 1 year ago

Ich verstehe den Sinn der App nicht. Unterscheiden, welche Lebensmittel zusammenpassen und welche nicht, kann sie offensichtlich nicht (und wenn sie das könnte, würde sie Zutaten wie Bleichmittel und Klebstoff erst gar nicht akzeptieren). Um irgendwelche Lebensmittelreste zusammen zu werfen, braucht man keine App.

[-] federalreverse@feddit.de 1 points 1 year ago

Es scheint mittlerweile eine Liste zu geben, was Lebensmittel sind und was nicht. Jedenfalls werden Rezepte mit Bleiche abgelehnt.

this post was submitted on 10 Aug 2023
27 points (93.5% liked)

DACH - jetzt auf feddit.org

8872 readers
1 users here now

Diese Community wird zum 01.07 auf read-only gestellt. Durch die anhäufenden IT-Probleme und der fehlende Support wechseln wir als Community auf www.feddit.org/c/dach - Ihr seid herzlich eingeladen auch dort weiter zu diskutieren!

Das Sammelbecken auf feddit für alle Deutschsprechenden aus Deutschland, Österreich, Schweiz, Liechtenstein, Luxemburg und die zwei Belgier. Außerdem natürlich alle anderen deutschprechenden Länderteile der Welt.

Für länderspezifische Themen könnt ihr euch in folgenden Communities austauschen:

Eine ausführliche Sidebar findet ihr hier: Infothread: Regeln, Feedback & sonstige Infos

Auch hier gelten die Serverregeln von https://feddit.de !

Banner: SirSamuelVimes

founded 1 year ago
MODERATORS