this post was submitted on 02 Mar 2026
36 points (97.4% liked)
DACH - Deutschsprachige Community für Deutschland, Österreich, Schweiz
4986 readers
190 users here now
Das Sammelbecken auf feddit.org für alle Deutschsprechenden aus Deutschland, Österreich, Schweiz, Liechtenstein, Luxemburg und die zwei Belgier. Außerdem natürlich alle anderen deutschprechenden Länderteile der Welt.
Für länderspezifische Themen könnt ihr euch in folgenden Communities austauschen:
___
Zusätzliche Regeln aus „Lessons learned":
- Postet hier zu allen Themen, die euch interessieren (soweit sie den anderen Regeln genügen)
- Es werden Posts zum Thema Nahost / Palästina/Israel hier auf Dach gelöscht.
- Dasselbe gilt für Wahlumfragen à la Sonntagsumfrage.
- Bitte Titel von Posts nur sinnerweiternd und nicht sinnentstellend verändern. Eigene Meinungen gehören in den Superkommentar oder noch besser in einen eigenen Kommentar darunter.
- Youtube Videos bitte nicht ohne eine zusätzliche Zusammenfassung posten
___
Einsteigertipps für Neue gibt es hier.
___
Eine ausführliche Sidebar mit den Serverregeln usw. findet ihr auf der Startseite von feddit.org
___
founded 2 years ago
MODERATORS
you are viewing a single comment's thread
view the rest of the comments
view the rest of the comments
Halluzinationen sind ein Problem, klar. Sich jetzt aber hinzustellen und die produktive Nutzung dieser Dinger in Frage zu stellen ist eine wilde Aussage. Dein Beispiel ist ein grundlegendes Bedienproblem. Paste das Manual für IC10 halt in den Prompt mit rein und die Beispiele werden auf einmal funktionieren.
Das Grundproblem ist doch ein ganz anderes. Klar können Leute wie du und ich das einschätzen und Wege finden, das irgendwie zum Laufen zu kriegen. Aber das ist überhaupt nicht mein Punkt und das habe ich auch versucht darzustellen. Der Punkt ist, dass diese Chatbots ganz normalen Leuten als allwissendes Universalwerkzeug verkauft werden und diese Normalos überhaupt keine Chance haben den Output richtig einzuschätzen und die entsprechenden Schlüsse zu ziehen. Darüber hinaus unternehmen diese Anbieter auch nichts, um die Nutzer im Umgang mit LLMs zu schulen (ausser dem winzigen Disclaimer dass die Informationen falsch sein können am Ende der Seite). Stattdessen wird die Wunderwelt der künstlichen Intelligenz gepredigt.
Deine Argumentation "das ist ein Bedienproblem" zieht ab der Stelle nicht mehr wo Dinge als etwas verkauft werden was sie nicht sind. So zu tun als wäre ein LLM in irgendeiner Weise intelligent (und das tun ausnahmslos alle, die "AI" anbieten) ist absolut fahrlässig. Und aus dieser Perspektive betrache ich das eben auch wenn ich einen Chatbot teste.
Natürlich ist es kein Universalwerkzeug. Deswegen bauen ja Startups Layer um Layer um das eigentlich Model herum, damit es eben immer einfacher für "Normalos" nutzbar wird. Merkt man daran, dass die Firmen die Modelle eben gezwungen haben Quellen herauszusuchen (Perplexity), einen Plan zu befolgen (Thinking Mode), MCPs anzubieten (Context7), etc. Ich hoffe (und vermute es ehrlich gesagt auch), dass sich die Modelle bald immer mehr Kontext selber holen werden.
Es sind halt Werkzeuge, die aber nun mal unglaublich mächtig sind. Meine Aussage war hautpsächlich auf das hier bezogen: "Frage mich aber, wie Menschen solche Chatbots ernsthaft produktiv nutzen wollen". Das ist total möglich, wenn man versteht, wie sie funktionieren und merkt, dass man eben zusätzlichen Kontext geben muss.