Um das mal richtigzustellen:
Selbst wenn „Mandy“ eine KI sein sollte, „trainiert“ man sie nicht mit Fragen und „falschen Infos“. Das ist schlichtweg falsch. Das mag zu früheren Zeitpunkten und teilweise auch heute bei LLMs so gewesen sein. Ein Bot, der detaillierte Auskünfte über bestimmte Themen gibt, ist so konfiguriert, dass seine Antworten auf einem definierten Datensatz bzw. einer vorher definierten Datenquelle beruhen, siehe RAG-Modelle ![]()