Vor kurzem habe ich den Artikel von Reto Vogt über ein Experiment der BBC gelesen. In der Studie untersuchten sie das Verhalten verschiedener KI-Modelle (ChatGPT, Gemini, Copilot und Perplexity) und wie genau sie Inhalte zusammenfassen und wiedergeben. Das Ergebnis: In der Hälfte der Fälle (51 %) traten erhebliche Probleme auf. Fast jede fünfte Antwort (19 %) enthielt falsche Fakten, Zahlen oder Daten. Weitere 13 % der Zitate waren entweder verändert oder stammten gar nicht aus dem originalen Artikel.
Der ganze Artikel ist hier verfügbar:
Dies ist eine KI-Zusammenfassung des Blogs durch NotebookLM von Google.
Viel Spass!
Jill
Share this post