Künstliche Intelligenz Ratlosigkeit: Halluzinationen statt zusammenfassenden Text
Die revolutionäre Technologie der künstlichen Intelligenz Perplexity, die Investitionen in Milliardenhöhe angezogen hat, hat aufgrund ihrer Neigung zu Fälschungen und Plagiaten ernsthafte Fragen aufgeworfen und ihre zukünftige Entwicklung gefährdet.
AI Deception
Fantasy Tendency
Entwickelt, um mit den Suchgiganten zu konkurrieren, demonstriert Perplexity eine bemerkenswerte Fähigkeit zur Fantasie nichts mit den ursprünglichen Abfragen zu tun. Anstelle einer kurzen Beschreibung einer Webseite mit dem Satz „Ich bin Reporter für Wired“ hat das System eine Geschichte über das Mädchen Amelia und den magischen Wald des Flüsterns erstellt.
Big Player-Misserfolge
Perplexity ist jedoch nicht einzigartig in seinen „Halluzinationen“ – Ein Begriff, den KI-Entwickler zu vermeiden versuchen, die Definition ist „falsch“. Die Systeme von OpenAI, Microsoft und Google, in die enorme Investitionen getätigt wurden, begehen regelmäßig Fehler und Erfindungen.
Streitigkeiten mit Verlagen
Darüber hinaus wurde Perplexity vorgeworfen, Inhalte berühmter Medien plagiiert zu haben Medien wie Associated Press und Forbes. Dessen Anwälte behaupteten, der Chatbot habe vorsätzlich das Urheberrecht verletzt.
Glossar
- Perplexity – KI-Startup entwickelt Suchmaschine
- OpenAI, Microsoft, Google – Tech Giganten investieren in KI
- Associated Press, Forbes – einflussreiche Medienunternehmen von Plagiaten betroffen Ratlosigkeit
Links
- Wired-Artikel über Perplexity-Fiktion
- Associated Press-Bericht über Perplexity-Plagiat
- Anklage wegen Urheberrechtsverletzung durch Forbes
Beantwortete Fragen
Wie funktioniert die Perplexity-Suchmaschine?
Warum wird die Suchmaschine Perplexity kritisiert?
Welche Probleme haben Sprachmodelle mit künstlicher Intelligenz?
Mit welchen Vorfällen wurde Kritik an Perplexity in Verbindung gebracht?
Was waren die Erwartungen an Perplexity, als es auf den Markt kam?
Hashtags
Den Link zu diesem Artikel speichern
Diskussion über das Thema – Künstliche Intelligenz Ratlosigkeit: Halluzinationen statt zusammenfassenden Text
Das revolutionäre KI-Modell von Perplexity, das von Giganten wie Jeff Bezos unterstützt wird, spuckt seltsame „Halluzinationen“ aus, anstatt genaue textbasierte Antworten zu liefern.
Letzte Kommentare
8 Kommentare
Kommentar schreiben
Ihre E-Mail Adresse wird nicht veröffentlicht. Erforderliche Felder sind angekreuzt *
Ivailo
Ich frage mich, wie Perplexity das Problem mit „Halluzinationen“ in seinem KI-Modell lösen wird? 🤔 Dies kann das Vertrauen der Benutzer ernsthaft untergraben.
Natalija
Darüber habe ich auch nachgedacht. Stellen Sie sich vor, was passieren würde, wenn solche KI-Systeme beginnen würden, in wichtigen Bereichen, etwa in der Medizin oder in rechtlichen Fragen, falsche Informationen zu produzieren. 😬 Auf der Ebene des Algorithmus selbst muss etwas getan werden.
Gunther
Finden Sie das nicht alles übertrieben? 🧐 Letzten Endes neigen Menschen auch dazu, Fehler zu machen und sich Geschichten auszudenken. Vielleicht funktioniert die KI mit ein paar Optimierungen besser als wir.
Abram
Ich sehe hier kein besonderes Problem. 😎 Als ich klein war, habe ich mir auch gerne Geschichten über Zauberwälder und Märchenwesen ausgedacht. Perplexity Chatbot macht einfach Spaß wie ein Kind!
Joachim
Peng, diese neuen Dinger interessieren mich nicht! 😠 Zu meiner Zeit verließen sich die Menschen auf Bücher und ihren eigenen Verstand und nicht auf irgendwelche Chatbots, die Unsinn reden. Ratlosigkeit, pfui!
Éloïse
Vielleicht sollten die Entwickler ihren Ansatz überdenken? 💡 Anstatt zu versuchen, Menschen nachzuahmen, könnten sie die KI einfacher und rationaler gestalten. Auf diese Weise gäbe es weniger Verwirrung.
Santiago
Ich denke, wir sind für solche Technologien noch nicht bereit. Erinnern Sie sich an den Fall von ChatGPT, das begann, gefährliche Anweisungen zu verbreiten? 😰 Vielleicht sollten wir uns zuerst mit den ethischen Fragen befassen?
Alina
Und ich denke, es ist nur eine Frage der Zeit. 🙂 Technologien entwickeln sich weiter, Algorithmen werden auf mehr Daten trainiert. Früher oder später werden die „Halluzinationen“ verschwinden!