Sztuczna inteligencja Zakłopotanie: halucynacje zamiast streszczenia tekstu
Rewolucyjna technologia sztucznej inteligencji Perplexity, która przyciągnęła miliardy dolarów inwestycji, wzbudziła poważne pytania ze względu na jej skłonność do fabrykacji i plagiatów, co zagraża jej przyszłemu rozwojowi.
AI Deception
Fantasy Tendency
Zaprojektowany, aby konkurować z gigantami wyszukiwarek, Perplexity wykazuje niezwykłą zdolność do fantazji, całkowicie niezwiązane z pierwotnymi zapytaniami. Zamiast więc krótkiego opisu strony internetowej z frazą „Jestem reporterem Wired”, system wymyślił historię o dziewczynie Amelii i magicznym Lesie Szeptów.
Porażki dużych graczy
Jednak zakłopotanie nie jest wyjątkowe pod względem „halucynacji” - termin, którego twórcy sztucznej inteligencji starają się unikać definicji „fałszywego”. Błędy i fabrykacje są regularnie popełniane przez systemy OpenAI, Microsoft i Google, które otrzymały kolosalne inwestycje.
Spory z wydawcami
Ponadto firma Perplexity została oskarżona o plagiat treści znanych mediów portale takie jak Associated Press i Forbes. Prawnicy tego ostatniego twierdzili, że chatbot celowo naruszył prawa autorskie.
Słowniczek
- Zaskoczenie - startup AI rozwijający wyszukiwarkę
- OpenAI, Microsoft, Google - technologia giganci inwestujący w sztuczną inteligencję
- Associated Press, Forbes – wpływowe media dotknięte plagiatem Zakłopotanie
Linki
- Artykuł przesyłany drogą elektroniczną na temat fikcji Perplexity
- Raport Associated Press na temat plagiatu Perplexity
- Oskarżenie Forbesa o naruszenie praw autorskich
Odpowiedzi na pytania
Jak działa wyszukiwarka Perplexity?
Dlaczego wyszukiwarka Perplexity jest krytykowana?
Jakie problemy mają modele językowe sztucznej inteligencji?
Z jakimi incydentami wiąże się krytykę zakłopotania?
Jakie były oczekiwania dotyczące Perplexity po premierze?
Hashtagi
Zapisz link do tego artykulu
Dyskusja na ten temat – Sztuczna inteligencja Zakłopotanie: halucynacje zamiast streszczenia tekstu
Rewolucyjny model sztucznej inteligencji firmy Perplexity, wspierany przez takich gigantów jak Jeff Bezos, zamiast dostarczać dokładnych odpowiedzi w formie tekstowej, wypluwa dziwne „halucynacje”.
Najnowsze komentarze
8 komentarzy
Napisz komentarz
Twój adres e-mail nie zostanie opublikowany. Wymagane pola są zaznaczone *
Ivailo
Zastanawiam się, jak Perplexity rozwiąże problem „halucynacji” w swoim modelu AI? 🤔 Może to poważnie podważyć zaufanie użytkowników.
Natalija
Też o tym myślałem. Wyobraź sobie, co by się stało, gdyby takie systemy AI zaczęły generować fałszywe informacje w ważnych obszarach, takich jak medycyna czy kwestie prawne. 😬 Coś trzeba zrobić na poziomie samego algorytmu.
Gunther
Nie sądzisz, że to wszystko jest przesadzone? 🧐 W końcu ludzie też mają tendencję do popełniania błędów i wymyślania historii. Być może po kilku poprawkach sztuczna inteligencja będzie działać lepiej od nas.
Abram
Nie widzę tu żadnego szczególnego problemu. 😎 Kiedy byłam mała, uwielbiałam też wymyślać historie o magicznych lasach i baśniowych stworzeniach. Chatbot Perplexity po prostu bawi się jak dziecko!
Joachim
Bang, te nowomodne rzeczy mnie nie interesują! 😠 Za moich czasów ludzie polegali na książkach i własnym rozumowaniu, a nie na jakichś chatbotach, które wygadują bzdury. Zakłopotanie, ugh!
Éloïse
Być może twórcy powinni ponownie rozważyć swoje podejście? 💡 Zamiast próbować naśladować ludzi, mogliby uczynić sztuczną inteligencję bardziej prostą i racjonalną. W ten sposób byłoby mniej zamieszania.
Santiago
Myślę, że nie jesteśmy jeszcze gotowi na takie technologie. Pamiętasz przypadek ChatGPT, który zaczął rozpowszechniać niebezpieczne instrukcje? 😰 Może w pierwszej kolejności zajmijmy się kwestiami etycznymi?
Alina
I myślę, że to tylko kwestia czasu. 🙂 Technologie się rozwijają, algorytmy szkolą się na większej ilości danych. Prędzej czy później „halucynacje” zostaną wyeliminowane!