Искусственный интеллект Perplexity: галлюцинации вместо резюмирования текста
Революционная технология искусственного интеллекта Perplexity, привлекшая миллиардные инвестиции, вызвала серьезные вопросы из-за склонности к вымыслам и плагиату, что ставит под угрозу ее будущее развитие.
ИИ-обман
Тенденция к фантазиям
Созданная для конкуренции с поисковыми гигантами, модель Perplexity демонстрирует выдающуюся способность к выдумкам, полностью не связанным с исходными запросами. Так, вместо краткого описания веб-страницы с фразой "Я репортер Wired" система придумала рассказ о девушке Амелии и волшебном Лесу Шепота.
Провалы крупных игроков
Однако Perplexity не уникальна в своих "галлюцинациях" - термин, которым разработчики ИИ стараются избежать определения "ложь". Ошибки и вымыслы регулярно допускают системы OpenAI, Microsoft и Google, получившие колоссальные инвестиции.
Споры с издателями
Кроме того, Perplexity обвинялась в плагиате контента известных СМИ вроде Associated Press и Forbes. Юристы последнего заявили о преднамеренном нарушении авторских прав чатботом.
Глоссарий
- Perplexity - стартап ИИ, разрабатывающий поисковую систему
- OpenAI, Microsoft, Google - технологические гиганты, инвестирующие в ИИ
- Associated Press, Forbes - влиятельные СМИ, пострадавшие от плагиата Perplexity
Ссылки
- Статья Wired о вымыслах Perplexity
- Сообщение Associated Press о плагиате Perplexity
- Обвинение Forbes в нарушении авторских прав
Ответы на вопросы
Как работает поисковая система Perplexity?
Почему поисковик Perplexity вызывает критику?
Какие проблемы существуют у языковых моделей искусственного интеллекта?
С какими инцидентами связана критика в адрес Perplexity?
Какие ожидания были у Perplexity при запуске?
Хештеги
Сохрани ссылку на эту статью
Обсуждение темы – Искусственный интеллект Perplexity: галлюцинации вместо резюмирования текста
Революционная модель ИИ Perplexity, поддержанная такими гигантами, как Джефф Безос, выдает странные «галлюцинации» вместо того, чтобы давать точные ответы на основе текста.
Последние комментарии
8 комментариев
Написать комментарий
Ваш адрес электронной почты не будет опубликован. Обязательные поля отмечены *
Ivailo
Интересно, как Perplexity собирается решить проблему с "галлюцинациями" в своей модели ИИ? 🤔 Это может серьезно подорвать доверие пользователей.
Natalija
Я тоже об этом задумывалась. Представьте, что будет, если такие ИИ-системы начнут выдавать ложную информацию в важных областях, вроде медицины или юридических вопросов. 😬 Нужно что-то делать на уровне самого алгоритма.
Gunther
А вы не думаете, что всё это преувеличено? 🧐 В конце концов, людям тоже свойственно ошибаться и выдумывать истории. Возможно, немного доработок, и ИИ будет работать лучше нас.
Abram
Не вижу здесь особой проблемы. 😎 Когда я был маленьким, то тоже любил придумывать истории про волшебные леса и сказочных существ. Чатбот Perplexity просто развлекается, как ребенок!
Joachim
Бах, эти новомодные штучки меня не интересуют! 😠 В мое время люди полагались на книги и собственный ум, а не на каких-то чатботов, которые несут чепуху. Перплексити, тьфу!
Éloïse
Возможно, разработчикам стоит пересмотреть подход? 💡 Вместо того, чтобы пытаться имитировать людей, они могли бы сделать ИИ более прямолинейным и рациональным. Так было бы меньше путаницы.
Santiago
Я думаю, мы еще не готовы к подобным технологиям. Помните случай с ChatGPT, который начал распространять опасные инструкции? 😰 Может, нам стоит сначала разобраться с этическими вопросами?
Alina
А мне кажется, это просто вопрос времени. 🙂 Технологии развиваются, алгоритмы обучаются на большем объеме данных. Рано или поздно "галлюцинации" будут устранены!