新版必应chat完全是一个错误
文章总结:新版必应只能作为一种“语文建模”工具,基本不能提供任何有事实依据的帮助。
在体验了两天新必应后,我觉得这个东西不能说完全没有用处吧,只能说基本没有用处。因为其最致命的问题是:新的必应chat机器人,即使查阅了互联网,有了参考链接和参考资料,得出的结果、写出的文章也是完全错误的。
这个现象在长篇文字生成方面尤其严重。我想让其总结《流浪地球2》的电影剧情,发现它根本没法总结,总结出来的数十篇文章中,没有一篇是正确的,而且文章写的越长越离谱。甚至我指定让它单单总结指定维基百科页面,它仍然写出了一篇完全错误的电影剧情。
我都想发布一个挑战:如何让必应能正确总结《流浪地球2》的剧情?
可以看到这篇内容真的是漏洞百出
正如对与这篇电影的总结一样,如果你是一个对问题完全不懂的路人,那确实是有可能相信必应的总结的。因为它的回答总是在语言上合乎逻辑,给出的是表面上合理的答案。但是一旦它涉及到了自己熟悉的领域,它的回答马上就会显得漏洞百出、不堪一击。它的回答完全是胡编乱造的,即使是提供了带有网页链接的证据或论据,它依然会写错。
比如,我问他一个戴森球计划的问题:
在有网页参考后,依然是完全错误的回答
比如,我问他一个minecraft整合包omnifactory的问题:
虽然有参考,但是依然胡编乱造+开启复读模式
比如,我问他一个工作上的问题:
真要根据网上的搜索,就不会选错了
我一开始以为必应在参考各种网页资料后,起码给出的内容要比chatgpt准确一些,现在看来半斤八两,大家一起胡编乱造,只不过必应造的有依据一些。
所以这一类chat类机器人的问题在于,它们不能保证回答的正确性和可靠性,而是只能根据一些表面的信息生成一些看起来合理的回答。因此这些结果完全没法作为真正做事情的参考,而只能作为一种娱乐或交流的工具。真的想要获取准确和全面的信息,还是需要自己去浏览各个网页,手动查看和比较不同的来源和观点。
虽然我自己手动搜不如它一键搜索的快,但是快有什么用呢?给出的回复全是错的。所以我觉的普通的搜索引擎目前一时半会儿不会被这类chat所取代。
共有 0 条评论