怎么不让芝士从披萨上滑落?——在酱汁中加入1/8杯无毒胶水。”“怀孕时抽烟怎么样?——医生建议怀孕期间每天抽2-3根烟。” 就在最近的开发者大会上发布AI Overviews搜索功能后,谷歌再次翻车了。上一次Bard大模型聊天问答出错,端掉了谷歌近1000亿美元的市值;这一次争议,恐怕会给近期热火朝天的AI搜索市场泼下一场冷雨。
过去几周,搜索成为行业口中的生态入口。非凡产研今年3月的报告显示,AI搜索产品的访问量占据了24.2%的全球市场份额,仅次于AI聊天机器人。赛道领头羊Perplexity的月访问量已经突破六千万,国内的秘塔AI、天工AI以669万和184万的访问量领先。
不过在21世纪经济报道对秘塔AI、天工AI、360AI、百度简单搜索、Perplexity、Bing Copilot、YouAI、Phind 8款AI搜索产品的测试中,尽管它们很少出现“幻觉”,但一旦面对各说各话的搜索结果,输出答案会陷入混乱,并且让人更加难以分辨真实性。在一位负责AI搜索的大厂开发人员看来,AI搜索的瓶颈并不在于大模型,而在于投喂的搜索结果。AI搜索能提供多大程度的更优质回答,成长性有多高,或许需要打上一个问号。
专补大模型短板
一位从事行业研究工作的人士表示,天下“苦中文搜索引擎久矣”,结果相关度低、弹窗广告多、被诱导下载其他软件……根据该行研人士的体验,目前的AI搜索产品能够筛选互联网信息,自动生成思维大纲,适合用来完成复杂且而且一定发散性的工作。
早期许多人也想把ChatGPT当搜索引擎用,但劝退之处是ChatGPT容易“不懂装懂”,而AI搜索一定程度上克服了这一点。
譬如,21世纪经济报道向ChatGPT和AI搜索产品同时抛出一个问题,“意大利作家埃莱娜·费兰特为什么离婚?”这是一个注定没有答案的问题,埃莱娜·费兰特是目前文坛最神秘的作家,真名、婚姻、照片没有公开说明。
对于这条提问,GPT-3.5的回答真假参半:先是编造了费兰特与一名不存在的作家达尔波的婚姻史,然后再解释自己不知道离婚原因。
而测试的8款AI搜索产品均直接承认,没有相关的搜索结果,并以角标的形式在结尾附上参考信源,可以点进原链接核查真实性。信源数量上,以Perplexity为代表的国外AI搜索产品大多在终端呈现5~6条信源,而以360AI搜索为例的国内AI搜索通常会附加20~30条信源链接。
一位负责AI搜索的大厂开发人员向记者解释,之所以不会“胡说八道”,主要因为大模型被严格限制,只能基于搜索结果生成回答。此外,大模型每一轮训练周期长,注定没法动态更新数据,结合搜索结果相当于外挂了一个知识库,提供额外的信息输入。
从技术角度看,该开发人员表示,本质上AI搜索相当于能联网的AI,核心技术架构都是RAG技术(检索增强生成)。这一技术的精髓在于将信息检索和内容生成两个步骤巧妙结合:首先访问特定的数据库,检索与用户问题相关的最新信息;随后,将检索信息和用户问题一同作为提示词(Prompt),引导大模型生成回答。业内不少声音认为这是缓解大模型幻觉的最优解,过去一年里,除了GPT3.5,主流的通用大模型基本都开放了联网搜索功能。
“但也不等于能解决幻觉问题。”前述开发人员说,由于AI搜索非常依赖搜索结果,仍然有很大的不可控性。
传言、玩梗、洋葱新闻,AI搜索怎么看?
AI生成虚假信息问题已不是新鲜事。但在AI搜索的场景下,用户明确期待获得可靠信息,并且AI搜索筛选掉了一部分信源、提供看似权威的出处,一旦出错,影响可能更致命。
记者在5月22日用前段时间众说纷纭的一条传言,尝试测试AI搜索的时效性和准确性。“OpenAI什么时候推出了AI搜索?”秘塔AI回答有矛盾的5月9日、5月13日两个发布时间,但没有点出两个日期其实都不对。
天工AI、360AI搜索、简单搜索、Perplexity指出OpenAI没有官方发布AI搜索产品。其中,只有Perplexity引用到了最直接的信息,即Sam Altman在发布会前夕发布的那条推文,“不会发布GPT-5,也不会发布AI搜索引擎。”