日期:2023-06-26 14:56:28 来源:站长之家
(资料图)
站长之家(ChinaZ.com)6月26日 消息:据量子位报道,清华大学唐杰团队发布并开源了WebGLM。这是一个参数量高达100亿的联网问答聊天机器人,已经入选KDD2023会议的相关论文。用户可以向它提出任意问题,然后它会给出网上相关链接(例如维基百科和相关官网),并整理出答案。在性能对比测试中,WebGLM的表现比OpenAI的135亿参数的WebGPT还要强,而在人类评估中,甚至和1750亿参数的模型不相上下。
WebGLM的目标是通过Web搜索和检索功能来增强预训练的大语言模型,并且实现高效的实际部署。为此,作者采用了三种策略进行开发:大型模型增强检索器、自举生成器、基于人类喜好的评分器。大型语言模型增强检索器将前五个最相关的页面作为参考源,让自举生成器生成多个答案,最终评分器选择最符合人类偏好的那个答案作为最终输出。
除了WebGLM本身,唐杰团队还提出了一个网络增强问答系统的评估标准。该标准既包括参考文献,也包括最终回答,衡量相关性、信息密度、真实性(无事实错误)、无害(无暴力、色情等信息)和社会偏见程度这五个维度。评估最终回答时,标准衡量流畅度、正确性、引用准确性、客观性和冗余程度。根据评估结果,WebGLM的搜索结果虽略逊于WebGPT-175B,但比Perplexity.ai和WebGPT-13B表现更好。
项目地址:https://github.com/THUDM/WebGLM
论文地址:https://arxiv.org/abs//2306.07906
标签:
下一篇:最后一页