本报告旨在深入评估和比较大语言模型的综合性能,并与市面上的同类产品进行对比。评估将从生成质量、使用与性能、安全与合规三个维度进行,包括对上下文理解、相关性、响应速度等方面的评估,以及在创意写作、代码编程、舆情分析、历史知识等领域中的应用情况。报告将分析不同模型之间的优劣,并提供竞品对比,同时探讨技术和架构差异对综合性能的影响。通过这一全面的评估和比较,报告旨在帮助读者在选择和应用大语言模型时做出明智的决策。清华大学新闻与传播学院新媒体研究中心还将根据提醒进行报告修订,确保报告准确无误。
2023-09-27 11:38:13 1.2MB
1
桌面研究 通过对⾏业公开信息进⾏桌⾯研 究,资料包括但不限于专业机构 学术论⽂、⽂章资料、论坛讨论、 研究报告、相关⼚商产品介绍、 相关专家公开演讲内容等。 2专家访谈 InfoQ 研究中⼼针对本次研究 定向邀请了国内外的相关专家 进⾏访谈。 3InfoQ 分析 结合桌⾯研究和专家访谈进⾏观 点沉淀和交流,并经由报告形式 对外展示
2023-07-21 09:33:54 2.21MB 语言模型 大语言模型综合评测
1
chatglm使用lora进行模型微调训练,没有采用官方的方案,使用了另一种效果好的方案,对于显存特别友好,24g显存就能训练自己的垂直领域大模型训练了,效果还是非常的好的,适合自己机器不是很多的需要做实验的同学
2023-06-29 21:32:48 13.07MB 大语言模型 chatglm lora 指令集微调
1