2024年8月28日,在ACM SIGKDD(国际数据挖掘与知识发现大会,KDD)会议现场,智谱AI重磅推出新一代全自研基座大模型GLM-4-Plus、图像/视频理解模型GLM-4V-Plus和文生图模型CogView-3-Plus。
1、模型介绍页:https://bigmodel.cn/dev/howuse/model,(包含最新模型的概要介绍)
2、GLM-4-Plus API文档更新:https://bigmodel.cn/dev/api#glm-4
3、GLM-4V-Plus API文档更新:https://bigmodel.cn/dev/api#glm-4v
4、CogView-3-Plus:https://bigmodel.cn/dev/api#cogview
一、GLM-4-Plus
GLM-4-Plus 使用了大量模型辅助构造高质量合成数据以提升模型性能;利用 PPO 有效提升模型推理(数学、代码算法题等)表现,更好反应人类偏好。
1.1 特点:
1)性能全面提升,长文本和复杂任务能力显著增强;
2)支持128K上下文和多路Function Call;
1.2 在Benchmark上表现:
语言文本能力方面,GLM-4-Plus 和 GPT-4o 及 405B 参数量的 Llama3.1 相当。
长文本能力比肩国际先进水平。通过更精准的长短文本数据混合策略,取得了更强的长文本的推理效果。
1.3 在bigmodel.cn官网测试效果:
a)数字比大小
GLM-4-Plus
GLM-4-Plus解决了3.14和3.5,谁比较大的大模型难题。
接下来,我们看一下通义千问的效果:
再看一下gpt-4o的效果:
gpt-4o在部分问题上表现不正确