一个经过微调的vision transformer,用于对给定人脸的年龄进行分类。
Updated 2024-11-06 10:55:14 +08:00
这个模型是在chest-xray-classification数据集上对google/vit-base-patch16-224-in21k进行微调后的版本。
Updated 2024-11-06 10:08:55 +08:00
性别分类
Updated 2024-11-05 17:33:35 +08:00
BLIP-2 由 3 个模型组成:一个类似 CLIP 的图像编码器、一个查询转换器 (Q-Former) 和一个大型语言模型。
Updated 2024-11-05 10:54:38 +08:00
变形检测变换器(Deformable DEtection TRansformer, DETR),在DocLayNet上进行训练(包括11个类别的8万页标注页面)。
Updated 2024-11-04 16:52:54 +08:00
3
Updated 2024-11-04 16:43:44 +08:00
2
Updated 2024-11-04 16:43:36 +08:00
1
Updated 2024-11-04 16:43:29 +08:00
1
Updated 2024-11-04 16:43:08 +08:00
1
Updated 2024-11-04 16:42:59 +08:00
11
Updated 2024-11-04 16:42:52 +08:00
1
Updated 2024-11-04 16:42:43 +08:00
11
Updated 2024-11-04 16:42:35 +08:00
11
Updated 2024-11-04 16:42:24 +08:00
介绍
ChatGLM2-6B 是开源中英双语对话模型 ChatGLM-6B 的第二代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上,ChatGLM2-6B 引入了如下新特性:
更强大的性能:基于 ChatGLM 初代模型的开发经验,我们全面升级了 ChatGLM2-6B 的基座模型。ChatGLM2-6B 使用了 GLM 的混合目标函数,经过了 1.4T 中英标识符的预训练与人类偏好对齐训练,评测结果显示,相比于初代模型,ChatGLM2-6B 在 MMLU(+23%)、CEval(+33%)、GSM8K(+571%) 、BBH(+60%)等数据集上的性能取得了大幅度的提升,在同尺寸开源模型中具有较强的竞争力。
更长的上下文:基于 FlashAttention 技术,我们将基座模型的上下文长度(Context Length)由 ChatGLM-6B 的 2K 扩展到了 32K,并在对话阶段使用 8K 的上下文长度训练,允许更多轮次的对话。但当前版本的 ChatGLM2-6B 对单轮超长文档的理解能力有限,我们会在后续迭代升级中着重进行优化。
更高效的推理:基于 Multi-Query Attention 技术,ChatGLM2-6B 有更高效的推理速度和更低的显存占用:在官方的模型实现下,推理速度相比初代提升了 42%,INT4 量化下,6G 显存支持的对话长度由 1K 提升到了 8K。
Updated 2024-11-04 09:39:26 +08:00
100adsfsdf
Updated 2024-11-02 22:18:40 +08:00