CharacterGLM-6B
Updated 2024-12-30 18:47:54 +08:00
WD SwinV2 Tagger v3 with transformers
Updated 2024-12-30 17:46:31 +08:00
该模型是 Kaggle 上提供的 gpiosenka/100-bird-species 数据集上 google/efficientnet-b2 的微调版本。
Updated 2024-12-30 17:02:50 +08:00
XuanYuan-6B-Chat
Updated 2024-12-30 16:40:15 +08:00
此模型旨在用于图像分类和相似性搜索。
Updated 2024-12-30 16:24:20 +08:00
ModernBERT-large
Updated 2024-12-30 14:36:50 +08:00
DeepSeek-V2-Lite-Chat
Updated 2024-12-30 14:30:24 +08:00
CosyVoice2-0.5B
Updated 2024-12-30 13:32:09 +08:00
jina-clip-v2
Updated 2024-12-30 11:08:34 +08:00
DeepSeek-V2-Lite
Updated 2024-12-30 09:18:00 +08:00
SAIL-VL-2B
Updated 2024-12-27 20:56:49 +08:00
CogAgent-9B-2024122
Updated 2024-12-27 19:03:41 +08:00
带有注意力机制的视觉 Transformer(ViT)
Updated 2024-12-27 17:46:29 +08:00
此模型是 cifar10 数据集上 google/vit-base-patch16-224-in21k 的微调版本。
Updated 2024-12-27 17:29:35 +08:00
granite-3.1-8b-instruct
Updated 2024-12-27 15:02:34 +08:00
whisper_large_v3_turbo
Updated 2024-12-27 13:10:30 +08:00
Ovis1.6-Gemma2-9B
Updated 2024-12-26 17:50:52 +08:00
mPLUG-Owl3-2B-241014
Updated 2024-12-26 15:01:15 +08:00
BEiT 模型在 ImageNet-21k(1400 万张图像,21841 个类别)上以自我监督的方式以 224x224 的分辨率进行预训练,并在 ImageNet 2012(100 万张图像,1000 个类别)上以 224x224 的分辨率进行微调。
Updated 2024-12-26 14:47:28 +08:00
在224x224分辨率下预训练并在384x384分辨率下微调的蒸馏数据高效图像Transformer(DeiT)模型,使用ImageNet-1k(100万张图像,1000个类别)进行训练。
Updated 2024-12-26 14:13:43 +08:00