Vision Transformer (ViT) 模型在 ImageNet-21k(1400 万张图像,21843 个类别)上以 224x224 的分辨率进行预训练,并在 ImageNet 2012(100 万张图像,1000 个类别)上以 384x384 的分辨率进行微调。
Go to file
YYJ-aaaa 3489bd1a9b first commit 2024-12-26 13:42:14 +08:00
.gitattributes Add .gitattributes 2024-12-25 17:18:02 +08:00
README.md Initial commit 2024-12-25 17:18:01 +08:00
config.json first commit 2024-12-26 13:42:14 +08:00
flax_model.msgpack first commit 2024-12-26 13:42:14 +08:00
preprocessor_config.json first commit 2024-12-26 13:42:14 +08:00
pytorch_model.bin first commit 2024-12-26 13:42:14 +08:00
tf_model.h5 first commit 2024-12-26 13:42:14 +08:00

README.md

vit-large-patch32-384_a14058242923032576570175

Vision Transformer ViT 模型在 ImageNet-21k1400 万张图像21843 个类别)上以 224x224 的分辨率进行预训练,并在 ImageNet 2012100 万张图像1000 个类别)上以 384x384 的分辨率进行微调。