pice35408784b54431987c4d13c457b9cd
  • Joined on 2024-09-23
Phi-4-reasoning-plus 是一款先进的开源权重推理模型,它基于 Phi-4 进行微调,采用了思维链轨迹数据集的监督微调以及强化学习技术。其中,监督微调数据集融合了合成提示词与从公共领域网站筛选的高质量数据,内容聚焦于数学、科学、编程技能,同时包含用于安全和负责任人工智能的对齐数据。
Updated 2025-06-19 14:13:26 +08:00
all-MiniLM-L6-v2模型是一个高效的句子嵌入模型,能够将句子或段落映射到一个384维的密集向量空间中。
Updated 2025-06-12 15:19:56 +08:00
Nemotron-Research-Reasoning-Qwen-1.5B 是全球领先的15亿参数开源权重模型,专为复杂推理任务而设计,包括数学问题求解、编程挑战、科学问答及逻辑谜题等。该模型采用ProRL算法在多样化、全面性的数据集上进行训练,在数学、编程及GPQA等广泛任务中表现卓越,以显著优势超越Deepseek同规模的15亿参数模型。
Updated 2025-06-12 09:29:42 +08:00
MiniCPM4系列是专为终端设备设计的高效大语言模型(LLMs),该系列模型通过四个关键维度的系统性创新实现高效能:模型架构、训练数据、训练算法和推理系统。
Updated 2025-06-11 06:06:04 +08:00
DeepSeek R1模型已完成小幅版本升级,当前版本为DeepSeek-R1-0528。在最新更新中,DeepSeek R1通过增加计算资源投入并在后训练阶段引入算法优化机制,显著提升了深度推理与演绎能力。该模型在数学、编程、通用逻辑等多项基准评测中均展现出卓越性能,综合表现已逼近O3、Gemini 2.5 Pro等头部模型水平。
Updated 2025-06-04 09:31:31 +08:00
DeepSeek R1模型已完成小幅版本升级,当前版本为DeepSeek-R1-0528。在最新更新中,DeepSeek R1通过增加计算资源投入并在后训练阶段引入算法优化机制,显著提升了深度推理与演绎能力。该模型在数学、编程、通用逻辑等多项基准评测中均展现出卓越性能,综合表现已逼近O3、Gemini 2.5 Pro等头部模型水平。
Updated 2025-06-04 09:25:20 +08:00
siglip2-x256-explicit-content 是一款视觉 - 语言编码器模型,由 siglip2-base-patch16-256 微调而来,用于多类别图像分类任务。
Updated 2025-06-04 09:17:44 +08:00
Dolphin是一种新颖的多模态文档图像解析模型,采用 “先分析后解析” 的范式。它通过两阶段方法应对复杂文档理解的挑战,该方法旨在处理文本段落、图表、公式和表格等相互交织的元素。
Updated 2025-05-30 09:17:11 +08:00
Qwen3 is the latest generation of large language models in Qwen series, offering a comprehensive suite of dense and mixture-of-experts (MoE) models.
Updated 2025-05-08 09:33:44 +08:00
Google DeepMind 发布的 Gemma3-4B 在计算效率、任务适应性和多模态能力之间取得了良好平衡,相较于 1B 版本,它提供了更强的文本理解能力,并新增了视觉模块支持,使其适用于更广泛的任务场景。同时,相较于 12B 和 27B 版本,4B 版本在推理效率和资源占用上具备显著优势,适合在云端和本地 GPU 设备上运行。
Updated 2025-03-24 11:15:03 +08:00
Qwen2-VL-7B-Instruct是一个视觉语言模型,支持高分辨率图像和20分钟以上视频的理解。它在多个视觉理解基准测试中表现出色,具备复杂推理和决策能力。该模型可集成到移动设备和机器人中,实现基于视觉环境和文本指令的自动操作。此外,Qwen2-VL-7B-Instruct支持多语言,能理解图像中的多种语言文本。
Updated 2025-03-14 14:26:52 +08:00
YOLOv8s 股市形态检测模型是一种基于 YOLO框架的目标检测模型。它旨在实时检测股市交易视频数据中的各种图表形态。该模型通过自动分析图表形态来辅助交易员和投资者,为他们做出明智的决策提供及时的见解。
Updated 2025-03-12 10:26:53 +08:00
Qwen-VL 模型的最新版本
Updated 2025-02-19 16:25:08 +08:00
VideoMAE 模型在 Kinetics-400 数据集上以自监督方式进行了 1600 轮预训练。该模型由 Tong 等人在论文 VideoMAE: Masked Autoencoders are Data-Efficient Learners for Self-Supervised Video Pre-Training 中提出。
Updated 2025-02-17 16:39:24 +08:00
2024年5月13日,零一万物发了Yi-1.5系列模型。Yi-1.5系列模型在一个包含5000亿个标记的高质量语料库上进行持续的预训练得到增强,并且还在300万个多样化的微调样本上进行了微调。
Updated 2025-02-10 10:53:38 +08:00