开放

SigLIP 2

SigLIP 2 是 Google DeepMind 开发的多语言视觉-语言模型,具有强大的图像与文本对齐能力。它支持多种语言输入,具备零样本分类、图像-文本检索等功能,并通过 Sigmoid 损失函数和自监督学习技术提升训练效率与模型性能。其支持多种分辨率的变体,适用于文档理解、视觉问答及开放词汇任务。该模型基于 Vision Transformer 架构,具备良好的兼容性。

MiniMax 大语言模型

它基于海量中文数据训练而成,拥有超过1000亿个参数,能够处理上百TB的文本数据。

炉米Lumi

炉米Lumi是一款由字节跳动开发的AIGC图像创作平台,主要功能包括模型上传与展示、工作流搭建以及LoRA微调。它为AI爱好者、研究人员和开发者提供了一个协作环境,用于分享和优化AI模型。炉米Lumi支持多种应用场景,如科研、教育、艺术创作、商业应用开发等,具有开放性和高灵活性。 ---

Prezi

Prezi是一款基于AI技术的创新型演示文稿工具,通过开放式画布和动态演示方式,帮助用户高效创建引人注目的演示文稿和视频。它支持自由内容组织、多媒体集成和视频会议集成,适用于商业、教育、会议及培训等多个场景,具有高度灵活性和交互性。

星流图像大模型

星流图像大模型是由LiblibAI发布的一款自研图像大模型,名为Star-3 Alpha。由LiblibAl团队于2024年启动研发,将于2025年Q1发布正式

Vision Search Assistant

Vision Search Assistant (VSA) 是一种结合视觉语言模型与网络代理的框架,旨在提升模型对未知视觉内容的理解能力。它通过网络检索,使 VLMs 能够处理和回答有关未见图像的问题。VSA 在开放集和封闭集问答测试中表现出色,支持图像描述生成、网络知识搜索、协作生成等功能,可应用于图像识别、新闻分析、教育、电商和旅游等多个领域。

千影QianYing

巨人网络发布的有声游戏生成大模型,主要包括游戏视频生成大模型YingGame和视频配音大模型YingSound。

Search

Search-o1是由中国人民大学和清华大学联合开发的AI工具,旨在提升大型推理模型在复杂任务中的表现。其核心在于结合RAG机制与Reason-in-Documents模块,实现动态知识检索与精炼处理,增强推理的准确性和连贯性。该工具在科研、数学、编程、问答等多个领域展现出广泛适用性,为构建更可靠的智能系统提供了新路径。

Find3D

Find3D是一款由加州理工学院开发的3D部件分割模型,通过自动化数据生成技术和对比学习方法,实现了高效且精准的3D对象分割。它能够在多个数据集上达到三倍于次优方法的性能提升,支持开放世界下的任意文本查询分割,广泛应用于机器人、虚拟现实、建筑设计等领域。