计算机视觉

CountAnything

CountAnything是一款结合计算机视觉技术的计数工具,用户可通过拍照或上传图片标注样本,实现物品的自动计数。其功能涵盖工业、农业、物流及建筑等多个应用场景,支持历史数据保存、结果定制等功能,帮助用户提升工作效率与准确性。

书生·浦像

书生·浦像是由多家科研机构联合开发的超高动态成像算法,核心为浦像HDR(UltraFusion HDR)。它结合AIGC与HDR技术,在极端光照条件下实现图像细节修复和高质量输出,有效解决动态场景中的运动伪影问题。适用于摄影、手机成像和自动驾驶等领域,具有多曝光融合、动态处理、色调映射等功能,提升了图像的鲁棒性与真实感。

LLaVA

LLaVA-OneVision是字节跳动开发的开源多模态AI模型,主要功能包括多模态理解、任务迁移、跨场景能力、开源贡献及高性能。该模型采用多模态架构,集成了视觉和语言信息,通过Siglip视觉编码器和Qwen-2语言模型,实现高效特征映射和任务迁移学习。广泛应用于图像和视频分析、内容创作辅助、聊天机器人、教育和培训以及安全监控等领域。

Edicho

Edicho 是一种基于扩散模型的图像编辑工具,能够在多图像间实现一致性编辑,无需额外训练。其核心技术包括 Corr-Attention 注意力模块和 Corr-CFG 去噪策略,通过显式图像对应关系提升编辑质量与一致性。适用于图像修复、风格转换、内容创作、医学影像增强等场景,具备良好的兼容性与扩展性。

Agentic Object Detection

Agentic Object Detection是由吴恩达团队研发的新型目标检测技术,通过智能代理系统实现无需标注数据的目标识别。用户输入文字提示后,AI可精准定位图像中的目标及其属性,支持内在属性、上下文关系及动态状态的识别。该技术无需复杂训练流程,适用于装配验证、作物检测、医疗影像分析、危险物品识别和商品管理等多种场景,显著提升了检测效率和准确性。

TripoSR

TripoSR是一款由Stability AI与VAST联合开发的开源3D生成模型,能够在不到0.5秒内从单张2D图像生成高质量的3D模型。基于Transformer架构和大型重建模型(LRM)设计,采用先进的图像编码、三平面NeRF表示及优化训练策略,支持无GPU设备运行。适用于游戏开发、影视制作、建筑设计、产品设计等多个领域,具有高效、高精度和广泛适用性的特点。

GigaTok

GigaTok 是一款基于语义正则化的高参数视觉分词器,支持自回归图像生成,具备优异的图像重建与生成能力。通过一维架构和非对称扩展策略,实现高效计算与稳定训练。适用于图像生成、编辑、数据增强及多模态应用,具有广泛的技术拓展性。

Etna模型

一个文字转视频的AIGC模型,Etna能够根据简短的文本描述生成相应的视频内容,支持生成时长为8-15秒的视频,且视频流畅度极高,每秒可达60帧。

MatAnyone

MatAnyone是一款由南洋理工大学S-Lab实验室与商汤科技联合开发的视频抠图框架,专注于复杂背景下人像视频的精准分割。采用一致内存传播和区域自适应内存融合技术,确保视频中目标的语义稳定性和边界细节精度。结合大规模分割数据和优化的训练策略,提升了模型在真实场景下的性能。适用于影视制作、直播、广告、游戏开发等多个领域,具备高精度、强适应性和良好的交互性。

TripoSF

TripoSF是由VAST推出的新型3D基础模型,采用SparseFlex表示方法和稀疏体素结构,显著降低内存占用并提升高分辨率建模能力。其“视锥体感知的分区体素训练”策略优化了训练效率,使模型在细节捕捉、拓扑结构支持和实时渲染方面表现突出。实验数据显示,TripoSF在Chamfer Distance和F-score等关键指标上分别降低82%和提升88%。适用于视觉特效、游戏开发、具身智能及产品