模型

GR00T N1

GR00T N1 是英伟达推出的开源人形机器人基础模型,支持多模态输入并具备复杂任务执行能力。采用双系统架构,结合视觉-语言模型与扩散变换器,实现精准动作控制。基于大规模数据训练,适应多种机器人形态和任务场景,广泛应用于物流、制造、医疗等领域,提升自动化水平与操作效率。

moonshot

moonshot-v1-vision-preview 是一款由月之暗面开发的多模态图像理解模型,具备精准的图像识别、OCR 文字识别和数据解析能力。支持 API 集成,适用于内容审核、文档处理、医学分析、智能交互等多个领域。模型可识别复杂图像细节、分析图表数据,并从美学角度进行图像评价,适合需要高效图像处理和智能交互的应用场景。

Bohrium玻尔

深势科技打造的科研云平台,目的为微尺度科学研究与工业设计提供高效的团队协作工具。支持科研人员在数据处理、深度学习建模、分子设计等领域的研究与应用。

Paper2Code

Paper2Code是一款由韩国科学技术院与DeepAuto.ai合作开发的AI工具,基于多Agent大语言模型,能将机器学习论文自动转化为可运行的代码仓库。它通过规划、分析和代码生成三个阶段,确保代码结构清晰且忠实于原论文内容。该工具显著提升了科研复现效率,适用于研究、教学、工业等多个领域,具有高度实用性和准确性。

Granite 3.0

Granite 3.0是IBM推出的一套先进的AI模型,适用于多种应用场景,包括客户服务自动化、内容创作与审核、数据分析以及编程辅助。它通过检索增强生成技术和多语言支持提升任务效率,并具备出色的安全防护能力。该模型采用深度学习和混合专家架构,经过大规模数据训练,为企业提供高效、灵活且可靠的AI解决方案。

IDM

IDM-VTON是一种基于改进扩散模型的先进AI虚拟试穿技术,由韩国科学技术院和OMNIOUS.AI的研究人员共同开发。该技术利用视觉编码器提取服装的高级语义信息,并通过GarmentNet捕捉服装的低级细节特征,从而生成逼真的人物穿戴图像。IDM-VTON支持文本提示理解,实现了个性化定制和逼真的试穿效果,广泛应用于电子商务、时尚零售、个性化推荐、社交媒体以及时尚设计等领域。

豆包1.5·UI

豆包1.5·UI-TARS是字节跳动推出的一款面向图形用户界面(GUI)的智能代理模型,具备视觉理解、逻辑推理和操作执行能力。它无需预定义规则,即可实现端到端的GUI任务自动化,适用于办公、测试、客服及机器人交互等多个场景。模型基于多模态融合与端到端学习技术,支持高效的界面交互与精准的视觉定位。

Awesome GPT

一个精选的GPT-4o生成图片集锦,收集了OpenAI 最新多模态模型 GPT‑4o 生成的精彩案例,展示其强大的文本‑图像理解与创作能力。

百度曦灵数字人平台

基于百度领先的数字人和人工智能技术,面向视频、直播、交互等全场景应用,让数字人赋能千行百业实现内容和服务的智能化升级。

AnyStory

AnyStory是阿里巴巴通义实验室开发的文本到图像生成工具,支持单个或多个主体的高保真图像生成。其核心在于“编码-路由”架构,结合ReferenceNet和CLIP视觉编码器实现主体特征的精准建模与定位。通过解耦路由机制,有效避免多主体混淆,确保图像与文本描述高度一致。适用于创意设计、角色生成、广告制作等多个场景,提供高质量、个性化的图像生成能力。