模型

ZelinAI

ZelinAI是一个AI应用构建平台,允许用户通过零代码方式构建自己的AI应用。它专注于Prompt学习和训练、AI参数调试等场景,并支持将模型打包为专属AI应用。此外,用户还可以通过分享...

Paper2Code

Paper2Code是一款由韩国科学技术院与DeepAuto.ai合作开发的AI工具,基于多Agent大语言模型,能将机器学习论文自动转化为可运行的代码仓库。它通过规划、分析和代码生成三个阶段,确保代码结构清晰且忠实于原论文内容。该工具显著提升了科研复现效率,适用于研究、教学、工业等多个领域,具有高度实用性和准确性。

AIOOTD

AIOOTD是一款基于AI技术的时装生成平台,专注于将上传的服装照片转换为不同风格的AI时装图像,包括动漫、插画和写实风格。它支持图片上传、编辑、批量处理以及个性化定制,可直接适配社交媒体平台。该工具广泛应用于时装品牌推广、设计师作品展示、社交媒体内容创作及电商销售等领域,助力提升品牌形象和产品吸引力。

Grok

Grok-1是由xAI公司开发的大型语言模型,具备3140亿参数,是目前参数量最大的开源大语言模型之一。该模型基于Transformer架构,专用于自然语言处理任务,如问答、信息检索、创意写作和编码辅助等。尽管在信息处理方面表现出色,但需要人工审核以确保准确性。此外,Grok-1还提供了8bit量化版本,以降低存储和计算需求。

ChatHi

一个大模型集成平台,ChatHi集成了国内外知名文生文大模型13家,文生图大模型5家,是一款人工智能聊天助手,专注于提供智能化的对话体验和全面的信息检索。

Sa2VA

Sa2VA是由字节跳动联合多所高校开发的多模态大语言模型,结合SAM2与LLaVA技术,实现对图像和视频的密集、细粒度理解。它支持指代分割、视觉对话、视觉提示理解等多种任务,具备零样本推理能力和复杂场景下的高精度分割效果。适用于视频编辑、智能监控、机器人交互、内容创作及自动驾驶等多个领域。

CogAgent

CogAgent是一款由清华大学与智谱AI联合开发的多模态视觉大模型,专注于图形用户界面(GUI)的理解与导航。它具备视觉问答、视觉定位、GUI Agent、高分辨率图像处理及多模态能力,可应用于自动化测试、智能交互、多模态人工智能应用开发、企业级AI Agent平台等多个领域。CogAgent在多个基准测试中表现出色,尤其在GUI操作数据集上显著超越现有模型。

豆包1.5·UI

豆包1.5·UI-TARS是字节跳动推出的一款面向图形用户界面(GUI)的智能代理模型,具备视觉理解、逻辑推理和操作执行能力。它无需预定义规则,即可实现端到端的GUI任务自动化,适用于办公、测试、客服及机器人交互等多个场景。模型基于多模态融合与端到端学习技术,支持高效的界面交互与精准的视觉定位。

PixelHacker

PixelHacker是一款由华中科技大学与VIVO AI Lab联合开发的图像修复模型,采用潜在类别引导机制,通过线性注意力实现结构与语义一致性的高质量修复。基于大规模数据集训练并经过多基准微调,支持多种图像类型与分辨率。适用于照片修复、对象移除、艺术创作、医学影像及文化保护等领域。

TokenFD

TokenFD是由上海交通大学与美团联合开发的细粒度图文对齐基础模型,专为文档理解任务设计。通过图像与语言Token的统一特征空间对齐,支持Token级图文交互,提升了多模态任务性能。其基于自研的TokenIT数据集进行训练,涵盖2000万张图像和18亿高质量Token-Mask对,覆盖多种文本图像类型。TokenFD可用于文档处理、图像审查、文字检索及大模型知识增强等多个领域,具有广泛的适用性和