模型

OmniHuman

OmniHuman是字节跳动推出的多模态人类视频生成框架,基于单张图像和运动信号生成高逼真视频。支持音频、姿势及组合驱动,适用于多种图像比例和风格。采用混合训练策略和扩散变换器架构,提升生成效果与稳定性,广泛应用于影视、游戏、教育、广告等领域。

TheB.AI

一个一体化人工智能平台,通过易于使用的界面或统一的API接口,提供从语言到图像处理的各种尖端模型,可通过用户友好的界面或统一的 API 进行访问。

VirtualWife

VirtualWife 是一款基于人工智能技术开发的虚拟角色项目,集成了自然语言处理、语音识别与合成、机器学习等功能,支持跨平台运行和个性化定制。其主要应用场景包括个人陪伴、心理健康辅导、在线教育、客户服务、娱乐互动和直播带货,致力于为用户提供智能化、多样化的交互体验。

MOFA

MOFA-Video是由腾讯AI实验室和东京大学研究人员开发的开源图像生成视频模型。该工具通过生成运动场适配器对图像进行动画处理,能够通过稀疏控制信号(如手动轨迹、面部关键点序列或音频)实现对视频生成过程中动作的精准控制。MOFA-Video支持零样本学习,能够将多种控制信号组合使用,生成复杂的动画效果,并能生成较长的视频片段。 ---

百付AI

AI软件技术服务商,ChatGPT应用开发,训练AI模型、AI软件开发、AI知识库搭建。

DMind

DMind是由DMind研究机构开发的专为Web3领域优化的大型语言模型,针对区块链、去中心化金融和智能合约等场景深度优化。采用RLHF技术对齐,性能在Web3专项测试中表现优异,推理成本仅为大模型的十分之一。提供DMind-1和DMind-1-mini两个版本,适用于复杂任务和轻量级部署。支持智能合约生成与验证、DeFi交易代理部署、多轮对话交互等功能,基于Transformer架构,结合专业数

Qwen2

Qwen2是由阿里云通义千问团队开发的大型语言模型系列,涵盖从0.5B到72B的不同规模版本。该系列模型在自然语言理解、代码编写、数学解题及多语言处理方面表现出色,尤其在Qwen2-72B模型上,其性能已超过Meta的Llama-3-70B。Qwen2支持最长128K tokens的上下文长度,并已在Hugging Face和ModelScope平台上开源。 ---

POINTS 1.5

POINTS 1.5 是腾讯微信开发的多模态大模型,基于LLaVA架构设计,包含视觉编码器、投影器和大型语言模型。它在复杂场景OCR、推理、关键信息提取、数学问题解析及图片翻译等方面表现突出,适用于票据识别、自动客服、新闻摘要、学术论文处理、旅游翻译和在线教育等多个领域。该模型通过高效的数据处理和特征融合技术,实现了跨模态任务的精准处理与高效输出。

聚好用AI

一个一站式AI创意平台,聚好用AI聚集了全球顶级的AI大模型,支持多种创意生成任务。