模型

博看大模型

博看大模型是吉林外国语大学推出的一款多功能图书馆服务AI,它通过智能对话和信息检索功能,为用户提供了一个方便快捷的图书馆信息获取渠道。

Lepton AI

Lepton AI是由贾扬清创办的云原生AI平台,提供了一系列工具和服务,降低AI应用开发的门槛,帮助开发者更容易地完成创建、部署和扩展任务。它提供了 Python SDK 和云计算平台。Pyth...

REEF

REEF是一种用于大型语言模型的指纹识别技术,通过在训练中嵌入编码信息生成唯一“指纹”,实现高精度、低开销的模型识别。具备鲁棒性、兼容性强等特点,适用于版权保护、模型溯源、非法行为打击等场景,广泛应用于学术、商业和监管领域。

万兴天幕大模型

万兴天幕大模型是万兴科技AILab的创新成果,展现了其在多媒体领域的深厚技术积累和前瞻性布局。通过自研技术和多年行业经验,天幕大模型为全球创作者提供了一个强大的工具,以实现...

DreamOmni

DreamOmni是一款由香港中文大学、字节跳动与香港科技大学联合研发的统一图像生成与编辑模型。它集成了文本到图像生成(T2I)及多种编辑功能,包括指令式编辑、修复、拖拽编辑和参考图像生成。DreamOmni利用合成数据管道高效生成高质量编辑数据,并通过联合训练提升图像生成与编辑质量。该模型在多任务处理、复杂提示兼容性及训练效率优化上表现优异,适用于数字艺术、影视特效、广告设计等多个领域。

AddressCLIP

AddressCLIP 是一种基于 CLIP 技术的端到端图像地理定位模型,由中科院自动化所与阿里云联合开发。它通过图像与地址文本对齐和地理匹配技术,实现街道级别的精确定位,无需依赖 GPS。模型在多个数据集上表现优异,适用于城市管理、社交媒体、旅游导航等多个场景,具备良好的灵活性和多模态结合潜力。

VideoWorld

VideoWorld是由北京交通大学、中国科学技术大学与字节跳动合作开发的深度生成模型,能够通过未标注视频数据学习复杂知识,包括规则、推理和规划能力。其核心技术包括自回归视频生成、潜在动态模型(LDM)和逆动态模型(IDM),支持长期推理和跨环境泛化。该模型在围棋和机器人控制任务中表现优异,且具备向自动驾驶、智能监控等场景扩展的潜力。

OmniHuman

OmniHuman是字节跳动推出的多模态人类视频生成框架,基于单张图像和运动信号生成高逼真视频。支持音频、姿势及组合驱动,适用于多种图像比例和风格。采用混合训练策略和扩散变换器架构,提升生成效果与稳定性,广泛应用于影视、游戏、教育、广告等领域。

AlphaEvolve

AlphaEvolve是谷歌DeepMind开发的通用科学代理,结合大型语言模型与进化算法,用于设计和优化复杂算法。它在数据中心调度、硬件设计、AI训练和数学问题解决等领域取得显著成果,如优化矩阵乘法、提升系统效率等。系统采用自动化评估机制,支持跨领域应用,具备高效计算和持续优化能力。