admin

admin

这家伙很懒,什么也没写

加入时间 8年前

TA的文章

FunClip

FunClip

FunClip是一款由阿里巴巴达摩院通义实验室开发的开源、本地部署的视频剪辑工具。它主要通过自动化语音识别技术,帮助用户基于语音转文字的结果,选择特定文本片段或说话人进行视频剪辑。其特点包括高精度的中文ASR模型、热词定制化、说话人识别功能、Gradio交互界面,以及支持多段剪辑和自动生成SRT字幕文件。
Phi

Phi

Phi-3是由微软研究院开发的一系列小型语言模型,包括phi-3-mini、phi-3-small和phi-3-medium三个版本。这些模型通过优化的数据集和算法,在保持较小参数规模的同时,展现出与大型模型相当的语言理解和推理能力。phi-3-mini模型仅有3.8亿参数,但在多项基准测试中表现优异,甚至能在智能手机上运行。Phi-3系列模型的研发体现了在数据工程和模型优化领域的最新进展,为未来
Hyper

Hyper

Hyper-SD是由字节跳动研究人员开发的高效图像合成框架,通过轨迹分割一致性蒸馏(TSCD)、人类反馈学习(ReFL)和分数蒸馏等技术,显著降低了扩散模型在多步推理过程中的计算成本。该框架在保持高图像质量的同时,大幅减少了推理步骤,实现了快速生成高分辨率图像,推动了生成式AI技术的发展。
Arctic

Arctic

Arctic是一款由云计算公司Snowflake的AI研究团队开发的高效且开源的企业级大型语言模型,拥有480亿参数。该模型采用混合专家模型(MoE)架构,结合了密集变换器(Dense Transformer)和128个专家的特点。Arctic在成本效益、训练效率和推理效率方面具有显著优势,特别适用于企业任务,例如SQL生成、编程和指令遵循。模型基于Apache 2.0许可发布,用户可以自由使用和
OpenELM

OpenELM

OpenELM是苹果公司推出的一系列高效开源语言模型,涵盖从2.7亿到30亿参数规模的不同版本。该模型基于Transformer架构,采用层间缩放策略优化参数分配,使用分组查询注意力(GQA)和SwiGLU激活函数等技术。OpenELM在公共数据集上预训练,并在多项自然语言处理任务中展现出色性能。模型代码和预训练权重已公开,旨在促进开放研究和社区发展。
ID

ID

ID-Animator是一款由腾讯光子工作室、中科大和中科院合肥物质科学研究院联合开发的零样本人类视频生成技术。它能够根据单张参考面部图像生成个性化视频,并根据文本提示调整视频内容。ID-Animator通过结合预训练的文本到视频扩散模型和轻量级面部适配器,实现高效的身份保真视频生成。其主要功能包括视频角色修改、年龄和性别调整、身份混合以及与ControlNet等现有条件模块的兼容性。
IDM

IDM

IDM-VTON是一种基于改进扩散模型的先进AI虚拟试穿技术,由韩国科学技术院和OMNIOUS.AI的研究人员共同开发。该技术利用视觉编码器提取服装的高级语义信息,并通过GarmentNet捕捉服装的低级细节特征,从而生成逼真的人物穿戴图像。IDM-VTON支持文本提示理解,实现了个性化定制和逼真的试穿效果,广泛应用于电子商务、时尚零售、个性化推荐、社交媒体以及时尚设计等领域。
VideoGigaGAN

VideoGigaGAN

VideoGigaGAN是一款由Adobe和马里兰大学的研究人员开发的生成式视频超分辨率模型。该模型基于GigaGAN图像上采样器,通过流引导特征传播、抗锯齿处理和高频特征穿梭等技术手段,显著提升了视频的分辨率和时间一致性,同时保留了高频细节,改善了整体画质。它适用于视频画质增强、安全监控、视频编辑和后期制作等多个领域。
Stable Artisan

Stable Artisan

Stable Artisan是一款基于Discord平台的图像和视频生成机器人服务,利用Stability AI的AI技术和模型,如Stable Diffusion 3和Stable Video Diffusion,使用户能够通过自然语言提示生成高质量的图像和视频。此外,它还提供了一系列图像编辑工具,包括搜索替换、背景去除、高清放大、扩展外延、控制素描和结构等功能,适用于创意人士、设计师、内容创作
PuLID

PuLID

PuLID是一种由字节跳动团队开发的个性化文本到图像生成技术,主要通过对比对齐和快速采样方法实现高效ID定制。该技术能够生成高度逼真的面部图像,同时保留原始图像的风格元素,支持灵活的个性化编辑。PuLID具有快速出图能力,无需繁琐的模型调整,且与多种现有模型兼容。它适用于艺术创作、虚拟形象定制、影视制作、广告和社交媒体等多个领域。

微信公众账号

微信扫一扫加关注

返回
顶部