AI模型

Moshi

Moshi是一款由法国Kyutai实验室开发的端到端实时音频多模态AI模型,具备听、说、看的能力,并能模拟70种不同的情绪和风格进行交流。Moshi具有多模态交互、情绪和风格表达、实时响应低延迟、语音理解与生成、文本和音频混合预训练以及本地设备运行等特点。它支持英语和法语,主要应用于虚拟助手、客户服务、语言学习、内容创作、辅助残障人士、研究和开发、娱乐和游戏等领域。

Gemma 2

Gemma 2是一款由谷歌DeepMind开发的开源人工智能模型,提供90亿和270亿参数版本。它具有卓越的性能、高效的推理速度和广泛的硬件兼容性,适用于各种应用场景。Gemma 2不仅支持多种AI框架,还提供了丰富的资源和工具,以支持开发者和研究人员负责任地构建和部署AI。

谷歌DeepMind推出V2A技术,可为无声视频添加逼真音效

DeepMind推出的V2A(Video-to-Audio)模型能够将视频内容与文本提示相结合,生成包含对话、音效和音乐的详细音频轨道。它不仅能够与DeepMind自身的视频生成模型Veo协同工作,还能与其他视频生成模型,如Sora、可灵或Gen 3等,进行集成,从而为视频添加戏剧性的音乐、逼真的音效或与视频中角色和情绪相匹配的对话。V2A的强大之处在于其能够为每个视频输入生成无限数量的音轨。该模

Llama 3

Llama 3是Meta公司开发的一款最新大型语言模型,提供了8B和70B两种参数规模的模型。它通过增加参数规模、扩大训练数据集、优化模型架构和增强安全性等功能,显著提升了自然语言处理能力,适用于编程、问题解决、翻译和对话生成等多种应用场景。Llama 3在多个基准测试中表现出色,并且通过指令微调进一步增强了特定任务的表现。