语言模型

AI Interview Copilot

AI Interview Copilot是一款专为求职者设计的AI辅助工具,通过实时语音转录和先进的语言模型(如GPT-4)来提升远程面试的表现。主要功能包括实时转录、问题解答、算法问题解决和图像识别等。该工具支持多语言,帮助求职者在技术或编程面试中快速生成答案和代码,从而更加自信地展示专业技能,提高面试成功率。

SpeechGPT 2.0

SpeechGPT 2.0-preview 是复旦大学 OpenMOSS 团队开发的拟人化实时交互系统,基于大量中文语音数据训练,支持低延迟、高自然度的语音与文本交互。具备情感控制、实时打断、多风格语音生成等功能,适用于智能助手、内容创作及无障碍通信等场景,技术上融合了语音-文本联合建模与多阶段训练策略,提升语音表现力与智能化水平。

RoboBrain

RoboBrain是由智源研究院开发的开源具身大脑模型,支持任务规划、可操作区域感知和轨迹预测等功能。其基于LLaVA框架,采用多阶段训练策略,具备高分辨率图像处理和长历史帧记忆能力。适用于多机器人协作、复杂任务执行及实时优化场景,依托ShareRobot数据集提升模型性能,广泛应用于机器人操作领域。

Pixel Reasoner

Pixel Reasoner是由多所高校联合开发的视觉语言模型,通过像素空间推理增强对视觉信息的理解和分析能力。它支持直接对图像和视频进行操作,如放大区域或选择帧,以捕捉细节。采用两阶段训练方法,结合指令调优和好奇心驱动的强化学习,提升视觉推理性能。在多个基准测试中表现优异,适用于视觉问答、视频理解等任务,广泛应用于科研、教育、工业质检和内容创作等领域。

TinyTroupe

TinyTroupe是一款基于大型语言模型的Python库,专注于生成逼真的虚拟人物行为。它通过构建虚拟角色(TinyPerson)与环境(TinyWorld),实现个性化、高自由度的行为模拟,并支持多智能体间的互动。该工具适用于市场研究、产品测试、用户体验优化等多个领域,为企业提供洞察力与决策支持。 ---

SmolVLM

SmolVLM是一款由Hugging Face开发的轻量级视觉语言模型,专为设备端推理设计。该模型具有三个版本,包括SmolVLM-Base、SmolVLM-Synthetic和SmolVLM-Instruct,分别适用于不同的应用场景。SmolVLM借鉴了Idefics3的理念,采用SmolLM2 1.7B作为语言主干,并通过像素混洗技术提升视觉信息的压缩效率。其训练数据集包括Cauldron和

xLAM

xLAM 是 Salesforce 开源的一款大型语言模型,专为功能调用任务设计。该模型具备多语言支持、预训练模型、迁移学习、自然语言处理等主要功能,并基于 Transformer 架构实现。它在多个基准测试中表现出色,适用于自动化任务、模板共享、插件开发和教育等多个应用场景。

AutoConsis

AutoConsis是一款基于深度学习和大型语言模型的UI内容一致性智能检测工具,能够自动识别和提取界面中的关键数据,并对数据一致性进行高效校验。它支持多业务场景适配,具备高泛化性和高置信度,广泛应用于电商、金融、旅游等多个领域,助力提升用户体验和系统可靠性。

百度灵医Bot

百度灵医Bot作为百度推出的医疗大模型应用,通过其强大的语言处理能力和专业医疗知识库,为用户提供了全面、安全、智能的医疗健康服务。

MMBench

MMBench-Video是一个由多家高校和机构联合开发的长视频多题问答基准测试平台,旨在全面评估大型视觉语言模型(LVLMs)在视频理解方面的能力。平台包含约600个YouTube视频片段,覆盖16个类别,并配备高质量的人工标注问答对。通过自动化评估机制,MMBench-Video能够有效提升评估的精度和效率,为模型优化和学术研究提供重要支持。