多模态

ParGo

ParGo是一种由字节与中山大学联合开发的多模态大语言模型连接器,通过结合局部与全局token,提升视觉与语言模态的对齐效果。其核心模块PGP和CPP分别提取图像的局部和全局信息,增强细节感知能力。在多个基准测试中表现优异,尤其在文字识别和图像描述任务中优势明显。采用自监督学习策略,提高模型泛化能力,适用于视觉问答、图像字幕生成、跨模态检索等多种场景。

OmniSVG

OmniSVG是复旦大学与StepFun联合开发的全球首个端到端多模态SVG生成模型,基于预训练视觉语言模型,通过创新的SVG标记化技术实现结构与细节的解耦,支持从文本、图像或角色参考生成高质量矢量图形。其训练效率高,支持长序列处理,适用于图标设计、网页开发、游戏角色生成等场景,生成结果具备高度可编辑性和跨平台兼容性。

MME

MME-CoT 是一个用于评估大型多模态模型链式思维推理能力的基准测试框架,涵盖数学、科学、OCR、逻辑、时空和一般场景六大领域,包含1,130个问题,每题均附关键推理步骤和图像描述。该框架引入推理质量、鲁棒性和效率三大评估指标,全面衡量模型推理能力,并揭示当前模型在反思机制和感知任务上的不足,为模型优化和研究提供重要参考。

Skywork R1V

Skywork R1V是昆仑万维推出的首个工业级多模态思维链推理模型,具备强大的视觉链式推理能力,可处理数学问题、科学现象分析、医学影像诊断等复杂任务。其技术基于文本推理能力的多模态迁移与混合式训练方法,在多项基准测试中表现优异。模型开源,适用于教育、医疗、科研、内容审核等多个领域,推动多模态人工智能的发展。

YAYI

YAYI-Ultra是中科闻歌研发的企业级大语言模型,具备多领域专业能力与多模态内容生成能力,支持数学、代码、金融、中医等领域。模型支持超长文本处理、数据分析、任务规划及联网创作,适用于媒体、医疗、财税等行业。采用混合专家架构,结合指令微调技术,在多项评测中表现优异,提供高效、精准的智能化服务。

《Manus没有秘密》70页PPT解读AI Agent(PDF文件)

本文详细解读了AI Agent技术从L1到L3的发展历程,涵盖了定义、实现原理、用户体验及未来趋势。文章以Manus为例,探讨了Agent技术的通用性、技术实现路径及用户感知变化,强调了提升通用性、性能和用户体验的重要性。同时,文章提出了对未来发展的期望和建议。

Agentic Object Detection

Agentic Object Detection是由吴恩达团队研发的新型目标检测技术,通过智能代理系统实现无需标注数据的目标识别。用户输入文字提示后,AI可精准定位图像中的目标及其属性,支持内在属性、上下文关系及动态状态的识别。该技术无需复杂训练流程,适用于装配验证、作物检测、医疗影像分析、危险物品识别和商品管理等多种场景,显著提升了检测效率和准确性。

VRAG

VRAG-RL是阿里巴巴通义大模型团队推出的视觉感知驱动的多模态RAG推理框架,旨在提升视觉语言模型在处理视觉丰富信息时的检索、推理和理解能力。通过定义视觉感知动作空间,实现从粗粒度到细粒度的信息获取,并结合强化学习和综合奖励机制优化模型性能。该框架支持多轮交互推理,具备良好的可扩展性,适用于智能文档问答、视觉信息检索、多模态内容生成等多种场景。

Amazon Nova

Amazon Nova是亚马逊云服务推出的一套强大的AI基础模型系列,涵盖文本、图像和视频生成等多个领域。其核心产品包括Amazon Nova Micro(专注文本处理)、Amazon Nova Lite(多模态低成本模型)、Amazon Nova Pro(多模态平衡型模型)、Amazon Nova Premier(复杂推理模型)、Amazon Nova Canvas(图像生成模型)和Amazon

飞猪AI问一问

飞猪AI问一问是一款基于多智能体协作的AI旅行助手,可快速生成包含机票、酒店、景点路线的完整旅行方案,并支持预算调节和实时信息同步。用户可通过文字、语音或方言交互,系统根据实时位置推荐周边服务,适合多种旅行场景,提供个性化、便捷的旅行规划体验。