模型

CursorCore

CursorCore 是一款基于大型语言模型的编程辅助工具,通过对话式交互支持代码补全、修改和错误修复。它整合代码历史、上下文信息及用户指令,利用自动化数据生成管道和基准测试优化模型性能,适用于日常编码、代码审查、教学学习及遗留代码维护等多个场景。

DeepSeek V3

DeepSeek V3是一款由幻方量化旗下的深度求索公司开源的AI模型,拥有6850亿参数,采用混合专家架构。它在多语言编程、长文本处理和对话交互方面表现出色,能够生成高质量代码、优化现有代码、协助调试、生成文本、分析文本、润色文本,并支持自然对话和多轮对话。此外,它在多个基准测试中表现出色,包括编程、数学、推理等领域。

YAYI

YAYI-Ultra是中科闻歌研发的企业级大语言模型,具备多领域专业能力与多模态内容生成能力,支持数学、代码、金融、中医等领域。模型支持超长文本处理、数据分析、任务规划及联网创作,适用于媒体、医疗、财税等行业。采用混合专家架构,结合指令微调技术,在多项评测中表现优异,提供高效、精准的智能化服务。

360Zhinao2

360Zhinao2-7B是一款由360公司开发的大规模AI语言模型,具备强大的语言理解和生成能力,支持多语言交流和复杂的数学逻辑推理。其核心特性包括灵活的上下文处理、高效的训练技术和广泛的适用性,可应用于智能客服、教育辅助、内容创作和信息检索等多个领域。

Dolphin

Dolphin是由清华大学与海天瑞声联合开发的面向东方语言的语音识别大模型,支持40种语言及22种中文方言,具备高精度语音转文字能力。采用CTC-Attention架构,结合E-Branchformer和Transformer技术,提升识别效率与准确性。模型开源,支持自定义语言与地区设置,适用于会议记录、语音输入、智能助手等多种场景。

LatentSync

LatentSync是由字节跳动与北京交通大学联合研发的端到端唇形同步框架,基于音频条件的潜在扩散模型,无需中间3D或2D表示,可生成高分辨率、动态逼真的唇同步视频。其核心技术包括Temporal Representation Alignment (TREPA)方法,提升视频时间一致性,并结合SyncNet监督机制确保唇部动作准确。适用于影视制作、教育、广告、远程会议及游戏开发等多个领域。

OptoChat AI

OptoChat AI是国内首款面向光子领域的AI大模型,整合超30万条光子芯片相关数据资源,具备强大的数据分析与智能算法能力。可实现光子芯片设计优化、工艺验证、文献检索等功能,显著提升研发效率,缩短设计周期。适用于科研、制造、教育及市场分析等多个场景,推动光子产业智能化发展。

Bark

Bark是一款开源的文本到音频转换模型,由Suno AI开发,能够生成逼真的多语言语音及多种音频类型,包括音乐和背景噪音,并支持非语言交流的声音。该模型提供预训练模型,适用于研究和商业用途。其主要功能涵盖文本到音频转换、多语言支持、音频多样性和非语言交流模拟。Bark在多语言内容创作、音频内容生成和非语言交流场景中具有广泛应用。

TokenSwift

TokenSwift是由北京通用人工智能研究院开发的超长文本生成加速框架,可在90分钟内生成10万Token文本,效率较传统模型提升3倍,且保持输出质量。其核心优势包括多Token并行生成、动态KV缓存管理、上下文惩罚机制等技术,支持多种模型架构。适用于内容创作、智能客服、学术研究及编程辅助等场景。

MME

MME-CoT 是一个用于评估大型多模态模型链式思维推理能力的基准测试框架,涵盖数学、科学、OCR、逻辑、时空和一般场景六大领域,包含1,130个问题,每题均附关键推理步骤和图像描述。该框架引入推理质量、鲁棒性和效率三大评估指标,全面衡量模型推理能力,并揭示当前模型在反思机制和感知任务上的不足,为模型优化和研究提供重要参考。