书生通用大模型是由上海人工智能实验室发布的大型预训练模型。

书生通用大模型产品:

书生·多模态-大模型

书生2.5是多模态多任务通用大模型的一个版本,由商汤科技与上海人工智能实验室联合发布。该模型经过80亿多模态样本训练,参数量达到200亿。它突破了多项关键技术,如光标指令交互、利用语言定义任意任务和轻量级自适应融合,实现了开放世界理解、多模态交互和跨模态生成三大能力,支持350万种语义标签。

能力突出,包括开放理解、多模态交互、跨模态生成。

技术原创,包括利用语言定义任意任务、光标指令交互、轻量级自适应融合。

书生·浦语 InternLM

InternLM是一个千亿参数基座模型,通过多阶段的渐进式训练,具备较高的知识水平和较强的推理能力,在综合性考试和全面能力评测中表现优异。

InternLM是在过万亿token数据上训练的多语千亿参数基座模型。通过多阶段的渐进式训练,InternLM基座模型具备较高的知识水平,在中英文阅读理解、推理任务等需要较强思维能力的场景下表现卓越。在此基础上,通过高质量的人类标注对话数据结合RLHF等技术,使InternLM能够在与人类对话时响应复杂指令,并表现出符合人类道德与价值观的回复。

书生·天际 - 实景三维大模型

国际领先的基于NeRF的城市级实景三维大模型,具有极高的训练和渲染效率。

大范围、高精度建模:首次实现100平方公里、4K图像精度的城市级NeRF高效训练,建模范围理论上具有无限可扩展性。

实时、高精度渲染:首次实现城市级NeRF的100平方公里全范围1k分辨率、30帧实时渲染和4k分辨率离线渲染,打造沉浸式穿梭体验。

丰富的扩展功能:提供丰富的超越重建能力,包括移除、新建、旋转城市建筑等城市编辑能力,调节光照、季节等城市风格变化能力。

训练、渲染、交互一体化系统:首次实现覆盖算法、算子、计算系统、用户交互的城市级NeRF系统,为训练、渲染、交互和应用提供坚实基础。

评论列表 共有 0 条评论

暂无评论

微信公众账号

微信扫一扫加关注

发表
评论
返回
顶部