模型
AnimateDiff
AnimateDiff是一款由上海人工智能实验室、香港中文大学和斯坦福大学的研究人员共同开发的框架,旨在将文本到图像模型扩展为动画生成器。该框架利用大规模视频数据集中的运动先验知识,允许用户通过文本描述生成动画序列,无需进行特定的模型调优。AnimateDiff支持多种领域的个性化模型,包括动漫、2D卡通、3D动画和现实摄影等,并且易于与现有模型集成,降低使用门槛。
书生InternThinker
书生InternThinker是一款由上海人工智能实验室开发的强推理模型,具备生成高智力密度数据及元动作思考的能力。它擅长处理数学、编程、逻辑推理等复杂任务,通过长思维能力和自我反思机制提升性能。模型采用通专融合技术和大规模沙盒环境反馈,实现复杂任务的高效解决,适用于教育、编程、科研、客服及法律等多个领域。
SpatialVLA
SpatialVLA是一款由多机构联合研发的空间具身通用操作模型,具备强大的3D空间理解能力与跨平台泛化控制能力。通过Ego3D位置编码和自适应动作网格技术,实现精准的环境感知与动作生成。支持零样本任务执行与快速微调,适用于工业、物流、医疗等多个领域,推动机器人技术的发展与应用。
