人工智能应用

EmoLLM

EmoLLM 是一款基于多模态技术的心理健康支持工具,能通过文本、图像和视频分析用户情绪,提供情绪识别、心理辅导和情感支持。其核心包括多视角视觉投影、情感引导提示和指令微调技术,支持个性化辅导、角色扮演及多轮对话,适用于心理健康评估与干预场景。

Deep Research

Deep Research是由OpenAI开发的一款AI深度搜索与研究工具,支持多步骤自主研究,适用于金融、科学、政策等领域。基于o3模型,结合强化学习技术,能高效整合网络信息并生成结构化研究报告。用户可通过提示词触发研究流程,系统自动生成引用清晰、逻辑严谨的成果,适用于学术研究、市场分析、投资决策等场景。

ASAP

ASAP是一种由卡内基梅隆大学与英伟达联合开发的两阶段框架,用于解决仿人机器人在模拟与现实之间动力学不匹配的问题。它通过预训练阶段在模拟环境中学习运动策略,并在后训练阶段利用真实数据训练Delta动作模型,补偿动力学差异。该框架提高了机器人在复杂任务中的敏捷性、协调性和运动精度,支持多种应用场景,如体育、救援、工业、家庭服务及虚拟现实等,为仿人机器人的实际应用提供了高效的技术方案。

GenSFX

GenSFX 是一款基于 AI 的在线音效生成工具,可根据文本描述快速生成高质量音效,支持环境音、自然声、动物叫声、机械声、科幻音效等多种类型。用户可自定义参数并下载多种格式的音频文件,适用于视频制作、游戏开发、播客和广告等多个领域,提升内容创作效率与表现力。

CustomVideoX

CustomVideoX是一种基于视频扩散变换器的个性化视频生成框架,能够根据参考图像和文本描述生成高质量视频。其核心技术包括3D参考注意力机制、时间感知注意力偏差(TAB)和实体区域感知增强(ERAE),有效提升视频的时间连贯性和语义一致性。支持多种应用场景,如艺术设计、广告营销、影视制作等,具备高效、精准和可扩展的特点。

VLM

VLM-R1 是由 Om AI Lab 开发的视觉语言模型,基于 Qwen2.5-VL 架构,结合强化学习优化技术,具备精准的指代表达理解和多模态处理能力。该模型适用于复杂场景下的视觉分析,支持自然语言指令定位图像目标,并在跨域数据中表现出良好的泛化能力。其应用场景涵盖智能交互、无障碍辅助、自动驾驶、医疗影像分析等多个领域。

FacePoke

FacePoke是一款基于AI的开源实时面部编辑工具,支持通过简单拖拽操作调整人物头部姿态和面部表情,使静态图像更加生动。其采用深度学习技术,具备高分辨率输出和精确控制能力,适用于数字艺术、内容创作及影视制作等领域。工具基于LivePortrait技术开发,支持本地和Docker部署,便于用户灵活使用。

SynClub

SynClub是一款基于AI技术的社交应用,允许用户创建并定制个性化的AI角色,实现情感陪伴与互动交流。该工具支持文字和语音对话,具备自然语言处理能力,能根据用户行为进行学习与适应,提供更精准的互动体验。适用于情感支持、社交训练、兴趣交流及语言学习等多场景,注重用户隐私与安全感。

Jobscan

Jobscan 是一款专注于简历优化的 AI 工具,主要功能包括 ATS 匹配分析、关键词优化、简历生成和 LinkedIn 优化。它帮助求职者提升简历通过招聘系统的概率,并提供实时编辑建议。适用于求职准备、简历调整及职业发展等多个场景,支持免费和付费版本,满足不同用户需求。

ART

ART(Anonymous Region Transformer)是一种新型多层透明图像生成技术,支持基于全局文本提示和匿名区域布局生成多个独立透明图层(RGBA格式)。通过逐层区域裁剪机制,显著提升生成效率,速度快于传统方法12倍以上。具备高质量自编码器,支持50层以上的图像生成,减少图层冲突。广泛应用于艺术设计、内容创作、广告营销及科研等领域。