EmoLLM 是一款专注于心理健康支持的大型语言模型,能够通过多模态方式理解用户情绪并提供心理辅导。该模型融合了文本、图像和视频等多种数据形式,利用先进的多视角视觉投影技术,从多个维度捕捉情感线索,从而更全面地识别用户的情绪状态。EmoLLM 基于多种开源大语言模型进行指令微调,具备情绪识别、意图理解、幽默检测和仇恨检测等能力,适用于多种情感相关任务。 其主要功能包括:通过对话识别用户情绪与心理需求;提供情感支持以缓解压力和焦虑;结合认知行为疗法进行心理辅导;支持角色扮演,满足不同场景下的互动需求;根据用户反馈提供个性化辅导方案;使用科学工具评估心理状态;提供心理健康知识教育;支持多轮对话,实现持续性心理支持;并考虑社会背景对心理健康的影响,提供系统化指导。 EmoLLM 的核心技术包括多视角视觉投影、情感引导提示(EmoPrompt)、多模态编码以及指令微调,使其在处理复杂情感语境时更具优势。项目已开源,并配有相关技术论文供进一步研究。

评论列表 共有 0 条评论

暂无评论

微信公众账号

微信扫一扫加关注

发表
评论
返回
顶部