LaWGPT 是由南京大学研发的中文法律大语言模型,基于 LLaMA 模型进行二次预训练,并融合了大量中文法律知识。该模型专注于法律领域,能够理解和生成与法律相关的文本,适用于法律咨询、案例分析、法律文件生成等多种场景。目前提供 LaWGPT-7B-alpha 和 LaWGPT-7B-beta1.0 等多个版本,经过海量中文法律文本训练,具备深厚的法律知识储备。 LaWGPT 的功能涵盖法律咨询、文书生成、司法考试辅助、法律教育与培训以及智能客服等多个方面。其技术架构建立在通用中文基座模型(如 Chinese-LLaMA、ChatGLM 等)之上,并通过法律领域词表扩充、大规模法律语料预训练、指令精调等手段,显著提升了法律文本的理解和生成能力。此外,LaWGPT 还引入了知识引导数据生成框架(KGDG),包括 KGGEN、KGFIX、DAVER 和 MITRA 等组件,以提升数据质量和模型性能。 项目已开源,相关代码和论文可在 GitHub 与 arXiv 上获取。LaWGPT 可广泛应用于法律研究、案件分析及政策研究等领域,为法律从业者和研究人员提供高效支持。

评论列表 共有 0 条评论

暂无评论

微信公众账号

微信扫一扫加关注

发表
评论
返回
顶部