微调

乾元BigBangTransformer

BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。

BenTsao本草

BenTsao本草是一个专注于中文医学领域的大语言模型,它通过指令微调和丰富的医学知识库,为医疗健康专业人士提供了一个强大的信息处理和决策支持工具。

K2

地球科学的开源大预言模型,首先在收集和清理过的地球科学文献(包括地球科学开放存取论文和维基百科页面)上对 LLaMA 进行进一步预训练,然后使用知识密集型指令调整数据(GeoSig...

悟道·天鹰(Aquila)

悟道·天鹰(Aquila)是智源研究院开源的中英双语语言大模型,具备强大的语言理解和生成能力。模型在设计上注重商用和数据合规性,同时提供持续的开源更新和技术支持。

OpenBMB

OpenBMB作为一个大型的中英文双语基础模型,通过在大规模语料库上的预训练,具备了优秀的语言处理能力。

TigerBot

TigerBot是一个功能丰富、持续进化的大型语言模型,它通过不断的技术创新和社区贡献,为用户提供了一个强大的多语言多任务处理能力。

Humanloop

Humanloop工具提供了一个SDK,使用户能够更快、更便宜、更有效地制作GPT-3。用户可以收集最终用户的反馈,试验不同的提示和模型,并通过按下一个按钮来微调他们的模型。该工具还可...

孟子大模型

孟子大模型作为澜舟科技的核心产品之一,展现了公司在认知智能领域的技术实力和创新能力。通过其强大的语言处理和多模态数据处理能力,孟子大模型为不同行业提供了灵活、高效的解...

MiniMax 大语言模型

它基于海量中文数据训练而成,拥有超过1000亿个参数,能够处理上百TB的文本数据。

面壁智能

面壁智能依托在自然语言处理方面的前沿技术,构建大规模预训练模型库及配套工具,推进大模型技术与应用的标准化。