微调
乾元BigBangTransformer
BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。
Awesome LLM Apps
一个精选的LLM(大型语言模型)应用集合,汇集了使用OpenAI、Anthropic、Google、Gemini以及开源模型(如DeepSeek、Qwen或Llama)构建的LLM应用。
OpenCodeInterpreter
通过结合大型语言模型和代码执行反馈,提供了一个强大的工具,可以帮助开发者在软件开发过程中提高效率和质量。
