预训练模型
乾元BigBangTransformer
BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。
码多多AI智能论文写作系统
基于前后端分离架构以及Vue3、uni-app、ThinkPHP6.x、PHP8.0技术栈开发,包含PC端、H5自适应。