对话
乾元BigBangTransformer
BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。
Firsthand AI
Firsthand AI提供了一个强大的平台,使品牌和出版商能够通过AI Agents与消费者进行个性化对话,同时完全控制自己的数据和内容。