聚缘于校·开源共行 | 太初元碁Tecorigin受邀出席开放原子校源行(江南大学站)
“开放原子校源行”是由开放原子开源基金会发起的公益项目,旨在传播开源文化、培育开源人才,得到了政府部门的大力支持。工业和信息化部指导开放原子开源基金会积极开展“校源行”系列活动,希望探索开源实践教学模式,厚培开源人才底座,助力提升软件科技源头创新和软件技术供给能力,打造人才培养“样板间”,建立开源评价“试验田”,培植产业实践“先锋队”。
作为嘉宾,邵柏潭发表了题为“AI芯片驱动的RAG算法与大模型创新”的精彩演讲,分享了太初在大模型领域的最新研究成果与应用创新。
Teco-RAG:重塑知识问答系统的未来
演讲中,邵柏潭重点介绍了Teco-RAG开发框架。这一框架是太初围绕开源大模型生态精心构建的,旨在帮助各行业的用户快速搭建本地化、私有化的知识问答系统。通过利用Teco-RAG,用户能够轻松整合自己的知识库,实现高效、精准的知识管理与对话交互,为产品智能化升级提供强大支持。
项目地址:https://gitee.com/tecorigin/teco-generative-ai(请复制链接到浏览器中打开)
Chuxin系列
此外,邵柏潭还详细阐述了Chuxin系列的创新成果。
其中,Chuxin-Embedding通过迭代式精炼数据质量与优化向量模型分布,在C_MTEB和AIR-Bench QA两个权威榜单上取得Top1的优异成绩。
项目地址:https://github.com/chuxin-llm/Chuxin-Embedding(请复制链接到浏览器中打开)
而Chuxin-1.6B模型则凭借上采样长序列数据及合成的长序列数据,实现了外推上下文窗口的渐进式微调训练,在OpenLLM平均评测指标上较Qwen1.5模型提升了0.46%,展现了卓越的性能提升。
项目地址:https://github.com/chuxin-llm/Chuxin-1.6B(请复制链接到浏览器中打开)
大模型训推创新
邵柏潭还分享了太初在大模型训练与推理方面的创新探索。
● Teco-LLM训练库支持10+个主流模型及多种微调范式,具备70B级预训练能力,并集成CommonCheckpoint无损断点续训、模型切分、zeros优化器等高级功能。该训练库不仅简化了数据处理、权重切分、训练测评等复杂流程,还通过Docker容器化环境搭建,极大提升了易用性和部署效率。
● Teco-Deepspeed训练框架以其并行策略线性扩展、融合算子加速优化、BF16混合精度支持等特性,实现了百卡级稳定训练与芯片无感知的卓越性能。
● Teco-Inference-Engine推理框架支持30+主流LLMs及7+多模态模型,提供Teco-VLLM/Teco-TGI/Teco-Triton等多种服务化后端选择,并支持长序列极限吞吐优化,为AI应用的落地提供了强有力的支持。
第二届开放原子开源大赛-Tecorigin挑战赛
活动现场,邵柏潭介绍了第二届开放原子开源大赛-Tecorigin挑战赛。本次挑战赛共设两项赛事,总奖金高达60万元,旨在鼓励更多开发者参与到AI技术的创新与应用中来。
● Tecorigin算子开发挑战赛:参赛者在C/C++基础上学习SDAA C编程语言,通过优化算子性能来提升计算任务的执行效率。这不仅考验了参赛者的编程能力,也对其在AI算法优化方面的理解提出了高要求。
● Teco-RAG挑战赛:参赛者需在Teco-RAG原型框架基础上,通过知识文档预处理、知识库构建、检索召回优化及Prompt工程优化等方法,搭建出基于大模型的检索增强问答系统。
赛事已正式启动,诚邀各界英才参与,所有对AI技术充满热情、渴望挑战自我的开发者均可扫描下方二维码参与报名,并加入赛事交流群与同行共同探讨技术难题、分享创新思路。
通过本次演讲,不仅展示了太初元碁在国产硬件系统驱动的RAG算法与大模型创新方面的最新成果,还向与会者传递了太初致力于推动AI技术普及与应用创新的坚定信念。未来,太初将继续深耕AI领域,携手各界伙伴共同探索AI技术的无限可能,为构建更加智能、便捷的未来世界贡献力量。