这边GPT4.5刚发布,这边DeepSeek开源周进入到第五天开源的项目,最后一天的开源项目是:3FS(Fire-Flyer File System)。
3FS(Fire-Flyer File System)是DeepSeek自研的高性能分布式文件系统,专为解决ai训练和推理工作负载的挑战而设计。
高性能:
利用现代SSD和RDMA网络,提供高吞吐量和低延迟的数据访问。
结合数千个SSD的吞吐量和数百个存储节点的网络带宽,使应用能够以无关地域的方式访问存储资源。
强一致性:
通过实现链式复制与分配查询(CRAQ),确保强一致性,使得应用代码更简洁且易于推理。
文件接口:
采用无状态元数据服务,背后支持事务型键值存储(如FoundationDB)。
熟悉的文件接口,无需学习新的存储API。
多样化工作负载支持:
数据准备:将数据分析管道的输出组织成层次化目录结构,有效管理大量中间输出。
数据加载器:通过支持跨计算节点随机访问训练样本,消除预读取或数据洗牌的需求。
检查点:支持大规模训练的高吞吐量并行检查点。
推理KV缓存:提供一种基于成本效益的替代方案,替代DRAM缓存,提供更高吞吐量并大大提高容量。
存算分离:
数据存储服务与计算节点分离,专门用于存储模型训练需要用到的样本数据。
每个存储服务节点有16张各15TB的SSD硬盘和2张高速网卡,读取性能强劲,网络带宽强大,读写带宽:7.0TB/秒。
自研通信工具:
如hfreduce,优化多卡并行通信,替代英伟达的NCCL,减少PCIe流量和计算开销。
专用数据格式FFRecord:
通过合并多个小文件,减少了训练时打开大量小文件的开销。
通过样本文件的偏移量提升随机批量读取性能。
AI训练和推理:
3FS专为AI训练和推理工作负载设计,能够显著提升这些任务的效率。
通过高性能和强一致性,3FS支持大规模模型训练和高吞吐量推理。
数据准备和加载:
3FS的数据准备和加载器功能使得处理大量数据变得更加高效,减少了预读取和数据洗牌的需求。
检查点和推理缓存:
3FS支持高吞吐量的并行检查点,确保训练过程的稳定性和容错性。
推理KV缓存提供了基于成本效益的替代方案,提高了推理吞吐量和容量。
安装和配置:
3FS可以通过GitHub上的开源项目进行安装和配置。
数据格式转换:
使用FFRecord格式进行数据存储和加载,需要将样本数据转换成FFRecord格式。
提供了FFRecord转换工具,方便用户进行数据格式转换。
与PyTorch集成:
3FS适配了PyTorch的Dataset和Dataloader接口,可以非常方便地加载数据并发起训练。
GitHub项目地址:https://github.com/deepseek-ai/3FS
第一天:FlashMLA,针对NVIDIA Hopper GPU的高效解码内核,优化了多头潜在注意力(MLA)的性能,显著提升了AI工具在内容创作中的响应速度。
第二天:DeepeEP,首个用于混合专家模型(MoE)训练和推理的开源通信库,优化了大规模分布式训练的通信效率,降低了延迟。
第三天:DeepGEMM,支持稠密和MoE模型的FP8计算库,专为NVIDIA Hopper架构GPU设计,显著提高了计算效率和硬件利用率。
第四天:DualPipe,一种双向流水线并行算法,旨在优化V3/R1模型训练中的计算和通信重叠。EPLB,一个专家并行负载均衡器,专门用于解决大规模AI模型中专家并行任务的负载不均衡问题。
下一篇: 最后一页
tortoise-tts学习资料汇总 - 高质量多声音TTS系统
2024-12-31
PaddleSpeech入门学习资料汇总 - 开源语音AI工具包
2025-01-02
pot-desktop使用指南 - 跨平台划词翻译和OCR软件
2025-01-02
understand-prompt学习资料汇总 - AI助手的探索与应用
2025-01-02
GPT4All学习资源汇总 - 在本地设备上运行大型语言模型
2025-01-02
2025-01-02
wechat-bot入门指南 - 基于ChatGPT的微信聊天机器人
2025-01-02
Cheetah - AI助手学习资料汇总 - Mac应用助力远程技术面试
2025-01-02
AI代码翻译器学习资料汇总 - 使用AI将代码从一种语言翻译成另一种语言
2025-01-02