机器之心报道机器之心编辑部适用于常规 AI 模型和 MoE。DeepSeek 的开源周已经进行到了第三天(前两天报道见文末「相关阅读」)。今天开源的项目名叫 DeepGEMM,是一款支持密集型和专家混合(MoE)GEMM 的 FP8 GEMM 库,为 ...
不知道明天 DeepSeek 又会开源哪个代码库,但光凭他们这敞亮、真诚的态度,圈粉就是分分钟的事儿,在 DeepSeek 的评论区底下,世超已经看到不只一位老哥,对着 OpenAI 贴脸开大了。
DeepSeek AI 开源周目前进行到了第三天,今天 DeepSeek 开源名为 DeepGEMM 的通用矩阵乘法库 (GEMM),专门为英伟达 Hopper GPU 上的 AI 训练和推理任务设计。 DeepGEMM 是一个为清洁和高效 ...
2025年2月,AI界传来震撼消息,DeepSeek开源项目在发布的短短两天内,推出了新一代技术,迅速在GitHub上引发热潮。这次发布的DeepEP,不仅展示了DeepSeek在AI领域的继续探索,更是对当前计算架构性能的全新提升。本文将对Deep ...
专家认为,DeepSeek推出的DeepEP,是一个专为MoE模型和专家并行(EP)设计的通信库。DeepEP解决了在GPU之间调度和聚合令牌所固有的低效率问题。该通信库提供高吞吐量、低延迟的全对全GPU内核(通常称为MoE调度和组合内核),可简化训 ...
记者就开源DeepEP通信库的影响询问DeepSeek,它的回答是,DeepEP能显著提升MoE模型的训练和推理效率,显著降低计算资源消耗,开源DeepEP有助于降低AI技术的开发成本,且有助于减少重发开发。
中国人工智能公司DeepSeek在其“开源周”第3天宣布推出DeepGEMM——一款支持FP8通用矩阵乘法(GEMM)的开源库。这一工具专为密集型和混合专家 (MoE)矩阵运算设计,为DeepSeek V3和R1模型的训练与推理提供强大支持。官方消息通过X平台发布,迅速引发技术社区的热烈反响。
紧接着,2月25日,DeepSeek再次震撼发布,开源了DeepEP,这是首个用于MoE模型训练和推理的开源EP通信库。DeepEP支持高效的全员沟通、节点内和节点间的NVLink和RDMA通信,以及灵活的GPU资源控制,为AI模型的训练和推理提供了 ...
最近好多人使用,都是 DeepSeek服务器繁忙,请稍后再试 的提示,严重影响使用! 为解决服务器繁忙、不稳定的问题,本指南提供全面的 DeepSeek 使用说明 轻松使用 DeepSeek R1 满血版,快速稳定、不卡顿,支持 DeepSeek R1 满血版 以及 ChatGPT o1、o3 大模型。 包含 DeepSeek ...
2月24日上午,DeepSeek(深度求索)发布首个开源项目FlashMLA。根据DeepSeek在GitHub社区披露的信息,FlashMLA是适用于Hopper GPU(一种英伟达图形处理器架构)的高效MLA(多头潜注意力)解码内核,针对可变长度序列服务进行了优化。在H800(一款英伟达芯片)上可以实现每秒处理3000GB(千兆字节)数据,每秒执行580万亿次浮点运算。
上周五,DeepSeek 发推说本周将是开源周(OpenSourceWeek),并将连续开源五个软件库。 昨天,他们开源了第一个代码库 —— FlashMLA。这是一款用于 Hopper GPU 的高效型 MLA 解码核,仅用了 24 ...
据界面援引外媒报道称,知情人士表示,DeepSeek正在加速推出其R2人工智能模型,该公司最初计划在五月推出,但目前正在努力尽快推出,市场预计三月有可能推出。 昨日,阿里云视频生成大模型万相2.1(Wan)开源。此次开源采用Apache2.0协议,14B和1.3B两个参数规格的全部推理代码和权重全部开源,同时支持文生视频和图生视频任务,全球开发者可在Github、HuggingFace、魔搭社区下 ...