近 日 ,DeepSeek发 布DeepSeek—V3.1,基于下一代国产芯片训练。DeepSeek—V3.1采用UE8M0FP8精度训练,可以直接在任何支持MXFP8+UE8M0的硬件上执行,能降低内存流量、提升矩阵乘法吞吐。V3.1通过软件定义与更多芯片适配配资评测论坛,能让超低精度训练、推理在中国自研芯片上更容易实现。
业内人士指出,DeepSeek—V3.1的UE8M0FP8Scale助力国产AI软硬协同,AI正加速迈进应用落地的关键期,在政企示范引领、软硬协同创新、AI基建持续完善、特定行业率先落地的基础上,人工智能有望迎来真正意义上的“政策+产业”共振。
事件驱动 DeepSeek线上模型版本升级至V3.1
8月 21日 ,DeepSeek发 布 了DeepSeek—V3.1大模型。本次升级后的模型采用了混合推理架构,即一个模型同时支持思考模式与非思考模式,用户可以使用“深度思考”按钮实现一键切换。与前代模型相比,DeepSeek—V3.1具有更高的思考效率,能够在更短的时间内给出答案。模型通过Post—Training优化,使得新模型在工具使用与A-gent的智能体任务中的表现有较大提升。
DeepSeek—V3.1采 用 了 UE8M0FP8Scale参数精度配资评测论坛,并表示UE8M0FP8是针对即将发布的下一代国产芯片设计。FP8是一种超低精度数值格式,与传统的FP16(半精度浮点数)和FP32(单精度浮点数)相比,FP8通过减少数据位宽来实现更高的计算效率和更低的内存占用。在AI训练与推理的过程中,通过降低数值精度,可以提升计算效率。采用FP8能够使算力效率翻倍,同时降低训练和推理过程中的网络带宽的通信量,使得在相同的功耗下,AI芯片可以训练更大的模型或缩短训练时间。
天创优配提示:文章来自网络,不代表本站观点。