4大观点直面呈现|直播回顾-DeepSeek时代的AI算力管理

作者:SRE创新联合体 时间:2025-03-12
2025年2月21日晚上9点30分,我们迎来了新春后的首场人工智能三人行宣讲活动。这场直播聚焦于Deepseek开源大模型,探讨了其对AI算力、算法、数据及应用带来的新发展。

直播回顾


2025年2月21日晚上9点30分,

我们迎来了新春后的首场人工智能三人行宣讲活动。

这场直播聚焦于Deepseek开源大模型

探讨了其对AI算力、算法、数据及应用带来的新发展。


本次直播邀请到了上海赞奇的总经理俞阁总和速石科技陈琳涛,

主持人则为SRE专委会发起人 刘峰老师,

三位嘉宾围绕AI算力管理展开了深入讨论。


随着Deepseek开源大模型的发布,AI领域迎来了新的变革。

三位嘉宾从不同角度探讨了AI算力需求的变化、

端侧与推理算力的崛起、国产自主可控算力的发展,

以及人工智能在企业中的应用场景。



话题一:AI算力需求的变化


刘峰老师首先指出,AI算力始终是大模型的基础,

而DeepSeek的出现极大地推动了算力需求的增长。


俞总补充道,DeepSeek不仅降低了大模型的使用门槛,

还激发了企业和个人对AI算力的需求。

他强调,尽管基础大模型的训练需求有其上限,

但推理应用的场景正在迅速扩大,

这将带来GPU和硬件需求的爆发式增长。


陈总则从企业角度出发,

指出Deepseek的出现加速了AI算力的部署,

尤其是云厂商纷纷将资源倾斜于DeepSeek,

推动了从云端到本地的算力需求转变。

他提到,企业现在更倾向于在本地部署AI模型,

以满足特定业务场景的需求。



话题二:端侧AI与推理算力的崛起


在端侧AI与推理算力方面,

俞总认为,AI应用正从云端向端侧转移,

企业和个人用户对本地化部署的需求日益增加。

他提到个人用户可以通过本地设备(如Mac mini或4090显卡)

运行AI模型,

而企业则需要根据自身规模选择合适的AI工作站或服务器。


陈总则强调,

推理算力的崛起不仅是技术发展的必然,

也是企业降本增效的重要手段。

他指出,企业需要在本地化部署和云端API之间找到平衡,

以满足不同业务场景的需求。



话题三:国产自主可控算力的进展


在国产自主可控算力方面,

俞总表示,尽管国产GPU在性能和生态建设上仍有差距,

但在推理场景中已经具备一定的替代能力。

他提到,国产芯片的成本相对较高,

但随着技术的发展和市场的竞争,

未来有望实现降本增效。


陈总则从企业应用的角度出发,

指出国产芯片的适配和生态建设仍需时间。

他提到,尽管部分国产芯片已经在特定场景中实现了良好的适配,

但整体生态的完善还需要各方共同努力。



话题四:人工智能的学习与应用


刘峰老师分享了他们在培训领域的经验,强调了理性看待AI的重要性。

他提到,企业需要根据自身需求,

选择合适的AI模型,而不是盲目追求高性能硬件。

俞总和陈总也分别从技术和业务角度给出了建议,

强调了AI工具在提升工作效率和优化业务流程中的价值。



直播总结


本次直播围绕Deepseek开源大模型对AI算力的影响,展开了深入讨论。

嘉宾们一致认为,DeepSeek不仅推动了AI算力需求的增长,

还加速了端侧AI和推理算力的发展。

尽管国产自主可控算力仍面临挑战,

但随着技术的进步和市场的竞争,

未来有望实现更大的突破。


我们希望通过本次直播,

帮助观众更好地理解AI算力时代的机遇与挑战。

如果您对AI算力管理或DeepSeek感兴趣,

欢迎关注我们的公众号:ZTA-SRE专委会

获取更多相关内容!


我们最新的一期直播

人工智能三人行——“DeepSeek时代的AI数据管理” 

会在2025年2月28 21:00 和大家见面!


微信图片_20250312164808