要搞清楚CUdA是什么,先要明白CPU和GPU的区别。</br>CPU架构有复杂的控制单元和巨大缓存。</br>这种设计是为了处理复杂逻辑运算。这要求CPU必须有很强的单核性能。</br>但CPU物理核心数量有限,就算最高端的服务器CPU,面对海量简单计算时,也会因为线程数量限制而排队。</br>快看网的推荐算法,本质是海量矩阵乘法。</br>这些计算本身不复杂,不需要多强逻辑推理,但数量极其庞大。</br>让CPU去算矩阵,是高射炮打蚊子,效率极低,而且容易把服务器撑爆。</br>GPU架构完全不同。</br>GPU没有复杂控制单元,内部塞满了成百上千个简单的流处理器。</br>这些流处理器只能做基础运算。</br>但因为数量庞大,它们可以同时并行处理海量数据。</br>这完美契合了AI算法和推荐系统需要的大规模并行计算。</br>可是,硬件再强,也需要软件驱动。</br>在CUdA出现前,程序员想用显卡算力做非图形渲染的通用计算,简直是噩梦。</br>他们必须把非图形数据,强行伪装成图形像素数据,通过复杂图形API通道传给显卡。</br>等显卡算完,还要把输出像素数据反向解析回通用数据。</br>这种操作极其繁琐,写错一行代码,就会导致程序崩溃。</br>所以,空有强大并行算力,却没人能轻易用在非游戏领域。</br>直到黄仁勋做出大胆决定,推出CUdA。</br>CUdA全称是计算统一设备架构。</br>它本质是一个软件开发平台和编程模型。</br>英伟达在每张显卡底层嵌入了CUdA硬件指令集,同时在软件层面推出一整套编译器、库文件和开发工具。</br>CUdA最伟大也最可怕的地方在于,它允许程序员直接用最普及的C语言,调用显卡底层算力。</br>程序员不再需要学晦涩的图形API,也不需要伪装数据。</br>只要会写C语言,只要装了CUdA开发包,就能轻松把一段并行计算代码跑在英伟达显卡上。</br>这极大降低了GPU通用计算门槛。</br>华尔街投资人不理解,为什么一家卖硬件的公司,要养几千软件工程师维护一个免费给开发者用的平台。</br>但黄仁勋顶住压力,强行推广CUdA。</br>他甚至跑到各大学计算机系,免费发支持CUdA的显卡,鼓励学生用CUdA做科研计算。</br>这是一个极度长远的阳谋。</br>随时间推移,越来越多程序员习惯用CUdA。</br>各种基于CUdA的科学计算库、深度学习框架开始在开源社区生长。</br>当2025年大模型时代爆发,全球科技公司都需要海量算力训练AI时,他们发现一个绝望的现实。</br>所有成熟AI算法,所有好用的深度学习框架,底层代码都是基于CUdA写的。</br>而CUdA,是英伟达的私有闭源技术。</br>它只支持英伟达自家显卡。</br>如果买一批Amd显卡,会发现根本无法运行主流AI算法,因为Amd硬件解析不了CUdA指令。</br>想在Amd显卡上跑通大模型,必须把整个软件生态从底层重写。</br>这个工作量,大到没有公司愿意承担。</br>这就是为什么,到了AI时代,所有人都只能捏着鼻子去抢购英伟达高价算力卡。</br>算力可以制造,但生态一旦形成,就是一道叹息之墙。</br>夏冬放下手机,揉了揉眉心。</br>他现在处境很矛盾。</br>如果批准吴泽明的迁移方案,盛夏科技算力危机立刻就能解决。</br>凭借CUdA的并行计算能力,快看网推荐算法效率至少提升数十倍,服务器压力彻底释放。</br>但这等于替英伟达测试他们还不成熟的早期生态。</br>盛夏科技作为国内目前数据量最大、算法最先进的互联网公司,一旦全面拥抱CUdA,在这个平台跑通所有推荐逻辑。</br>那就会形成路径依赖。</br>盛夏科技的程序员会越来越习惯调用CUdA函数库。</br>等几年后,陆奇和国内团队把盛夏科技自己的通用GPU流片成功。</br>夏冬总不能指望自家硬件去支持对手的私有协议。</br>到那时,盛夏科技自己开发的GPU,会面临完全没有软件可跑的尴尬。</br>要让
本章未完,请点击下一页继续阅读》》

章节目录

带着手机重生,目标科技教父所有内容均来自互联网,书林文学只为原作者没钱又任性的小说进行宣传。欢迎各位书友支持没钱又任性并收藏带着手机重生,目标科技教父最新章节