OpenAI前CTO做的Tinker就是个云CUDA

OpenAI前CTO做的Tinker就是个云CUDA

9分钟 ·
播放数60
·
评论数0

英伟达的当家法宝CUDA就是单芯片资源抽象,方便上层的软件开发调用;Tinker就是多卡集群虚拟化,让大模型微调无需面对硬件网络,二是看到一台超级计算机。

与AI Infra行业的差异化定位

维度            Tinker (PaaS层)                传统AI Infra (IaaS层)

抽象层级     算法接口+训练流程管理      硬件资源调度+基础算力供给

用户操作     调用API即可启动训练          需要配置集群参数/网络拓扑

核心价值    提升算法迭代速度                保障基础设施稳定性

与CUDA的本质区别

技术                   Tinker                        CUDA

抽象目标    多卡集群虚拟化                    单芯片计算资源抽象

核心功能    分布式训练流程编排             并行计算指令优化

典型应用    千亿参数模型RL训练             图像处理/科学计算

生态依赖    兼容PyTorch/TensorFlow      深度绑定NVIDIA硬件