关键词:AI for AI System、Deep learning runtime、Agent development、CUDA
副标题:“完全由 AI 生成”是否是一个有误导性的宣传标签? 见【关键问题二】
一个从 Python 接口到 CUDA 内存管理,几乎完全由 AI 代码助手生成的深度学习框架,其背后究竟遵循着怎样的开发范式?
如果你关注 AI 编程领域,可能已对大型语言模型编写代码、调试程序甚至完成小型项目有所耳闻。但若告诉你, 现在存在一个功能完整的、支持 GPU 加速的深度学习框架——其 Python/Node.js 接口、张量计算、自动微分乃至 CUDA 内存管理 ——几乎完全由 AI 代码助手生成 ,你会作何感想?

- VibeTensor: System Software for Deep Learning, Fully Generated by AI Agents
- https://arxiv.org/pdf/2601.16238
- 代码仓库:https://github.com/NVlabs/VibeTensor
这并非科幻。NVIDIA 研究团队近期开源的 VibeTensor ,正是这样一个由 LLM 驱动的编码智能体在人类高层指导下生成的深度学习系统软件栈。
本文将深入解析这项标志性工作,探讨 AI 如何“编写”出一个真正的深度学习运行时,以及这对未来的软件工程意味着什么。
图 1 | VIBETENSOR 高层架构:基于 nanobind 的 Python 前端和基于 N-API 的 Node.js 前端,将任务分发至共享的 C++ 核心层。该核心层实现了张量/存储、调度、自动微分、索引、随机数生成(RNG)以及 CUDA 运行时组件(流/事件/图和缓存分配器);可选的内核库和动态加载插件用于扩展算子集合。此架构体现了 VIBETENSOR “跨层连贯”的设计原则,从用户交互的前端到硬件执行的 CUDA 层,形成完整技术链路。其中 C++ 核心层是关键枢纽:张量/存储模块通过引用计数实现高效内存管理;调度器支持 CPU 与 CUDA 设备的算子映射;自动微分引擎保障反向传播的动态计算;而 CUDA 缓存分配器的诊断功能(如内存快照)为系统可观测性提供支撑,使得 AI 生成的复杂系统具备可调试与可追溯性。
零、关键问题
问题一:“弗兰肯斯坦效应”是否揭示了 AI 生成系统软件的根本性局限?
论文中提到了一个“Frankenstein composition effect”,即局部正确的子系统组合起来可能导致全局性能低下或设计不协调。 例如,为了确保正确性而引入的全局锁会串行化反向传播,从而抵消了高性能CUDA内核的优势 。这是否意味着,当前基于“局部正确性验证+组合”的AI生成范式,在构建复杂系统软件时本质上无法自动达成全局优化? 如果缺乏人类在架构层面的整体设计干预,AI是否【只能】生成“正确但低效”的系统? 论文中的“全AI生成”是否在关键设计决策上【仍】依赖人类先验知识?
是的,“弗兰肯斯坦效应”深刻地揭示了当前 AI 生成系统软件方法在实现“全局协调性”和“系统级优化”方面的核心局限。
本文所述的“弗兰肯斯坦效应”——即局部正确且合理的子系统在组合后,由于交互和副作用导致整体性能低下或设计不协调 —— 并非一个偶然的缺陷,而是生成式 AI 在当前工作范式下的一个结构性挑战。
这一效应触及了 AI 辅助开发的两个根本性边界:
核心局限维度| 具体表现与问题分析
—|—
缺乏系统级的“设计意图”与“全局目标”编码| AI智能体仅基于人类设定的局部目标(如实现正确的反向传播引擎)、局部约束(如通过单元测试)迭代生成代码;高性能系统软件所需的跨层优化、并发设计、资源调度策略等全局性设计意图,无法完整、无歧义地转化为AI可执行指令。
以论文中“非可重入全局反向传播锁”为例:
1. AI仅为满足“线程安全”的局部正确性约束,采用性能代价高的全局锁方案,不具备人类架构师的权衡能力,无法设计无锁、分层锁等更优方案;
2. AI擅长既定框架内解决问题,不擅长自主定义更优框架。
验证机制的局部性与组合测试的缺失| AI验证高度依赖构建成功结果和预定义测试套件,仅能保障代码单元正确性,无法有效捕捉代码的组合效应;AI生成代码可通过全部单元测试,但会在多步训练循环中,因状态累积、缓冲区重用、意外同步等问题失效。
当前AI工作流缺乏对反复组合执行后涌现的系统行为进行建模、测试的内在能力;人类可凭直觉经验预判此类问题, AI则需人工引导编写长周期、多步骤、并发导向的回归测试,且该部分测试代码仍需人类完成。
“弗兰肯斯坦效应”表明,在缺乏人类对系统级抽象、性能权衡和长期行为模式进行深度指导和干预的情况下,纯靠当前“局部目标驱动+局部验证”的 AI 生成范式,确实容易产生“正确但低效”或“脆弱”的系统。
VibeTensor 的实践证明了 AI 在生成“可工作的复杂系统”方面能力惊人,但同时也清晰地划定了边界:AI 是强大的“实现引擎”,而人类仍是不可或缺的“系统架构师”和“全局优化者”。 所谓的“全 AI 生成”,在关键的系统级设计决策上,依然深度依赖于人类的先验知识和顶层设计。
问题二:“完全由 AI 生成”是否是一个有误导性的宣传标签?
论文强调VibeTensor是“fully generated by AI agents”,但同时也指出人类提供了高级指导、优先级设定和验证框架,且测试代码仍由人工编写。在这种模式下,AI的实际贡献究竟是“生成系统”还是“执行人类定义的任务流”? 如果核心架构、关键抽象、测试策略和验证方法均由人类设定,那么“AI生成”是否更多体现在代码实现的填充与迭代上? 这是否反映了当前AI在系统软件设计中的辅助而非主导角色? 论文是否在某种程度上模糊了“生成”与“辅助实现”的界限?
是的,这个标签在一定程度上具有误导性,它模糊了“生成”与“在严密人类脚手架下的辅助实现”之间的界限,可能过度简化了实际的工作分配和智力贡献。
论文标题和摘要中强调的“Fully Generated by AI Agents”容易让读者产生“AI 自主创造了整个系统”的印象。然而,通过对全文细节的审视,我们可以发现一个更复杂、更真实的图景:
核心分类| 细分维度| 具体内容说明
—|—|—
人类定义【几乎所有】 生成前提与验证边界| 高层目标与架构| 人类提供系统整体架构蓝图,例如类PyTorch的eager执行、包含Python/Node.js前端、需要CUDA图支持。
| 开发流程与护栏| 人类设定核心工作流:指定目标->生成代码->编译测试->扩展验证;搭建全部关键验证脚手架,包含CTest/pytest测试套件、PyTorch等差分检查基准、API一致性检查脚本、多智能体代码评审流程; AI【仅】在人类构建的安全围栏内开展探索与代码生成。
| 关键组件的实现| 系统测试代码为人类手写,非AI合成,测试作为可执行规格说明书,实质定义系统正确标准与行为规范; 性能评估所用核函数套件的基准测试框架、对比逻辑均由人类提供。
AI的核心角色定位| 核心工作内容| 在人类设定的严格约束与验证流程下,依据任务描述生成具体代码变更(diffs),借助人类提供的编译器、测试脚本等工具链验证变更,通过则保留,不通过则迭代尝试其他方案。
| 角色定位与价值边界| 定位为超级代码自动补全与迭代器;自动化传统开发的编写-调试-修改循环,大幅提升代码实现效率; 无法替代人类 定义开发目标(要做什么)、制定验证标准(如何判断对错)的核心智力工作。
将 VibeTensor 称为“完全由 AI 生成”更像是一个吸引眼球的技术宣言,而非精确的技术描述。一个更准确的说法可能是:“在人类顶层设计、严密测试框架和验证流程全程约束下,由 AI 智能体主导实现(implementation)的系统软件”。这个标签的“误导性”在于,它可能让外界高估了 AI 当前在创造性设计和质量保障方面的自主性,而低估了人类在 设定方向、搭建平台和定义标准 方面不可替代的作用。
本文的真正价值不在于展示 AI“完全自主”,而在于展示了一种新型的人机协同范式——人类专注于高层次的架构、规范和验证科学,而将繁重的代码实现与迭代优化委托给 AI 执行。这无疑是革命性的进步,但绝非替代。
一、研究背景:为什么需要 AI 生成系统软件?
深度学习框架如 TensorFlow、PyTorch 已经发展成为横跨语言前端、运行时系统、设备库、编译器和内核的庞大软件栈。传统上,构建和演化这类系统需要庞大团队和漫长开发周期。
随着基于代码训练的大型语言模型和工具使用型智能体的发展,现在可以实现一种新工作流:模型提出代码修改建议,并借助外部工具进行验证。
一个自然的系统问题是:编码智能体能否生成一个跨越多层抽象边界、从 Python/JavaScript API 一直到 C++ 运行时和 CUDA 内存管理的深度学习系统软件栈,并通过构建和测试来验证其正确性?
VibeTensor 正是为了实证回答这个问题而诞生的开源技术成果。
二、VibeTensor 是什么?
VibeTensor 是一个开源的深度学习运行时系统,采用 Apache 2.0 许可发布。它的核心特性包括:
- PyTorch 风格的即时执行:操作符调用立即执行,自动微分追踪动态计算图。
- 多语言前端:提供 Python(基于 nanobind)和实验性 Node.js/TypeScript 接口。
- 自主研发的核心组件:不仅是“薄绑定”,它拥有自己的张量/存储系统、模式精简的调度器、反向模式自动微分引擎、CUDA 运行时、流顺序缓存分配器。
- 可扩展性:支持 DLPack 零拷贝交换、稳定的 C 插件 ABI、以及集成 Triton 和 CUTLASS 等自定义内核的钩子。
关键标签:“完全生成”。这里的“完全”指的是代码来源:实现变更由智能体以 diff 形式提出并应用;验证依赖于智能体工作流执行的构建、测试和差分检查,无需人工逐项审查。
三、系统架构详解
VibeTensor 的架构自上而下分为:前端层、共享核心运行时、CUDA 子系统,以及可选的内核与插件层。下图清晰地展示了其整体架构:
图 1 | VIBETENSOR 的高层架构:基于 nanobind 的 Python 前端和基于 N-API 的 Node.js 前端,将任务分发至共享的 C++ 核心层,该核心层实现了张量 / 存储、调度、自动微分、索引、随机数生成(RNG)以及 CUDA 运行时组件(流 / 事件 / 图和缓存分配器);可选的内核库和动态加载插件可扩展算子集合。
3.1 前端层:Python 与 Node.js
3.2 核心运行时:张量、存储与视图
C++ 核心运行时定义了 TensorImpl 作为引用计数存储的视图,支持非连续视图和步幅(stride)语义,并维护原子版本计数器以支持原地操作的安全性检查。此外,系统还提供了 TensorIterator 子系统,用于自动计算逐元素操作和规约操作的迭代形状与步幅元数据。
3.3 调度器:精简模式的操作符注册
VibeTensor 实现了一个精简模式的调度器,用于将完全限定的操作符名称映射到具体的内核实现。该调度器支持 CPU 和 CUDA 分发键、装箱与非装箱调用路径,以及包装层。
调度器会发布不可变的、针对每个操作符的快照状态,其中编码了基础内核和包装器的存在性信息,从而在系统稳态下实现无锁的调用路径。
3.4 自动微分引擎
自动微分引擎实现为一个基于 Node/Edge 图对象和每张量 AutogradMeta 的反向模式引擎。在反向传播过程中,引擎负责维护依赖计数、输入缓冲区和就绪队列。
针对 CUDA 张量,引擎会记录并等待 CUDA 事件,以确保跨流的梯度流能够正确同步。
3.5 CUDA 子系统:流、分配器与图
- 流与事件:提供 C++ 包装器。
- 缓存分配器:具备流顺序语义,并集成了诊断功能,使得内存行为在测试和调试过程中可被观察。
- CUDA 图:支持操作的捕获与重放,并与分配器的“图池”集成,以管理捕获和重放期间的内存生命周期。

图 2 | Blackwell 架构下的环形全归约内核架构图。这是一个为示例插件提供的、针对 NVIDIA Blackwell SM100/SM103 架构优化的、基于 warp 专用化的环形全归约(ring allreduce)内核的宏观与微观视图。该插件为“尽力而为”性质,其可用性取决于工具链和硬件支持,并非 VibeTensor 核心运行时的必需组件;其定位是参考实现,而非 NCCL 的替代方案。宏观层面通过 P2P 通信和基于标志的同步实现多 GPU 间的环形数据分发;微观层面则将 GPU 内的 warp(线程束)进行分工:warp 0 负责控制与数据暂存,warp 2-5 专注计算(RS 归约与 AG 聚合),形成流水线化执行。此插件是 VibeTensor “可扩展性”设计原则的典型体现,但需 CUDA 13+ 及 sm103a 工具链支持才能启用,也反映出 AI 生成系统在硬件适配性上的针对性与局限性。
四、核心创新:AI 辅助开发方法论
VibeTensor 的开发大约耗时两个月,其过程是在人类工程师的高层指导下,由 LLM 驱动的编码智能体完成的。人类主要提供高层需求和优先级设定,但不进行逐行代码差异的审查或手动运行验证命令。
取而代之的是,智能体负责执行构建、运行测试和差分检查,只有在通过这些检查后,相应的代码更改才会被保留。
4.1 工作流与防护栏
开发工作流反复应用一个简单的循环:指定有范围的目标和不变量 → 生成并应用代码更改 → 编译并运行针对性测试 → 随着子系统组合扩大验证范围。
其中,两个防护栏尤为重要:
1. 测试即规约:包括 CTest/pytest 测试套件,以及针对性的多步回归测试。
2. 差分检查:对照参考实现(如 PyTorch 的选定操作符、DLPack 往返、内核间比较)进行验证。
团队还采用了多智能体代码审查机制,以捕捉单个智能体可能忽略的边界情况、冗余抽象或不安全模式。
4.2 案例研究:跨层调试
在智能体生成的系统软件中,一个反复出现的模式是:“单次”操作的正确性,并不意味着在训练循环中重复组合时的稳定性。
一个注意力内核移植案例的开发日志,说明了可能出现的问题范围:启动参数限制、数值细微差别以及运行时风险。
下表汇总了从开发记录中选取的、AI 辅助开发过程中观察到的典型调试案例,包含“症状”、“根本原因”和“修复方案 / 回归防护措施”三列:
| 症状 | 根本原因 | 修复 / 回归防护 |
| :— | :— | :— |
| 内核崩溃或段错误 | 超出内核参数限制 | 简化调用接口;添加启动配置测试 |
| 共享内存编译失败 | 请求超过工具链上限的静态共享内存 | 自适应分片/自动调优;编译时防护 |
| 与参考值存在较大数值误差 | 注意力中稳定化数学错误 | 使用 flash-attention 风格公式;与 PyTorch 进行差分测试 |
| 多步后训练损失发散 | 梯度累积期间重用未初始化的 GPU 缓冲区 | 初始化梯度缓冲区;添加多步训练回归测试 |
该表反映了 AI 生成系统在“局部正确性≠全局稳定性”上的典型缺陷:
* AI 易于满足单步算子的正确性,却难以预判多步组合的风险。例如,“训练多步后损失发散”源于 GPU 缓冲区未初始化,需要人类引导添加多步训练回归测试。
* “共享内存编译失败”则是因为 AI 未考虑工具链对静态共享内存(如 48KB)的上限,需要通过自适应分块与编译时检查来优化。
这些案例也印证了论文所强调的 “测试作为规格说明书”的必要性——人工补充的回归防护是弥补 AI 全局视角不足的关键。
五、评估结果:性能与功能验证
5.1 代码库规模
VibeTensor 代码库规模如下表所示(排除了供应商提供的第三方依赖):

表 2 | VibeTensor 代码库规模汇总表(不含供应商提供的第三方代码)。“核心(Core)”指 C++ 运行时中的 include/ 和 src/ 目录。表格统计了各组件(核心 C++/CUDA 运行时、插件、Python 层、Node.js/TS 层、测试代码、AI 内核套件)的源文件数量与非空代码行数(LOC)。
该表直观体现了 AI 生成系统的“跨层完整性”:
* 核心 C++/CUDA 运行时以 6.3 万余行代码为基础,支撑起多语言前端与扩展插件。
* 测试代码(C++ + Python 共 5.4 万行)占比近 30%,呼应了论文“可测试性优先”的设计原则——人工编写的测试虽增加了代码量,却为 AI 生成代码的正确性提供了关键保障。
* AI 内核套件以 5.5 万行代码覆盖了 Triton/CuTeDSL 实现,也证明了 AI 在特定算子开发上的规模化输出能力。

图 3 | AI 生成的配套内核套件的宏观视图。多个后端(Triton、CuTeDSL 和 PyTorch 参考路径)共享一个通用的 Python 面向接口和基准测试工具集。其中,vibe.kernels.triton(主流且受带宽限制)针对带宽与融合优化;vibe.kernels.cutedsl(专用且复杂)聚焦高性能场景;vibe.kernels.torch 则作为参考路径,涵盖正则化(RMSNorm、LayerNorm)、旋转嵌入、损失函数(交叉熵、Softmax)、GEMM 尾处理等算子。该内核套件是 VibeTensor 验证“AI 生成系统可复用性”的关键组件。套件内置了与 PyTorch 的差分测试工具,用于对比算子数值精度与性能,同时提供基于 DLPack 的 VibeTensor 原生封装,使部分内核无需依赖 PyTorch 即可运行,既保障了兼容性,又凸显了 AI 生成系统在多后端协同与基准验证上的设计巧思。
5.2 内核级微基准测试
5.2 内核性能分析
VibeTensor 附带了一个 AI 生成的内核套件,为选定操作符提供了 Triton 和 CuTeDSL 实现。下表展示了在 H100 PCIe GPU 上测得的部分微基准测试结果:

表 3 | H100 PCIe 上的微基准测试结果。其中“Torch”指 PyTorch 原生实现(如 torch.nn.functional.layer_norm),“Best”指该行中非 Torch 后端(Triton/CuTeDSL)测得的最低延迟。这些结果仅表征独立算子的性能,而非端到端模型性能。
该表揭示了 AI 生成内核在性能上的差异性:
- 显著加速:部分算子(如 RMSNorm、旋转嵌入)通过适配 Triton/CuTeDSL 优化,获得了 6.3 倍和 5.33 倍的显著加速。
- 有限优化:LayerNorm 仅实现 1.06 倍加速,表明 AI 对简单算子的优化空间挖掘有限。
- 场景依赖:注意力算子在特定配置(批大小 32,序列长度 2048)下优于 PyTorch 的 SDPA。然而,对于小批次 GQA 预填充工作负载,相同内核可能落后于 FlashAttention。这说明 AI 生成内核的性能高度依赖于硬件适配与具体任务场景,尚未实现全场景最优。
5.3 端到端训练验证
为验证 VibeTensor 能否组合成完整的训练循环,研究团队运行了三个小型工作负载:序列反转任务、CIFAR-10 ViT 和 miniGPT 风格的语言模型。训练曲线表明,VibeTensor 能够复现 PyTorch 基线的定性收敛行为。
下表总结了平均计时结果,显示 VibeTensor 目前慢于 PyTorch,这与其原型状态和已知的串行化瓶颈一致:

表 4 | 端到端训练工作负载与平均时间。记录了不同工作负载在 H100 和 Blackwell GPU 上,PyTorch 与 VibeTensor 的耗时对比及性能衰减倍数。
上表印证了 VibeTensor “功能验证优先,性能优化滞后” 的定位。尽管所有任务均能收敛,但 VibeTensor 的耗时为 PyTorch 的 1.7 至 6.2 倍,其中 CIFAR-10 ViT 在 H100 上的衰减最为显著(5.76 倍)。性能差距源于论文中提及的“弗兰肯斯坦效应”——自动微分引擎的全局锁导致了串行化瓶颈,虽然保障了正确性,却严重拖累了端到端的训练效率。 这也说明,AI 生成的系统虽能完成完整训练链路,但仍需人类介入进行全局架构优化以消除性能短板。
5.4 多 GPU 扩展性
团队还在 Blackwell GPU 上,使用实验性的 Fabric 子系统和环形全归约后端运行了一个小型多 GPU 基准测试,以展示端到端的跨设备同步和数据分发能力:

表 5 | 基于 VibeTensor Fabric 的 Blackwell 多 GPU 训练基准测试。采用弱扩展策略(单 GPU 批大小固定),统计了不同 GPU 数量下的平均迭代时间与吞吐量。
该表体现了 VibeTensor 多 GPU 能力的“实验性”:随着 GPU 数量从 1 增至 4,吞吐量从 2.19×10⁶ 样本/秒提升至 3.69×10⁶,证明了 Fabric 子系统的跨设备同步与数据分发逻辑是有效的。 但需注意,该测试依赖于 Blackwell 专属的 CUTLASS 环形全归约插件,且 Fabric 并非完整的分布式框架,仅支持基础操作。因此,这些结果仅验证了多 GPU 扩展的可行性,尚未达到生产级分布式训练的性能与功能标准。
六、局限性、教训与“弗兰肯斯坦”效应
VibeTensor 是一个研究原型,具有显著的局限性。
其中最引人深思的是 “弗兰肯斯坦”组合效应:在 AI 生成的系统中,一个反复出现的故障模式是,局部设计合理的组件,可能组合成一个全局次优的系统架构。
在 VibeTensor 中,一个以正确性为优先的自动微分和调度设计,可能引入串行化点,导致原本高效的后端内核因资源不足而性能下降。一个具体例子是用于防止并发多线程反向传播冲突的“非可重入全局反向门”。它虽然简化了安全性保障,但也可能串行化本可独立执行的反向传播任务。
下图说明了这个瓶颈的形成过程:
1. 引擎中的全局门汇集所有并发的反向传播调用。
2. 主机端的串行化和同步传播到设备端。
3. 最终,原本高效的后端内核因任务不足而观察到利用率降低。

图 6 | “弗兰肯斯坦效应”示例:高开销的前端/引擎层导致执行串行化,进而使高性能后端“饥饿”。这揭示了“优先保障正确性”的生成逻辑,在未早期编码全局性能目标时的局限性。
“弗兰肯斯坦效应”是 AI 生成系统的典型缺陷——局部合理的组件组合后可能产生全局次优问题。这揭示了 AI 生成系统的核心挑战:AI 擅长按局部约束(如正确性)设计组件,但难以权衡全局性能目标,需要人类在早期介入全局架构设计,才能避免“局部正确、全局低效”的陷阱。
6.1 其他局限性
- 不完整的 API 与性能:VibeTensor 不追求完整的 PyTorch 兼容性,许多操作符、数据类型和分布式功能缺失或不完整。
- 生成代码特有的验证空白:智能体生成的代码可能通过本地单元测试,但在重复组合下,可能因有状态交互、未初始化缓冲区或意外的全局同步而失败。
- 维护、安全与保障:机器生成的代码可能包含不一致的约定、冗余抽象以及细微的正确性或安全问题。因此,研究团队不建议将其用于生产环境。
七、相关研究工作
VibeTensor 建立在众多前人工作之上:
* 即时执行与动态图:Chainer、DyNet,尤其是 PyTorch 普及了 define-by-run 的编程模型。
* 内核编写系统:如 Triton 和 CUDA 模板库 CUTLASS,降低了编写自定义高性能内核的门槛。
* AI 辅助软件工程:基于代码的大型语言模型和工具使用型智能体,已能通过迭代提出代码编辑并借助工具验证来构建软件制品。SWE-bench 等基准测试评估了 AI 在真实代码仓库中解决问题的能力。
与这些工作不同,VibeTensor 的成果横跨了从高级软件层直至底层的 CUDA 内存管理,其开源发布旨在作为研究 AI 辅助工作流如何应用于大规模系统软件开发的基石。
八、结论与展望
VibeTensor 证明,AI 辅助工作流能够生成一个跨越 Python/Node.js 前端和 C++20/CUDA 核心的非平凡、支持 GPU 的深度学习系统软件栈,并通过完整的构建和测试流程进行验证。
这项工作的意义不仅在于生成了一个可运行的框架,更在于为研究系统级软件生成提供了可复现的案例:什么可以快速生成,会出现哪些类型的错误和瓶颈,以及什么样的测试和架构脚手架能最有效地约束搜索空间。
从生态系统的角度来看,发布此类制品可以通过提供具体、可修改的运行时和内核组件实现,以及支持基于源代码和测试对 AI 辅助工程方法进行严格讨论,从而使更广泛的 GPU 软件社区受益。
VibeTensor 开源项目地址:https://github.com/NVlabs/VibeTensor
AI 是否会取代程序员?这个问题或许还为时过早。但 VibeTensor 清晰地展示了一个未来:AI 将成为软件工程中不可或缺的协作者,能够承担繁重的、模式化的系统构建任务,而人类工程师则更专注于高层设计、边界条件定义和创造性问题解决。
当 AI 能够生成整个深度学习框架时,软件开发的形态、团队分工乃至编程语言本身,都可能迎来新一轮的演化。而这一切,才刚刚开始。
关注“鲸栖”小程序,掌握最新AI资讯
本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/20061
