最近,AI辅助芯片设计的话题越来越热。
从自然语言生成RTL,到自动补全时序约束,大模型在芯片开发前端确实开始发挥作用了。有些团队已经在用它生成模块级代码,速度确实快了不少。
但问题也就从这里开始。
大模型生成的代码,你没办法知道它的推理过程。它不会告诉你为什么这样写,哪些情况它没有考虑到,出了问题也不会留下可追溯的设计意图。这个黑盒特性,在芯片开发里是个真实存在的风险,不是理论上的担忧。
一个普通软件的bug,上线后还能热更新修复。芯片不行。流片之后发现功能错误,整个tape-out重来,几百万就没了,周期再拉长半年。所以AI生成的每一行RTL,都必须在硅前被穷尽地怀疑过一遍。