1. 光学邻近效应校正(OPC)技术演进背景
在半导体制造的光刻工艺中,光学邻近效应校正(Optical Proximity Correction, OPC)是一项至关重要的分辨率增强技术。随着制程节点不断微缩至65nm以下,传统的光学模型面临着前所未有的挑战。当特征尺寸接近甚至小于曝光波长时,光的衍射效应会导致图案边缘出现严重的失真现象。这种现象在业界被称为"光学邻近效应"(Optical Proximity Effect),表现为线宽偏差、转角圆化和线端缩短等典型问题。
在90nm和65nm技术节点,业界普遍采用稀疏OPC模型(Sparse OPC Model)进行校正。这种模型的核心思想是将待校正的多边形边缘切割成若干片段(Fragment),在每个片段上设置评估点(Site),仅在这些离散点上计算光强分布。如图1所示,这种"按需计算"的方式大幅减少了仿真工作量,在当时的计算资源条件下实现了可行的OPC方案。
关键提示:稀疏模型中的Site定义直接影响校正效果。Site通常垂直于片段边缘,其密度和位置需要根据设计规则精心配置。不合理的Site排布可能导致关键区域的光强评估遗漏。
2. 稀疏模型与网格模型的本质差异
2.1 稀疏OPC模型的工作原理
稀疏模型采用"片段-站点"(Fragment-Site)架构,其工作流程可分为四个步骤:
- 边缘分割:根据设计规则将多边形边缘切割成适当长度的片段
- 站点布置:在每个片段上设置一个或多个评估站点
- 光强采样:仅在站点坐标处计算光强分布
- 边缘位移:根据光强与阈值的偏差调整边缘位置
这种选择性采样的方式虽然高效,但存在固有局限。如图2所示,当关键特征(如转角处的颈缩)恰好位于两个Site之间时,模型可能完全无法捕捉到该位置的失真。更棘手的是,在工艺窗口的极端条件下(如离焦或剂量偏差),这种遗漏会被进一步放大。
2.2 网格模型的优势与挑战
网格模型(Grid-based Model)采用完全不同的计算范式:
- 全域覆盖:在整个芯片区域建立均匀的计算网格
- 并行计算:每个网格点独立进行光强计算
- 连续评估:通过插值获得任意位置的光强分布
这种"地毯式"的计算方式虽然增加了仿真负荷,但带来了三个关键优势:
- 无遗漏检测:确保所有潜在的问题区域都被覆盖
- 精度一致:整个芯片区域的评估精度均匀
- 硬件友好:规则网格结构非常适合GPU加速
表1对比了两种模型的关键特性:
| 特性 | 稀疏模型 | 网格模型 |
|---|---|---|
| 计算范围 | 选择性采样 | 全域覆盖 |
| 精度一致性 | 依赖Site分布 | 全局一致 |
| 计算复杂度 | O(n)~O(nlogn) | O(n²) |
| 硬件加速潜力 | 有限 | 极高 |
| 2D特征处理能力 | 较弱 | 优秀 |
| 内存占用 | 较低 | 较高 |
3. 稀疏模型到网格模型的转换方法论
3.1 转换的核心挑战
模型转换绝非简单的数据格式转换,需要解决三个关键问题:
- 精度匹配:确保网格模型在关键尺寸(CD)和边缘放置误差(EPE)上的预测与原始稀疏模型一致
- 行为一致性:特别是在工艺窗口边缘条件下(如离焦、剂量变化)的响应特性
- 计算效率:维持合理的运行时性能
传统方法仅依靠晶圆测量数据(Wafer CD)进行网格模型校准,往往难以达到理想的匹配效果。这是因为:
- 测量数据通常集中在1D特征(线条/间距)
- 2D区域(转角、线端)的测量数据稀疏且噪声大
- 无法完整反映原始模型在所有工艺条件下的行为
3.2 基于ContourCal的混合校准法
我们提出了一种创新的混合校准流程(图3),其核心是引入稀疏模型的仿真轮廓作为额外的校准基准。这种方法通过Calibre的ContourCal功能实现,具体步骤包括:
基准轮廓提取:
- 使用原始稀疏模型仿真典型测试图形
- 提取在标称条件和工艺窗口边缘条件下的仿真轮廓
- 特别关注2D特征区域和敏感结构
校准权重分配:
- 为晶圆测量数据分配基础权重(通常50-70%)
- 为轮廓数据分配补充权重(30-50%)
- 对关键区域(如线端)可局部增加权重
迭代优化:
- 首轮优化聚焦1D特征的CD匹配
- 次轮优化侧重2D区域的轮廓吻合度
- 最终全局微调实现平衡
经验分享:我们发现将轮廓数据的权重控制在40%左右,既能保证2D特征的匹配精度,又不会过度影响1D特征的校准结果。对于特别复杂的2D结构,可以采用局部加权策略。
4. 转换流程的实操细节
4.1 测试图形设计
精心设计的测试图形是成功转换的基础。我们建议包含以下要素:
- 1D结构:不同pitch的线条/间距组合(密集到孤立)
- 2D结构:转角(90°、45°)、T型连接、线端重叠
- 工艺敏感结构:已知对工艺变化敏感的特殊图形
- 实际电路片段:代表产品中真实存在的复杂模式
图4展示了一个典型的测试图形布局,其中红色层为稀疏模型的仿真轮廓,蓝色框标出了用于轮廓校准的关键区域。
4.2 校准参数配置
在Calibre OPCtools中,关键的配置参数包括:
# 基础校准参数 MODEL CALIBRATION { DATA_TYPE = CD_AND_CONTOUR WAFER_WEIGHT = 60 CONTOUR_WEIGHT = 40 # 轮廓匹配参数 CONTOUR_MATCH { TOLERANCE = 2.5nm SAMPLE_DENSITY = 5nm CRITICAL_AREA_BOOST = 1.5 } # 优化算法参数 OPTIMIZER { MAX_ITERATIONS = 50 DELTA_THRESHOLD = 0.1nm } }4.3 结果验证方法
转换后的模型需要通过三重验证:
轮廓比对:
- 重叠稀疏模型与网格模型的仿真轮廓
- 量化最大偏差和RMS误差
- 特别关注2D区域的吻合度
工艺窗口验证:
- 在离焦(±100nm)和剂量变化(±5%)条件下
- 检查边缘放置误差的一致性
- 验证热点(Hotspot)的预测相关性
实际图形验证:
- 选择代表产品实际布局的复杂图形
- 比较两种模型的校正结果
- 必要时进行硅验证
表2展示了一个典型的验证结果示例:
| 评估指标 | 标称条件 | 离焦+100nm | 剂量+5% |
|---|---|---|---|
| 1D CD平均偏差 | 0.8nm | 1.2nm | 1.0nm |
| 2D轮廓RMS误差 | 2.1nm | 2.8nm | 2.5nm |
| 热点预测一致率 | 98% | 95% | 96% |
5. 常见问题与解决方案
5.1 模型匹配偏差过大
现象:在特定结构上出现超过5nm的系统性偏差排查步骤:
- 检查原始稀疏模型在这些结构的Site分布密度
- 确认测试图形是否包含足够的同类结构样本
- 调整局部权重因子,增强敏感区域的约束
解决方案:
- 在问题区域添加专项测试图形
- 使用区域特异性权重提升:
AREA_WEIGHT { COORDINATES = (x1,y1,x2,y2) WAFER_WEIGHT_FACTOR = 1.2 CONTOUR_WEIGHT_FACTOR = 1.5 }
5.2 工艺窗口行为不一致
现象:在离焦条件下偏差显著增大可能原因:
- 原始稀疏模型使用了特殊的工艺窗口补偿算法
- 校准数据缺乏足够的工艺窗口信息
改进措施:
- 在模型校准中包含多组工艺窗口条件下的轮廓数据
- 启用高阶光学参数(如Zernike系数)的联合优化
- 增加对离焦敏感结构的权重
5.3 计算时间过长
优化策略:
- 采用分级校准:先低精度网格快速收敛,再逐步细化
- 利用GPU加速:启用Calibre的GPU加速选项
- 优化测试图形:去除冗余结构,保持最小充分集
# 分级校准配置 MULTI_GRID { INITIAL_GRID = 10nm FINAL_GRID = 5nm INTERMEDIATE_STEPS = 2 } # GPU加速设置 ACCELERATION { GPU_ENABLE = YES GPU_MEMORY_OPTIMIZE = HIGH }6. 实际应用中的经验总结
经过多个技术节点的实践验证,我们总结了以下关键经验:
2D特征处理:
- 转角区域需要至少3倍于1D结构的采样密度
- 线端重叠结构建议使用专门的测试图形
- 对于重复单元(如SRAM),可以整体作为一个校准单元
权重分配技巧:
- 开始阶段可以给予轮廓数据较高权重(50%)
- 随着迭代进行,逐步过渡到以晶圆数据为主(70%)
- 对已知问题区域保持固定的额外权重(+20%)
模型验证策略:
- 建立独立的验证图形集(不参与校准)
- 开发自动化比对脚本,量化评估差异
- 对关键产品图形进行全流程OPC结果比对
性能平衡点:
- 对于65-45nm节点,5nm网格通常达到最佳性价比
- 更先进节点可能需要3nm甚至更细的网格
- 可以针对不同层级(如金属与接触)采用不同网格密度
在转换过程中最常遇到的陷阱是过度追求局部匹配而牺牲全局一致性。有次我们为了完美匹配一个复杂转角结构,将局部权重提高到正常值的3倍,结果导致模型在其他区域的预测能力明显下降。后来我们采用分区域渐进优化的策略,先保证全局匹配,再逐步微调局部区域,取得了更好的整体效果。
另一个实用技巧是利用模型差异热图(图5)来指导优化方向。通过可视化展示两种模型在全芯片范围内的预测差异,可以快速识别需要重点关注的区域,避免盲目调整。这种差异分析已经成为我们模型转换流程的标准步骤。