组合优化中不可行性感知的大型语言模型
大型语言模型(LLMs)在NP难组合优化问题中的应用日益受到关注,但现有方法多聚焦于可行实例的求解生成,未能明确处理不可行性检测问题。本研究提出一个融合可验证数据集构建、监督微调与LLM辅助下游搜索的不可行性感知框架。针对子图嵌入问题,该团队创新性地提出具有数学可证性的零阶段不可行性筛查方案,配合新型数学规划公式,实现了可扩展的训练实例构建——这些实例或带有结构化证书被标记为可行,或经严格验证被判定为不可行。通过该精确优化流程生成的训练数据表明,一个80亿参数的LLM经微调后可同步执行解生成与不可行性检测。研究团队进一步将LLM输出作为下游局部搜索的预热起点,为加速优化提供了实用方案(即使LLM输出不完美)。实验数据显示:经微调的模型整体准确率较GPT-5.2提升最高达30%;同时,在下游局部搜索中,LLM引导的预热方案相比从零开始搜索可实现最高2倍的加速效果。

