合聚咖

合聚咖

三篇论文解决「语义分割的优化和评估」难题!鲁汶/清华/牛津等联合提出全新方法

admin

现有语义分割技术在评估指标与损失函数设计上有缺陷,鲁汶大学、清华与牛津等联合提出全新方法以优化与评估。研究人员针对相关缺陷,设计了全新的损失函数与评估指标,用于多个应用场景,展现出更高准确性和校准性。

为解决原有损失函数不兼容软标签问题,研究人员提出JDT损失,包括了Jaccard Metric损失、Dice Semimetric损失与Compatible Tversky损失。JDT损失在硬标签下等价于原有损失函数,但能兼容软标签,适用于标签平滑、知识蒸馏、半监督学习与多标注员等场景,显著提升模型准确性和校准性。

此外,研究引入细粒度评价指标,对大尺寸物体的偏见较小,提供丰富统计信息,支持模型与数据集审计。通过广泛基准研究,强调不应仅基于单一指标评估,并发现神经网络结构与JDT损失对优化细粒度指标的重要性。

研究证明,结合JDT损失与像素级损失函数(如Cross Entropy损失、Focal损失)在语义分割上知识蒸馏、半监督学习与多标注员中取得SOTA成果。实验结果显示,与基准相比,使用JDT损失能有效提升模型准确性,引入软标签后,进一步提高准确性和校准性。