目的 本研究旨在配準胸主動脈血管內修復術(thoracic endovascular aortic repair,TEVAR)術中X線與術前CT圖像,為TEVAR支架植入提供精確安全的導航。然而,現(xiàn)有配準算法存在無法有效彌合投影CT圖像生成的數(shù)字重建影像(digitally reconstructed radiography,DRR)與X線圖像之間的域間差異和難以獲得圖像分割標簽的問題。因此,需要提出新的方法來改善這一問題。方法 本文提出了一種新的配準框架,該框架結合了基于生成對抗網絡(generative adversarial network,GAN)的域自適應網絡和基于Transformer的配準網絡。基于GAN的域自適應網絡將X線圖像的風格遷移到DRR圖像上,使兩者在圖像風格上更接近。基于Transformer的配準網絡采用CNN與跨模態(tài)變換器(crossmodality transformer,CMT)相結合的模式,直接配準X線與CT圖像,無需進行圖像分割。結果 本文在208對標定的TEVAR術中X線與CT圖像對上對新的配準方法進行了驗證。與其他域適應方法相比,本文所采用的CycleGAN網絡作為風格轉換模塊,有效減小了DRR圖像與X線圖像之間的域間差異。消融實驗結果進一步證實,配準網絡中的全局局部感知模塊(globallocal perception module,GLPM)對提高配準精度具有明顯作用,而空間縮減(spatial reduction,SR)則有效縮短了配準時間。通過對比現(xiàn)有方法和本文方法在真實患者X線與CT圖像對上的配準效果,本文的方法在配準精度和成功率方面均表現(xiàn)出最佳性能。結論 本文提出的新的X線與CT圖像配準方法有效克服了現(xiàn)有方法存在的域間差異以及難以獲得分割標簽的問題。
|