人民網
人民網>>教育

新方法顯著提升三維形貌重建精度

2025年07月03日08:26 | 來源:科技日報222
小字號

原標題:新方法顯著提升三維形貌重建精度

記者6月26日從山西大學獲悉,該校大數據科學與產業研究院教授錢宇華帶領的演化數據智能團隊在通用三維形貌重建領域取得重要科學發現,相關論文日前發表於國際人工智能領域頂級期刊《IEEE模式分析與機器智能匯刊》。

論文第一作者、山西大學大數據科學與產業研究院副教授閆濤介紹,團隊首次從理論上証明了三維形貌重建多視圖融合類方法的一種泛化誤差界。一般認為,多視圖融合性能依賴於多視圖互補性,而團隊此次研究發現,跨尺度多視圖融合類任務性能依賴於多視圖一致性,多視圖之間的一致性越大,重建泛化誤差界越小。

隨著智能制造、虛擬現實等技術的發展,宏觀/微觀跨尺度三維形貌重建面臨三大挑戰:一是成像特征差異大,宏觀場景與微觀場景難以統一建模﹔二是現有深度學習方法泛化能力不足,難以適應復雜實際場景﹔三是傳統方法在序列圖像關聯特征提取方面存在缺陷,時空信息利用不充分制約了精度提升。

針對上述挑戰,本研究創新性地提出了序列關聯引導的通用三維形貌重建框架SAS,揭示了多視圖一致性對提升重建精度的關鍵作用,理論上獲得了一種緊的泛化誤差界,為宏觀/微觀跨尺度重建提供了理論保障。在方法方面,該研究通過構建序列關聯機制,實現了宏觀場景語義信息與微觀場景細節特征的有機融合,突破了傳統方法在跨尺度重建中的局限性。同時,該研究還顯著提升了宏觀場景的重建質量,更將三維重建精度推進至亞微米級光學成像極限,為精密制造、生物醫學等領域的微觀測量提供了新技術手段。

研究在多個宏觀與微觀數據場景中進行了實驗驗証,結果表明SAS框架不僅優於先進的模型設計類聚焦形貌恢復(SFF)方法,而且在泛化性方面優於主流的深度學習類SFF方法,特別是在開放世界的宏觀/微觀場景中表現出卓越適應性。(記者韓榮)

(責編:郝孟佳、李昉)

分享讓更多人看到

推薦閱讀
返回頂部