您當前的位置:首頁 > 收藏

醫學影象重建系列第零章:重建相關的文獻

作者:由 Geraltian 發表于 收藏時間:2022-01-13

前言

醫學成像有許多種類,包括磁共振(Magnetic Resonance Imaging,MRI)、CT(Computed Tomography,計算機斷層成像)、PET(Positron Emission Tomography,正電子發射斷層成像 )。。。這些成像方式各不相同,但有一個原則是一致的,它們都是透過一定方式在人體內產生特異訊號(比如在MRI裡是氫原子密度,CT是人體輻射衰減,PET是正電子發射。。。),這些訊號是不能直接被人眼識別的,這就需要一定的計算,將這些訊號轉換為人眼可以識別的影象。這個計算過程,就被稱為醫學影象重建(medical image reconstruction,MIR)。

這些醫學成像的基本重建方法上個世紀就都解決了,那為什麼醫學影象重建這個領域依然火熱呢?主要就是因為,還有很多有挑戰的重建場景值得繼續研究。比如,低於奈奎斯特取樣的快速核磁共振成像,低劑量CT成像,稀疏視角、小角度CT成像,多模態共成像等。在深度學習的風口上,重建這個領域也迎來了自己的新發展前景。

碩士階段陰差陽錯來做重建這個領域,開始覺得拿深度學習搞一搞完事了,沒想到,越學越發現,重建背後是一個廣闊的世界,重建其實只是資料科學中一個大問題下的一個具體問題。這裡面涉及到最佳化、壓縮感知、深度學習、反問題、泛函分析。。。等等知識。我覺得是非常有意思和有前景的一個領域。

雖然博士階段不會再研究重建了(還有更加有意思和有前景的領域等著我),但是從中學到的很多東西普適性很強,以後一定也會派上用場。回顧碩士階段,我感覺剛入門的時候,對重建領域真是兩眼一抹黑。這個領域不冷不熱,沒有分割那樣人滿為患,但做的人也不少。問題是,我感覺入門的資料特別少,中文資料更是鳳毛麟角,質量也不高。

慶幸的是,我的學習能力還是很強,不斷自己找資料、判斷和學習文獻,終於還是形成了自己的知識體系。我想不如分享一下我對重建的一些經驗。最主要的目的是為實驗室以後做這個領域的人一些參考。同時也是一種分享的慾望吧,畢竟如果以後博士不做這個領域了,碩士階段學習時花費的心血似乎有點浪費,分享一下可能還會對別人有一些啟發。

隨手寫,我也不在意能不能堅持寫完以及質量高不高,作為業餘時間一個小消遣吧。

第零篇先推一下學過的相關文獻,挺多的其實。以下的文獻都是我學習過的,沒自己看過的都不推,所以如果還有重要的文獻漏掉的也很正常,不過我感覺自己還是儘可能找尋了相關文獻。

推薦的入門text

Fessler教授的網站

重建領域的大牛(中的大牛),密歇根大學的Jeffrey A。 Fessler 教授,他個人網站上有一本醫學影象重建的教材,沒寫完,是draft,但是已經基本能看了。這本書是我學重建時感覺最切合的教材,因為本身作者就是這個領域的主要貢獻者,寫的非常深刻(就是很難),學了這本書基本對重建的基礎就打牢了(前提是你讀的下來)。

話說fessler的個人網站排版是真亂啊。裡面還有很多東西,沒事可以看著玩

還有

Michael T。 McCann; Michael Unser,Biomedical Image Reconstruction: From the Foundations to Deep Neural Networks, now, 2019。

Wang, Ge, Yi Zhang, Xiaojing Ye, and Xuanqin Mou。

Machine learning for tomographic imaging

。 IOP Publishing, 2019。

Bertero M, Boccacci P, Ruggiero V。 Inverse Imaging with Poisson Data[M]。 IOP Publishing, Bristol, 2018。

一些基礎知識

對於CT、MRI、PET。。。的物理基礎就不講了,選一本醫學成像教材看看就知道了。不過這類教材講物理原理更多,講重建方法略少。重建的話,我當年學的是曾更生的《醫學影象重建》,講得很好,容易理解。但是那本書裡CT只講了濾波反投影,迭代方法少,但其實理解迭代方法更重要。而且對MRI和PET的介紹太淺顯。要看的話,MRI肯定是梁志培那本;PET的話,Bailey, Dale L。, Michael N。 Maisey, David W。 Townsend, and Peter E。 Valk。

Positron emission tomography

。 Vol。 2。 London: Springer, 2005。 是標準教材,其中有兩章是重建主題的。

不針對特定成像方式,抽象地一般來說,我們用

y

來表示上文提到的透過一定手段得到的人體特異訊號,這裡的

y

一般是一個連續函式(比如代表CT中的sinogram,MRI裡的k空間訊號)文獻裡一般稱

y

是“觀測值”(measurement)。

y

為什麼本身是一個函式呢?因為它其實是一種對映,從人體位置變數對映到訊號變數

而用

x

來表示重建的人體影象(它也是個函式)。那麼,可以用一個數學關係表示成像過程:

y=\mathcal{A}x+e \tag{1}

這裡的

\mathcal{A}

代表特定成像方式的數學表述。比如在CT裡,這個

\mathcal{A}

是Randon投影,在MRI裡是傅立葉變換。總之根據方式不同,這個

\mathcal{A}

可以是不同的描述。

e

就是噪聲了。注意兩點,這裡都是連續函式,因為實際的訊號和人體影象都是連續的。這裡的

e

並不一定就是加性噪聲,比如泊松噪聲的話,這裡就不是

+e

而是泊松變數。

重建是一個訊號處理過程,現在重建都離不開計算機,那麼我們必然要把(1)式離散化。這個離散過程其實影響很大,有不少文章研究,但是我們做重建一般都是直接處理離散過的訊號,所以一般都跳過離散化整個過程。離散化後,(1)式變成:

\mathbf{y}=\mathbf{A}\mathbf{x}+\mathbf{e} \tag{2}

這裡,

\mathbf{x}

\mathbf{y}

都是向量(更一般的,可以是tensor),而

 \mathbf{A}

是一個矩陣。很顯然,這個離散化的成像公式,其實就是一個方程組。

不嚴謹地說,醫學影象重建任務,就是已知

\mathbf{y}

\mathbf{A}

,求解

\mathbf{x}

實際上,在科學裡,還有很多類似的場景,都可以用(1)式來描述,比如地震探測、石油勘探等等。他們都有一個特徵,就是知道“觀測”訊號,我們要從這個觀測訊號去反推出目標的“狀態”。這類問題,叫做 inverse problem。

看上去好像挺簡單的,但是就這麼個東西,研究了五十年還是方興未艾!文獻一大堆。箇中原因需要看inverse problem的專門文獻,下文會列出來一些。這裡提一個比較直觀的理解。正向問題,比如我問你1+1=?,很容易結果是2;但是反過來,我知道2這個結果,我問你它是幾加幾得出來的,顯然這個問題就沒法解了。這就是(2)式難解的【其中一個】原因。另一個【其中一個】原因是噪聲的存在,學過數值分析的人知道,矩陣如果條件數很大,那麼方程微小的誤差會引起巨大的結果偏差。還有很多其他原因,不寫了。

另外,其實稍微展開一下思路就能發現,對於影象處理很多問題,(1)式和(2)式也是成立的。比如去噪,(2)裡的

\mathbf{A}

就是一個單位矩陣;再比如超解析度,(2)裡的

\mathbf{A}

是一個下采樣操作。所以其實重建這個領域很廣大,去噪、去雨、去霧、超分等等都可以算作重建。事實上,這些問題本身就被稱為 image reconstruction。

那麼,醫學影象重建裡和自然影象重建的不同在哪呢,我覺得如果要說不同,一個很重要的不同在於,醫學影象裡有很多物理知識幫助我們建模,所以我們對

\mathbf{A}

的具體形式是知道的,它來自成像裝置(比如CT機器、核磁機器的設定),而對於自然影象處理,很多情況下

\mathbf{A}

我們是不知道的,比如超分辨,並不知道下采樣具體的形式。這一點對於重建方法的選擇其實影響很大!

上面的描述其實並不嚴謹,包括成像過程的推導、離散化等,略去了很多重要的細節。還有,(2)式的形式是在成像方式是線性的條件下才成立的,當然對CT、MRI、PET等常見方式,(2)都是成立的,但總歸還有很多非線性的成像方式,就不是(2)式這麼簡單了。

更加完整、嚴謹的推導請看

【1】Michael T。 McCann; Michael Unser,Biomedical Image Reconstruction: From the Foundations to Deep Neural Networks, now, 2019。

的第一章。

Review & primer

基於深度學習的重建

我認為“深度學習醫學影象重建”這個主題最好的review:

【2】S。 Ravishankar, J。 C。 Ye and J。 A。 Fessler, “Image Reconstruction: From Sparsity to Data-Adaptive Methods and Machine Learning,” in

Proceedings of the IEEE

, vol。 108, no。 1, pp。 86-109, Jan。 2020, doi: 10。1109/JPROC。2019。2936204。

作者 Jong Chul Ye 和 Jeffrey A. Fessler 都是重建領域的的大牛,特別是fessler,google一下就知道了。這兩位的名字還會在本系列裡多次出現。

這篇文章最大亮點就是總結重建的整個發展過程。事實上我就是根據本文的劃分來構建我的知識體系的。

醫學影象重建經歷了四個大的階段,每個階段都有一種佔據主流的方法:

第一個階段是anaytical methods,就是濾波反投影(FBP)、傅立葉變換(在MRI中)這類從數學推匯出的直接法,其特點是簡單、快速,但是對噪聲等問題基本沒轍;

第二個階段是iterative reconstruction methods,基於迭代演算法進行重建。這個階段東西就太多了,之後的系列文會細講,簡單說就是這個階段,是把重建問題轉化為一個如下的最佳化問題:

\hat{\boldsymbol{x}}=\underset{\boldsymbol{x}}{\arg \min } f(\boldsymbol{x})+\beta R(\boldsymbol{x}) \tag{*}

x

就是重建影象,希望找到一個能最小化

f(\boldsymbol{x})+\beta R(\boldsymbol{x})

x

作為最終解

\hat{x}

。這裡的

f(\boldsymbol{x})

是一個data fidelity項,我看有人譯為資料保真項的,這一項是保證重建影象經過成像後和

y

儘可能相近。但是隻有這一項是不夠的,因為很多時候,存在無窮多的

x

可以讓這項為0,何況實際的

y

還存在噪聲。所以需要有一個regularization項(翻譯成正則項,可能就熟悉了,因為深度學習裡也有一個正則項)來限制

x

,也就是

\beta R(\boldsymbol{x})

,這裡的

\beta

是一個平衡係數(別看這只是一個係數,實際上,調這個

\beta

本身就是一個大難題,有專門的文章研究怎麼調

\beta

更好。。。)

怎麼設計這個

R(\boldsymbol{x})

,就是重建的核心問題。

與其說這是一門技術,不如說這是一門藝術

。對這個問題,有海量的文章出來,構成了重建第二個發展階段。之所以說這個階段是iterative reconstruction methods,是因為21世紀前十年,很多設計的

R(\boldsymbol{x})

是一個凸函式,比如最簡單的

|x|

|x|^2

,複雜一些的高斯函式、差分函式等。這些情況下,這個最佳化問題可以用迭代最佳化演算法解,比如次梯度下降、近似梯度點下降、ADMM等。

很容易想到,能不能用更復雜的函式來替代

R(\boldsymbol{x})

呢,比如非凸函式,甚至神經網路?答案是顯然的,事實上,可以說,設計

R(\boldsymbol{x})

本身就是推動重建發展的一個動力。在下面的第三階段、第四階段,上述最佳化問題這個正規化依然適用,甚至可以說,第三階段、第四階段本身就是想用更加先進的計算方法(壓縮感知、深度學習)來解這個問題才產生的。

下面這篇文章可以帶你領略設計

R(\boldsymbol{x})

這門高超的藝術。不過要提醒一下,它是Acta Numerica的文章,難度巨大,後文還會提到另一篇同期刊的文章:

Benning M, Burger M。 Modern regularization methods for inverse problems[J]。 Acta Numerica, 2018, 27: 1-111。

(*)這種形式,叫做變分模型,(Variational Model)。還說一點,其實(*)式的由來和貝葉斯方法緊密相關,可以從貝葉斯後驗機率的角度推出(*),見【1】

想更深入瞭解變分模型及其方法,請看:

Chen Y, Ye X, Zhang Q。 Variational Model-Based Deep Neural Networks for Image Reconstruction[J]。 Handbook of Mathematical Models and Algorithms in Computer Vision and Imaging: Mathematical Imaging and Vision, 2021: 1-29。

第三個階段就是review裡題目中寫的,sparsity類方法,而與之聯絡的,就是訊號領域大名鼎鼎、震古爍今、日新月異、虎虎生威。。。的壓縮感知方法(compressed sensing)。回到(2)式:

\mathbf{y}=\mathbf{A}\mathbf{x}+\mathbf{e} \tag{2}

\mathbf{y}

是一個m維向量,

\mathbf{x}

是一個n維向量(即使

\mathbf{x}

代表影象,把畫素按順序排列就是一個一維向量,所以無所謂),那麼

\mathbf{A}

顯然是一個

m \times n

的矩陣。每次測量,得到一次訊號,一共測量m次,所以

\mathbf{y}

是m維的; n可以直接當做

\mathbf{x}

的畫素值,也就是未知數個數。容易理解,要想解n個未知數,顯然已知方程數(m)需要滿足一定數量,否則(2)是個欠定方程。當然m太多也是問題,(2)變成了一個超定方程,因為噪聲存在,可能會無解。

但是,在目前很多最先進的成像方式裡,m是遠遠小於n的!因為在醫學裡,每次訊號測量花費都很“昂貴”的,不僅是花錢,還有時間等。比如做過MRI的都知道,一次核磁掃描時間很長,基本半小時以上,對病人、醫療資源安排都是很大的負擔。主要是因為相位掃描次數跟畫素數成正比。所以為了減少掃描時間,會盡可能減少掃描次數,也就是減少m了。再比如CT裡,每一次CT投影,對人體都有輻射,那當然我們希望投影次數越少越好,也就是m越小越好。

但是,根據奈奎斯特取樣定律,取樣值不能無限減少。那麼,有沒有可能,取樣值低於奈奎斯特取樣率,還能把(2)這個欠定方程解出來呢?

大名鼎鼎的壓縮感知理論回答了這個問題。這裡不細說,知乎裡有一些優質的回答:

但可以直觀地理解,顯然(2)如果是一個欠定方程組沒法解,因為解有無窮多個。

但是如果我們知道,真實的那個解是有獨特性質的,我們是不是又可以找到這個解了呢?

回到1+1=?這個問題,反過來,已知2,問是幾加幾得到的,顯然有無窮多解,但是如果我們知道:2是由兩個正整數相加得到的,那麼答案是唯一的,2=1+1。直觀地理解,我們如果有關於真實解的額外資訊,我們就有可能解出欠定的(2)。

壓縮感知就是利用了一個具體的額外資訊:真實的解是稀疏的。稀疏就是指一個向量裡不為0的元素個數,也就是也大名鼎鼎的0範數。知道真實的解0範數小於某個閾值,我們就可以在低於奈奎斯特取樣率的情況下解出真實解。但是,實際的影象萬一不是稀疏的呢?那麼我們可以用一種變換讓它稀疏:比如小波變換。

這也就是review 【2】裡題目中sparsity的意思。目前MRI裡已經應用了,這大大減少了MRI掃描時間。

這個階段,重建的主流方法是sparsity:怎麼設計更好的變換,讓影象變為sparse的;怎麼設計更好的演算法,從sparse裡重建影象。。。

第四個階段,就是data-driven,其實也就是深度學習階段了。這個階段目前正在勢頭上,看review裡怎麼總結的吧。以後有時間我來總結下。

除了【2】之外,還有很多高質量綜述:

【3】Wang, Ge, Jong Chul Ye, and Bruno De Man。 “Deep learning for tomographic image reconstruction。”

Nature Machine Intelligence

2, no。 12 (2020): 737-748。

wang ge教授發在nature machine intelligence上的綜述。wang ge教授也是重建領域的大牛了,你如果做重建,也會常常見到他的名字。。。這篇綜述總結得也很好,和【2】不同,更多是從深度學習方法上來分類的。不過我覺得這篇綜述更重要的意義是,重建的綜述發在了nature的子刊上,說明這個領域很重要啊(是不是另說,咱要這麼相信。。。)

其實wang ge教授還專門寫了本書:

Wang, Ge, Yi Zhang, Xiaojing Ye, and Xuanqin Mou。

Machine learning for tomographic imaging

。 IOP Publishing, 2019。

可以看做是對文獻【3】的拓展成書。另外幾位作者裡,有四川大學的zhang yi老師,他的實驗室也是重建領域的大實驗室。

這本書適合作為入門教材

,裡面有深度學習和重建的基礎知識。不過我覺得這本書對深度學習重建的總結不太完整,不如直接讀那幾篇原始論文。書裡還有量子計算的內容,不知道為啥有這個東西。。。

我最推薦的另外一本入門教材是前面提到的:

Michael T。 McCann; Michael Unser,Biomedical Image Reconstruction: From the Foundations to Deep Neural Networks, now, 2019。

其中的作者Michael Unser,是EPFL大牛,第一篇有影響的用CNN做inverse problem的文章就是他的組發的,在TIP上,下文會提。這本書講的很清晰,可以對重建有個入門的瞭解。

前面說了,重建是inverse problem這個大問題下的一個子問題,而inverse problem本身就是一個研究領域。所以我認為有必要學習這方面的基礎知識。

關於inverse problem的基礎,設計到泛函分析、運算元理論,我本科也沒學過,不過不用擔心,只是有很多涉及的概念,並不是說必須學過泛函才能看懂,不過學過肯定更好。

inverse problem有標準的教科書,但是那幾乎是一本數學書,顯然做重建的應該沒人會有精力讀,我就不放上來了,我也就是看了開頭幾章,還沒看太懂,想看的可以去springerlink搜。。。

有一個note比較簡明,我覺得最合適,是劍橋大學 inverse problem 這門課程的note:

introduction to inverse problem

當然還有不少類似的小note,在google上搜一下就有很多。因為是基礎知識,所以內容都大同小異。

還有一篇綜述,也很簡明易懂:

Ribes A, Schmitt F。 Linear inverse problems in imaging[J]。 IEEE Signal Processing Magazine, 2008, 25(4): 84-99。

inverse problem這個問題主要是做數學、物理的關注,但是因為太重要,火熱的深度學習自然也要來挑戰一下。而深度學習確實在inverse problem領域取得了很大的成果。不要忘了,前面提到過,去噪、去雨、去霧等任務也是inverse problem裡的,所以深度學習做low-level的視覺任務就屬於deep learning for inverse probelm。

這裡,就要推出一篇“聖經”一般的綜述了:

Arridge S, Maass P, Öktem O, et al。 Solving inverse problems using data-driven models[J]。 Acta Numerica, 2019, 28: 1-174。

首先說,這篇綜述的期刊Acta Numerica是目前數學領域影響因子第一的期刊,這也代表著這篇文章不是一般的難讀(數學類文章,那都是地獄級難度)。確實,這篇綜述170多頁。但是這篇文章對data-driven在inverse problem上的現狀,總結得之全面、深刻,可以稱得上是聖經。對我來說,這篇文章簡直是個寶庫。這也給我們提供了一個小目標:其實,如果有決心在重建這個領域一覽眾山小,直接照這篇綜述引用的文獻讀就完事了,也就400多篇而已。。。

當然,也不是所有人都有精力來登這座珠峰的,那麼,另一篇同樣全面和深刻,而且特別針對深度學習的inverse problem綜述就值得收藏:

Ongie G, Jalal A, Metzler C A, et al。 Deep learning techniques for inverse problems in imaging[J]。 IEEE Journal on Selected Areas in Information Theory, 2020, 1(1): 39-56。

這篇綜述很有意思,它是根據場景來總結方法的:在已知

\mathbf{A}

和有成對訓練資料時;在已知

\mathbf{A}

但只有

\mathbf{x}

資料時;在已知

\mathbf{A}

但只有

\mathbf{y}

資料時;在

\mathbf{A}

訓練時知道,測試時未知時;在

\mathbf{A}

訓練和測試時都未知時。。。一開始我也不理解為什麼要這麼劃分,隨著閱讀的paper增多,我體會到這篇綜述多厲害了,它把好多複雜的方法用很簡單的語言講清楚了。

還有一些綜述,我覺得一般,但都看過,還是可以參考。

Yedder H B, Cardoen B, Hamarneh G。 Deep learning for biomedical image reconstruction: A survey[J]。 Artificial Intelligence Review, 2021, 54(1): 215-251。

比較一般的一篇綜述,和前面的比起來沒什麼特色,感覺像是研究生自己總結的然後投了一篇。

董彬。 影象反問題中的數學與深度學習方法[J]。 計算數學, 2019, 41(4):24。

Zhang, HM。, Dong, B。 A Review on Deep Learning in Medical Image Reconstruction。

J。 Oper。 Res。 Soc。 China

8,

311–340 (2020)。

https://

doi。org/10。1007/s40305-

019-00287-4

董彬老師寫的兩篇綜述,難得的精品中文綜述。董斌老師在CT重建也很強,不過他應該主業不是這個。

Wang N, Sun J。 Model meets deep learning in image inverse problems[J]。 learning, 2020, 2(9): 10。

孫劍老師

Bai Y, Chen W, Chen J, et al。 Deep learning methods for solving linear inverse problems: Research directions and paradigms[J]。 Signal Processing, 2020: 107729。

一般

因為我自己最主要做的其實是PET重建,這裡也推薦三篇PET重建的專門綜述:

Gong K, Berg E, Cherry S R, et al。 Machine learning in PET: from photon detection to quantitative image reconstruction[J]。 Proceedings of the IEEE, 2019, 108(1): 51-68。

qi jinyi教授,硬攀關係算師承大概得算是我師伯了,PET領域的華人大牛,IEEE fellow。

Reader A J, Corda G, Mehranian A, et al。 Deep learning for PET image reconstruction[J]。 IEEE Transactions on Radiation and Plasma Medical Sciences, 2020, 5(1): 1-25。

Zaidi H, El Naqa I。 Quantitative molecular positron emission tomography imaging using advanced deep learning techniques[J]。 Annual Review of Biomedical Engineering, 2021, 23。

其實PET重建很有意思,跟CT和MRI還都不一樣,它是基於泊松分佈機率重建的,最常用的MLEM方法用到了EM演算法。我後面應該會專門寫一篇總結PET的重建。

泊松分佈在光子計數類成像裡都適用,對這個問題,有一本書講的非常好,我受益良多,也是我的入門教材:

Bertero M, Boccacci P, Ruggiero V。 Inverse Imaging with Poisson Data[M]。 IOP Publishing, Bristol, 2018。

專刊

我們知道(不知道的話相信我沒錯的),在醫學影象領域裡有一本頂刊:IEEE transaction on medical imaging(TMI),有一個頂會:MICCAI。 要想看醫學影象領域裡哪些方向比較火熱,或者發展到什麼地步了,都會來這一刊一會上看看。那麼重建方向在這一刊一會上表現如何呢。

在TMI上,有兩次以專刊的形式做醫學影象重建主題(就是一期裡全是這個主題的文章)並配了編輯詞:Volume: 37 Issue: 6 我們來看這一期編輯詞的題目 “Image Reconstruction is a New Frontier of Machine Learning”,很霸氣啊。而作者是之前說過的幾位熟人 Ge Wang、Jong Chu Ye、Jeffrey A。 Fessler。 另一期是Volume: 40 Issue: 11 ,這一期的編輯詞是“Deep Tomographic Image Reconstruction: Yesterday, Today, and Tomorrow”,作者換了一批,但是wang ge老師依然是第一個,另外其中的Mathews Jacob、Yonina C。 Eldar 兩個大牛也需要認識一下。

在MICCAI上,雖然重建沒有分割那麼火,但每次會議也必有一個合集section。

而在大的工程領域,有兩本綜述類頂刊(工程領域的CNS):IEEE signal processing magazine , proceedings of IEEE,這兩本期刊特別niu bi,每期只做一個主題,都是約稿,而且約的作者全是大牛(當然你也可以根據誰被約稿了判斷誰是大牛)。這兩本期刊選的主題代表了學術界、工業界的一種風向,比如壓縮感知、深度學習都曾被這兩本期刊做過(還不止一期)。那麼重建領域表現如何呢?

在IEEE signal processing magazine裡,Volume: 37 Issue: 1 是一期以MRI為主題的專刊,但裡面的大部分文章涉及到的是重建的內容,比如最佳化、壓縮感知、稀疏變換、plug-and-play方法等。這些文章作者裡又有很多熟人(比如fessler、Mathews Jacob),還有深圳先進研究院的樑棟老師。雖然主題是MRI,但裡面的綜述內容對整個重建領域都適用。我特別推薦fessler執筆的那篇講重建裡最佳化方法綜述的,由於雜誌篇幅限制,他在arxiv上有一篇加長版的。

而在proceedings of IEEE裡,雖然沒有以重建為主題的專刊,但是有以生物醫學成像為主題的 vol。 108, no。 1。前面講的那個最好的review就是出自這一期。

這裡只是想說,重建這個領域其實蠻受重視的。當然,這得益於生物醫學成像本身這個重要的研究領域。除了對新的成像方式的探索,在已有成像方式上做到更高、更快、更強,甚至突破一些以前不可能的限制,同樣重要,而這些就需要更好的重建方法。

如果厭倦與分割、配準這類人滿為患的方向,可以來看看重建這個領域。(當然人也挺多的,何處不內卷呢)

深度學習之外的

從前面可以看到,其實重建這個領域真是涉及到很多領域。在我的學習過程中,我覺得有幾個相關的領域,是研究重建必須掌握的。而且,這幾個領域本身也特別有意思。這裡先只提兩個

最佳化(optimization)

最佳化有多重要?可以說,重建裡的變分模型就是最佳化方法驅動的,理解最佳化才能理解重建中的迭代方法和變分方法。深度學習重建中非常出名的ADMM-Net和隨之出現的unrolling方法,就是用神經網路去取代各種迭代最佳化演算法。fessler教授那本重建教材裡,前半部分幾章就是專門講最佳化。“不懂最佳化,就不懂重建。” ——魯迅。

當然,最佳化這個領域本身比重建還大,還要重要,所以學習要講武德,點到為止。

我的最佳化是在包承龍老師課上得到系統學習的,我覺得還是上課來的更完整細緻。不過如果自學或者深入瞭解,有一些材料是非常好的,當然知乎裡有很多相關的推薦了,我就推一個我自己用過的。

最佳化本身分凸最佳化(簡單的最佳化)和非凸最佳化(難的最佳化),學當然只能學凸最佳化,因為非凸最佳化目前還沒建立起完整的理論。首先最佳化裡的名著是boyd那本《凸最佳化》這是公認的,但是看過的應該都知道,這本書在內容上其實有點落後於時代,課上包老師也只講了前面的凸分析部分,後面是自己做的資料。

我覺得有一本新出的最佳化書特別好,內容完整,質量特別高:

最最佳化:建模、演算法與理論,劉浩洋, 戶將, 李勇鋒,文再文

壓縮感知(稀疏方法)

壓縮感知我是偶然才接觸到的,因為想要看懂那篇review 【1】,就找資料來看了看,沒想到,一下子就看進去了。壓縮感知背後的數學理論特別優美,(可能也是受夠了深度學習裡的玄學),對這種基於深厚數學基礎推匯出的理論很折服。

對壓縮感知,只推薦一本書,我肯定這本書將在以後被稱為神書:

Wright J, Ma Y。 High-dimensional data analysis with low-dimensional models: Principles, computation, and applications[M]。 Cambridge University Press, 2021

標簽: 重建  inverse  成像  綜述  領域