您當前的位置:首頁 > 舞蹈

Dempster-Shafer's theory(證據理論)

作者:由 鬍子悍匪 發表于 舞蹈時間:2022-02-21

1 直觀認識

別稱:證據理論、Dempster-Shafer理論、DS理論。

優點:簡單理解,我們透過實驗獲取資料比理論推導要更直觀更容易一些,而證據理論的核心——

Dempster合成規則

,能綜合不同專家或者資料來源的知識或者資料,這就使得證據理論在

專家系統

資訊融合

等領域中得到了廣泛應用。

侷限性:

證據/資料必須是獨立的,而這有時不易滿足;

證據合成規則沒有非常堅固的理論支援,其合理性和有效性還存在較大的爭議;

計算上存在著潛在的指數爆炸問題。

2 經典證據理論

證據理論的主要特點有:

滿足比Bayes機率理論更弱的條件,即

不必滿足機率可加性

具有直接表達”

不確定

“和”

不知道

“的能力,這些資訊表示在mass函式中,並在證據理論合成過程中保留了這些資訊。

證據理論不但允許人們將信度賦予假設空間的單個元素,而且還能賦予它的子集,這很象人類在各級抽象層次上的證據收集過程。

2。1 識別框架(Frame of discernment)/假設空間

識別框架:所考察判斷的事物或物件的集合,定義為非空集合

\Theta = \{ a,b,c,... \}

,其包含

n

個兩兩互斥事件。

識別框架的冪包含

2^{n}

個元素,

P(\Theta) = \{  \emptyset, a, b, c, {a,b}, {a,c},..., \Theta \}

例,有兩個嫌疑人a,b,總共有

\emptyset

(a,b都不是罪犯)、{a是罪犯}、{b是罪犯}、{a、b都是罪犯} 四種可能

2。2 基本機率分配(Basic probability assignment)

在假設空間上的BPA是一個

2^ \Theta \rightarrow [0,1]

的函式m,稱為mass函式,並且滿足:

m(\emptyset)=0

\sum\limits_{A \subseteq \Theta}m(A) = 1

2。3 信任函式(Belief function)

信任函式也稱為信度函式,在假設空間

\Theta

上基於BPA m的信任函式定義為:

Bel(A) = \sum\limits_{B \subseteq A}m(B)

2。4 似然函式(Plausibility function)

似然函式也稱為似然度函式,在假設空間

\Theta

上基於BPA m的似然函式定義為:

Pl(A) = \sum\limits_{B \cap A \neq \emptyset }m(B)

2。5 信任區間

在證據理論中,對於假設空間

\Theta

中的某個假設A,根基BPA分別計算出關於該假設的信任函式

Bel(A)

和似然函式

Pl(A)

組成信任區間

[Bel(A),Pl(A)]

,用以表示對某個假設的確定程度

Dempster-Shafer's theory(證據理論)

2。6 Dempster-Shafer‘s 合成規則(核心)

Dempster合成規則,也稱證據合成公式,其定義如下:

對於

\forall A \subseteq \Theta

\Theta

上的兩個mass函式

m_1,m_2

的Dempster和合成規則為:

m_1 \oplus m_2(A) = \frac{1}{K} \sum\limits_{B \cap C = A} m_1(B) \cdot m_2(C)

​ 其中,K為歸一化常數

K = \sum\limits_{B \cap C \neq \emptyset } m_1(B) \cdot m_2(C) = 1 - \sum\limits_{B \cap C = \emptyset} m_1(B) \cdot m_2(C)

2。 對於

\forall A \subseteq \Theta

\Theta

上的有限個mass函式

m_1,m_2,...,m_n

的Dempster和合成規則為:

(m_1 \oplus m_2 \oplus ... \oplus m_n)(A) = \frac{1}{K} \sum\limits_{A_1 \cap A_2 \cap ... \cap A_n = A} m_1(A_1) \cdot m_2(A_2) \cdot \cdot \cdot m_n(A_n)

​ 其中,

K = \sum\limits_{A_1 \cap ... \cap A_n \neq \emptyset} m_1(A_1) \cdot m_2(A_2) \cdot \cdot \cdot m_n(A_n) = 1 - \sum\limits_{A_1 \cap ... \cap A_n = \emptyset} m_1(A_1) \cdot m_2(A_2) \cdot \cdot \cdot m_n(A_n)

3 一個栗子

以自動駕駛障礙物檢測資料融合為例,假設證據源有

LiDAR

影象感測器

3。1 確定假設空間

A:有障礙物

B:無障礙物

C:有障礙物或者無無障礙物(不確定)

D:空集(既不是有障礙物,也不是無障礙物,就是沒法判斷)

3。2 確定基本分配機率BPA

m_L \rightarrow m_{LiDAR},m_I \rightarrow m_{Image}

假設

mL

mI

A

0。6

0。1

B

0。3

0。8

C

0。1

0。1

D

0

0

3。3 計算歸一化常數K

根據公式:

K = \sum\limits_{B \cap C \neq \emptyset } m_1(B) \cdot m_2(C) = 1 - \sum\limits_{B \cap C = \emptyset } m_1(B) \cdot m_2(C)

K是將所有交集不為空的假設的聯合mass函式求和,則對應有如下7種交集不為空的假設:

LiDAR假設“有障礙物”:L(A);Image假設“有障礙物”:I(A)。交集:“有障礙物”

LiDAR假設“有障礙物”:L(A);Image假設“有障礙物或無障礙物”:I(C)。交集:“有障礙物”

LiDAR假設“無障礙物”:L(B);Image假設“無障礙物”:I(B)。交集:“無障礙物”

LiDAR假設“無障礙物”:L(B);Image假設“有障礙物或無障礙物”:I(C)。交集:“無障礙物”

LiDAR假設“有障礙物或無障礙物”:L(C);Image假設“有障礙物”:I(A)。交集:“有障礙物”

LiDAR假設“有障礙物或無障礙物”:L(C);Image假設“無障礙物”:I(B)。交集:“無障礙物”

LiDAR假設“有障礙物或無障礙物”:L(C);Image假設“有障礙物或無障礙物”:I(C)。交集:“有障礙物或無障礙物”

K =m_L(A) m_I(A)+m_L(A) m_I(C)+m_L(B) m_I(B)+m_L(B) m_I(C)+m_L(C) m_I(A)+m_L(C) m_I(B)+m_L(C) m_I(C)   \\= 0.6 * 0.1+0.6 * 0.1+0.3 * 0.8+0.3 * 0.1+0.1 * 0.1+0.1 * 0.8+0.1 * 0.1=0.49

3。4 計算每個假設的聯合mass

公式如下:

m_1 \oplus m_2(A) = \frac{1}{K} \sum\limits_{B \cap C = A} m_1(B) \cdot m_2(C)

m_{L,I}(A)= \frac{1}{K}(m_L(A)m_I(A)+m_L(A)m_I(C)+m_L(C)m_I(A)\ = \frac{1}{0.49}(0.6 \times0.1 + 0.6 \times0.1 + 0.1 \times0.1) = 0.265

m_{L,I}(B) = \frac{1}{K}(m_L(B)m_I(B)+m_L(B)m_I(C)+m_L(C)m_I(B) \ = \frac{1}{0.49}(0.3 \times0.8 + 0.3 \times0.1 + 0.1 \times0.8) = 0.714

m_{L,I}(C) = \frac{1}{K}m_L(C)m_I(C) \ = \frac{1}{0.49}(0.1 \times 0.1) = 0.020

m_{L,I}(D) = 0

3。5 計算每個假設的信任區間([信任函式,似然函式])

公式如下:

Bel(A) = \sum\limits_{B \subseteq A}m(B)

Pl(A) = \sum\limits_{B \cap A \neq \emptyset}m(B)

假設

mL

mI

m{L,I}

Bel

Pl

A

0。6

0。1

0。265

0。265

0。285

B

0。3

0。8

0。714

0。714

0。734

C

0。1

0。1

0。020

1

1

D

0

0

0

0

0

4 總結

DS理論其實有很多侷限性,但限於篇幅原因,就不再贅述,這個博主寫的很詳細傳送門

參考文獻:浙江大學研究生《人工智慧引論》課件 第五講

備用連結

標簽: 障礙物  假設  函式  Lidar  證據