跳到主要內容

[最佳化] 牛頓法 (Generalized Newton Raphson Algorithm)

這次要介紹的是 Generalized Newton Raphson Algorithm (or so called Newton Method)

想法:透過二次函數近似 (quadratic fit) 目標函數 $J(u)$ 並以此找出最小值。


現在考慮在時間 $k$ ,我們有 $u^k \in \mathbb{R}^n$ 與對應的成本函數 $J(u^k)$;

現在如果我們讓 $u^k$ 受到一點擾動 $\Delta u := u^{k+1} - u^k$,也就是說受到擾動的成本函數可寫為
\[
J(u^k + \Delta u)
\]假設我們的目標函數 $J(u) $ 是個平滑函數(smooth function),那麼我們可以對其做泰勒展開( Taylor Expansion )。故現在透過 Taylor Expansion 對上式展開 (只展開到第二項,忽略其餘高階項:因為我們的想法是利用二次函數近似,故高階項忽略),我們得到
\[
J(u^k + \Delta u) = J(u^k) + \nabla J(u^k)^T \Delta u + \frac{1}{2} \Delta u^T \left ( \nabla^2 J(u^k)^T \right) \Delta u + H.O.T.
\]其中H.O.T為高階項 higher order term。我們將其忽略不計

現在由於我們欲求極小值(最佳化),故透過一階必要條件(FONC):
\[
\nabla J(u^k) |_{\Delta u = \Delta u^*}= 0
\] 亦即對 $\Delta u$ 求一階導數並令其為 $0$ 可得
\[
\left ( \nabla J(u^k) +  \nabla^2 J(u^k) \Delta u \right) |_{\Delta u = \Delta u^*} =0
\]整理上式可得
\[ \Rightarrow \Delta u^* =  - {\left[ {{\nabla ^2}J({u^k})} \right]^{ - 1}}\left( {\nabla J({u^k})} \right)
\] 又由擾動定義 $\Delta u := u^{k+1} - u^k$,我們可將上式進一步改寫
\[\begin{array}{l}
{u^{k + 1}} - {u^k} =  - {\left[ {{\nabla ^2}J({u^k})} \right]^{ - 1}}\left( {\nabla J({u^k})} \right)\\
 \Rightarrow {u^{k + 1}} = {u^k} - {\left[ {{\nabla ^2}J({u^k})} \right]^{ - 1}}\left( {\nabla J({u^k})} \right) \ \ \ \ (\star)
\end{array}
\]上式 $(\star)$ 的iterative structure稱為 Newton-Rapshon Algorithm

Comments:
1. 注意到 Newton Method 需要兩項資訊:一是 Gradient 另外一個則是 Hessian matrix 的 inverse :${\left[ {{\nabla ^2}J({u^k})} \right]^{ - 1}}$ ,事實上 Newton Method 擁有除了一階導數以外的 Hessian 的幫助確實對於整體演算法收斂性有所助益,但是注意到求由於Newton Method 需要求 Hessian 的反矩陣,這在大尺度 ( $n$ very large) 的問題中會變得難以求解。

另外如果 Hessian matrix 在跌代過程中損失正定性質(positive-definiteness ) =>無法求反矩陣 則此暗示目標函數可能與二次近似相距甚遠 (亦即目標函數難以用二次近似),此時用Newton Method求出的解在精度上會有問題。

2. 如果起始位置靠近最佳解 $u^*$ (事實上我們並不知道是否真的靠近,除非事先已知道最佳解在哪),則Newton Method 會優於 Steepest Descent Method。反之如果起始位置遠離最佳解,則 Steepest Descent Method會優於 Newton Method (因為Newton Method 用二次近似,故跌代緩慢,此時Steepest Descent 收斂速度會快於Newton Method)。

3. Newton Method 由於採用二次近似,故對於目標函數為二次式的情況,只需要跌代一步就收斂。(WHY!?)

考慮標準二階型態的成本函數 $J: \mathbb{R}^n \rightarrow \mathbb{R}$:
\[
J(u) = \frac{1}{2}u^T A u + b^T u + c, \ A \succ 0
\]還沒使用Newton Method之前,我們可先由一階必要條件 (First order necessary condtion, FONC): $\nabla J (u) =0$ 得知最佳解應該長甚麼樣:
\[
 {\left. {\nabla J(u)} \right|_{{u^*}}} = A{u^*} + b = 0 \Rightarrow {u^*} =  - {A^{ - 1}}b
\]且由二階充分條件(Second order sufficient condition, SOSC) $\nabla^2 J(u) \succ 0$,可得 $\nabla^2 J(u^*) = A \succ 0$,故 ${u^*} =  - {A^{ - 1}}b$ 為上述二階目標函數的最佳解。

現在我們看看用上Newton Method會發生甚麼事情:
\[{u^{k + 1}} = {u^k} - {\left[ {{\nabla ^2}J({u^k})} \right]^{ - 1}}\left( {\nabla J({u^k})} \right) \]考慮 $k=0$的時候我們有
\[\begin{array}{l}
 {u^1} = {u^0} - {A^{ - 1}}\left( {A{u^0} + b} \right)\\
 \Rightarrow {u^1} = {A^{ - 1}}b = {u^*}
\end{array}
\] 故由上述討論可知確實Newton Method 一步就收斂。 $\square$


現在我們來看個實際的例子:
======================
Example
考慮如下目標函數
\[J(u) = {\left( {11 - {u_1} - {u_2}} \right)^2} + {\left( {1 + 10{u_2} + {u_1} - {u_1}{u_2}} \right)^2}
\] 且給定初始條件 $u^0 = [18, 3]^T$ (任意給定)

1. 試用FONC與SOSC求解最佳解 $u^*$
2. 試用Newton Method 求 $u^1$ 與 $u^2$。
3. 試比較此兩種方法之解

Solution:
讀者可事先計算上述目標函數之最佳解(滿足FONC與SOSC)為 $u^* = [13, 4]^T$。

現在我們看看Newton Method有甚麼效果?

在使用 Newton Method之前需要兩個資訊:Gradient 與 Hessian,故我們依序計算如下:
\[\begin{array}{l}
\nabla J(u) = \left[ {\begin{array}{*{20}{c}}
{\frac{{\partial J}}{{\partial {u_1}}}}\\
{\frac{{\partial J}}{{\partial {u_2}}}}
\end{array}} \right]\\
 \Rightarrow \nabla J(u) = \left[ {\begin{array}{*{20}{c}}
{ - 2\left( {11 - {u_1} - {u_2}} \right) + 2\left( {1 + 10{u_2} + {u_1} - {u_1}{u_2}} \right)\left( {1 - {u_2}} \right)}\\
{ - 2\left( {11 - {u_1} - {u_2}} \right) + 2\left( {1 + 10{u_2} + {u_1} - {u_1}{u_2}} \right)\left( {10 - {u_1}} \right)}
\end{array}} \right]\\
 \Rightarrow \nabla J({u^0}) = \left[ {\begin{array}{*{20}{c}}
{40}\\
{100}
\end{array}} \right]
\end{array}
\]
Hessian:
\[\begin{array}{l}
{\nabla ^2}J(u) = \left[ {\begin{array}{*{20}{c}}
{2{{\left( {{u_2} - 1} \right)}^2} + 2}&{4\left( {{u_1}\left( {{u_2} - 1} \right) - 10{u_2} + 5} \right)}\\
{4\left( {{u_1}\left( {{u_2} - 1} \right) - 10{u_2} + 5} \right)}&{2{{\left( {{u_1} - 10} \right)}^2} + 2}
\end{array}} \right]\\
 \Rightarrow {\nabla ^2}J({u^0}) = \left[ {\begin{array}{*{20}{c}}
{10}&{44}\\
{44}&{130}
\end{array}} \right]
\end{array}\]

那麼我們用 Newton Method:
\[\begin{array}{l}
{u^{k + 1}} = {u^k} - {\left[ {{\nabla ^2}J({u^k})} \right]^{ - 1}}\left( {\nabla J({u^k})} \right)\\
 \Rightarrow {u^1} = \left[ {\begin{array}{*{20}{c}}
{18}\\
3
\end{array}} \right] - {\left[ {\begin{array}{*{20}{c}}
{10}&{44}\\
{44}&{130}
\end{array}} \right]^{ - 1}}\left[ {\begin{array}{*{20}{c}}
{40}\\
{100}
\end{array}} \right] = \left[ {\begin{array}{*{20}{c}}
{19.2579}\\
{1.8570}
\end{array}} \right]
\end{array}\]同樣的我們可計算下一步 $u^2 = [13.265, 3.613]^T$ 逐步下去可以發現(在此初始條件之下)確實越來越接近最佳解 $u^*=[13, 4]$。計算細節在此不再贅述。

但是注意到,如果更改初始條件為其他值(比如說如果選很接近 $u^0 = [7, -2]^T$ 或者 $u^0 =[10, 1]^T$),則很可能得不到上述的最佳解!! 此時需要重新給定初始值再度測試。 $\square$



ref: E. K. P. Chong, S. H. Zak, An Introduction to Optimization 2nd.

留言

這個網誌中的熱門文章

[數學分析] 什麼是若且唯若 "if and only if"

數學上的 if and only if  ( 此文不討論邏輯學中的 if and only if,只討論數學上的 if and only if。) 中文翻譯叫做  若且唯若 (or 當且僅當) , 記得當初剛接觸這個詞彙的時候,我是完全不明白到底是甚麼意思,查了翻譯也是愛莫能助,畢竟有翻跟沒翻一樣,都是有看沒有懂。 在數學上如果看到 if and only if  這類的句子,其實是表示一種 雙條件句 ,通常可以直接將其視為" 定義(Definition)" 待之,今天要分享的是這樣的一個句子如何用比較直觀的方法去看他 假設我們現在有 兩個邏輯陳述句 A 與  B. 注意到,在此我們不必考慮這兩個陳述句到底是什麼,想表達什麼,或者到底是否為真(true),這些都不重要。只要知道是兩個陳述即可。 現在,考慮新的陳述:  "A if and only if B" 好了,現在主角登場,我們可以怎麼看待這個句子呢? 事實上我們可以很直覺的把這句子拆成兩部分看待,也就是 "( A if B ) and ( A only if B )" 那麼先針對第一個部分  A if B  來看, 其實這句就是說  if B then A, 更直白一點就是 "if B is true, then A is also true".  在數學上等價可以寫為 "B implies A" .  或者更常用一個箭頭符號來表示 "B $\Rightarrow$  A"  現在針對第二個部分  A only if B 此句意指  "If B is not true, then A is also not true". 所以如果已知 A is true,  那麼按照上句不難推得 B is also true 也就是說  A only if B  等價為 "If A is true then B is also true". 同樣,也可以寫作   "A implies B"   或者用箭頭表示  "A   $\Rightarrow$     B".

[數學分析] 淺談各種基本範數 (Norm)

這次要介紹的是數學上一個重要的概念: Norm: 一般翻譯成 範數 (在英語中 norm 有規範的意思,比如我們說normalization就是把某種東西/物品/事件 做 正規化,也就是加上規範使其正常化),不過個人認為其實翻譯成 範數 也是看不懂的...這邊建議把 Norm 想成長度就好 (事實上norm是長度的抽象推廣), 也許讀者會認為好端端的長度不用,為何又要發明一個 norm 來自討苦吃?? 既抽象又艱澀。 事實上想法是這樣的: 比如說現在想要比較兩個數字 $3$ , $5$ 之間的大小,則我們可以馬上知道 $ 3 < 5 $;同樣的,如果再考慮小數與無理數如 $1.8753$ 與 $\pi$,我們仍然可以比較大小 $1.8753 < \pi = 3.1415...$ 故可以發現我們有辦法對 "純量" 做明確的比大小,WHY? 因為前述例子中 $3$, $5$, $1.8753$ or $\pi$ 其各自的大小有辦法被 "measure "! 但是如果是現在考慮的是一組數字 我們如何去measure 其大小呢?? 比如說 \[x:=[1, -2, 0.1, 0 ]^T \]上式的大小該是多少? 是 $1$? $-2$? $0.1$??? 再者如果更過分一點,我們考慮一個矩陣 \[A = \left[ {\begin{array}{*{20}{c}} 1&2\\ 3&4 \end{array}} \right] \],想要知道這個矩陣的大小又該怎麼辦?? 是 $1$ ? $2$ 還是 $4$ ?..其實現階段我們說不清楚。 也正是如此,可以發現我們確實需要新的 "長度" 的定義來幫助我們如何去 measure 矩陣/向量/甚至是函數的大小。 故此,我們首先定義甚麼是Norm,(也就是把 "長度" or "大小" 的本質抽離出來) ================== Definition: Norm 考慮 $V$ 為一個向量空間(Vector space),則我們說  Norm 為一個函數 $||\cdot|| : V \rightarrow \mathbb{R}$ 且滿足下列性質