跳到主要內容

發表文章

目前顯示的是 2015的文章

[線性代數] $A^2 = I \implies A=I?$

考慮以下問題 令 $A$ 為 任意 $n \times n$ 矩陣,試問下列陳述是否正確 Claim: $ A^2 = I  $則 $A = I$? 讀者可能注意到 $A^2 = AA = I$ 表示我們有 \[ A= A^{-1} \]故上述陳述看來頗為誘人讓人想回答 True 但事實上此陳述為錯誤陳述,因為若我們考慮 \[A = \left[ {\begin{array}{*{20}{c}} 0&1\\ 1&0 \end{array}} \right]\]則 \[ A^2 = I_{2 \times 2} \]但 $A \neq I_{2 \times 2}$

[線性代數] 線性算子 與 特徵值/特徵向量(1) - 線性算子的矩陣代表 所表示的等價特徵問題

令 $V$ 為有限維度向量空間配備基底 $S=\{{\bf s}_1,{\bf s}_2,...,{\bf s}_n\}$ 且 $L: V \to V$ 為線性算子,則必存在唯一 的 一個 對應於基底 $S$ 的 $n \times n$ 矩陣代表 $A$  來 表示 $L$ (我們稱此矩陣代表 $A$ 為  representation of $L$ with respect to $S$) 使得 對任意 ${\bf x} \in V$ 我們有 \[ [L({\bf x})]_S = A [{\bf x}]_S \;\;\;\;\; (\star) \]其中 $[{\bf x}]_S$ 表示 ${\bf x}$基於 基底 $S$ 的座標向量 (coordinate vector),亦即 若\[{[{\bf{x}}]_S} = \left[ \begin{array}{l} {a_1}\\ {a_2}\\  \vdots \\ {a_n} \end{array} \right] \Leftrightarrow {\bf{x}} = {a_1}{{\bf{s}}_1} + {a_2}{{\bf{s}}_2} + ... + {a_n}{{\bf{s}}_n}\] 現在我們回憶原本 定義在 線性算子 $L$ 之上的特徵問題:亦即我們要 找出一組 特徵值 $\lambda$ 與其對應的 特徵向量 ${\bf x} \neq {\bf 0}$ 且 ${\bf x} \in V$ 滿足 \[ L({\bf x}) = \lambda {\bf x}\;\;\;\;\; (*) \] 觀察 $(\star)$ 式,我們可得到透過 $A$ 矩陣所描述的等價特徵問題如下 \[\begin{array}{l} {[L({\bf{x}})]_S} = A{[{\bf{x}}]_S}\;\\  \Rightarrow {[\lambda {\bf{x}}]_S} = A{[{\bf{x}}]_S}\;\\  \Rightarrow \lambda {[{\bf{x}}]_S} = A{[{\bf{x}}]_S}\; \end{array} \]則我們的目標變成要找 一組 $\lambda \in \mathbb{R}$ (or $\in \math

[線性代數] 線性算子 與 特徵值/特徵向量(0)

====================== Definition: Linear Operator 令 $V$ 為 $n$ 維 向量空間 且 $L: V \to V$ 為線性轉換 (Linear transformation):亦即給定任意兩向量 ${\bf u,v} \in V$ 與 $c \in \mathbb{R}$ (or $c \in \mathbb{C}$)滿足 \[\begin{array}{l} L\left( {{\bf{u}} + {\bf{v}}} \right) = L\left( {\bf{u}} \right) + L\left( {\bf{v}} \right)\\ L\left( {c{\bf{u}}} \right) = cL\left( {\bf{u}} \right) \end{array}\]則我們稱該 $L:V \to V$ 為定義在 $V$ 上的線性算子 (Linear Operator) ====================== 那麼我們現在想問一個基本問題:是否可以找到 一組非零向量 ${\bf v} \neq {\bf 0}$ 與 純量 $\lambda \in \mathbb{R}$ (or $\in \mathbb{C}$) 使得 \[ L({\bf v}) = \lambda{\bf v} \] 此問題在工程領域有諸多應用,一般而言上述問題又稱為特徵值問題。 Comments: 1. 上述討論中所提及的 Linear Operator 僅僅表示 domain 與 codomain 都為同一個向量空間 $V$,其餘皆與線性轉換定義相同。也就是說若我們將 domain $V$ 與 codomain $W$ 設為不同的向量空間,且若 $L: V \to W$ 滿足 \[\begin{array}{l} L\left( {{\bf{u}} + {\bf{v}}} \right) = L\left( {\bf{u}} \right) + L\left( {\bf{v}} \right)\\ L\left( {c{\bf{u}}} \right) = cL\left( {\bf{u}} \right) \end{array}\]則我們稱 $L$ 為線性轉換 (Linear Tr

[線性代數] Orthonormal Basis 與 Gram-Schmidt Process (1)

延續前篇 [線性代數] Orthonormal Basis 與 Gram-Schmidt Process (0) 的問題,以下我們正式引入 Gram-Schmidt Process Theorem: Gram-Schmidt Process 令 $V$ 為 有限維度內積空間 且 令 $W\neq \{ {\bf 0}\}$ 為 $V$中的 $m$-維子空間。則此子空間 $W$ 存在一組正交基底 $T =\{{\bf w}_1,...{\bf w}_m\}$ Proof: 我們首先建構一組 orthogonal basis $T^* :=\{{\bf v}_1,{\bf v}_2...,{\bf v}_m\}$ for $W$。由於 $W$ 為 $V$ 的子空間,故我們可在 $W$ 其上選取一組基底,令 $S=\{{\bf u}_1,...,{\bf u}_m\} $ 接著我們選取其中任意一個向量,比如說 ${\bf u}_1 \in S$ 並稱此向量為 ${\bf v}_1$ 亦即我們重新定義 \[ {\bf v}_1 := {\bf u}_1 \]注意到此 ${\bf v}_1 \in  W_1:=span\{ v_1 \}$ 其中 $W_1$ 為 $W$ 的子空間 接著我們要尋找 ${\bf v}_2$,我們希望此向量 ${\bf v}_2$ 落在 $W$ 子空間 $W_2 = span\{ {\bf u}_1, {\bf u}_2\} $ 且 ${\bf v}_2$ 與 ${\bf v}_1$ 彼此 orthogonal。但注意到我們有 ${\bf v}_1 := {\bf u}_1 $ 故 ${\bf v}_2  \in W_2 = span\{ {\bf u}_1 , {\bf u}_2\}  =  span\{ {\bf v}_1, {\bf u}_2\} $  也就是說 ${\bf v}_2$ 可透過 ${\bf v}_1$ 與 ${\bf u}_2$ 做線性組合 \[ {\bf v}_2 = a_1 {\bf v}_1 + a_2 {\bf u}_2 \]其中 $a_1, a_2$ 待定。 注意到由於我們要讓 ${\bf v}_2$ 與 ${\bf v}_1$ 彼此 orthogonal 故 $\langle {\bf

[線性代數] Orthonormal Basis 與 Gram-Schmidt Process (0)

首先引入 一組向量彼此互為標準正交的定義 =================== Definition: Orthonormal Set 令 $V$ 為有限維度的內積空間 且 令 $S$ 為 $V$ 上的一組 集合滿足 $S =\{{\bf v}_1,..{\bf v}_n\}$ 。則我們稱 $S$ 為 orthonormal set 若 \[\left\langle {{{\bf{v}}_i},{{\bf{v}}_j}} \right\rangle  = \left\{ \begin{array}{l} 0\begin{array}{*{20}{c}} {}&{} \end{array}i \ne j\\ 1\begin{array}{*{20}{c}} {}&{} \end{array}i = j \end{array} \right.\]其中 $\left\langle {{{\bf{v}}_i},{{\bf{v}}_j}} \right\rangle $ 為 $V$ 上的內積運算。 ==================== Comment: 1. 給定一個向量空間我們如果有 orthonormal basis 則其上的任意向量將可以被非常容易地表示 (why?) 比如說我們考慮 $V:= \mathbb{R}^2$ 且 具備一組標準基底 $S:=\{{\bf s}_1, {\bf s}_2\} = \{[1 \;0]^T, [0\;1]^T\}$ 則此基底為 orthonormal 。現在若給訂任意向量 ${\bf v} := [100, -99]^T\in V$ 則此向量可以非常容易透過 基底 $S$ 做線性組合來組出 ${\bf v}$亦即 \[\underbrace {\left[ \begin{array}{l} 100\\  - 99 \end{array} \right]}_{ = {\bf{v}}} = 100\underbrace {\left[ \begin{array}{l} 1\\ 0 \end{array} \right]}_{ = {{\bf{s}}_1}} + \left( { - 99} \right)\underbrace {\left[ \begin{array}

[數學分析] 三角多項式 與 三角級數 (2)- Generalized Fourier Series

現在我們定義廣義 Fourier Series : ================= Definition: (Orthogonal System of Functions) 令 $\{\phi_n\}$, $n \in \mathbb{N}$ 為在 $[a,b]$ 上 的 Complex-valued 函數 sequence 且滿足下列積分 \[ \int_a^b \phi_n(x) \phi_m^*(x) dx =0, \;\; \text{ if $n \neq m$} \]那麼我們稱 $\{\phi_n\}$ 為在 $[a,b]$ 上 orthogonal 或稱 (orthogonal system of functions on $[a,b]$) 。除此之外,若積分 \[ \int_a^b \phi_n(x) \phi_n^*(x) dx =1 \]我們稱 $\{\phi_n\}$ 為在 $[a,b]$ 上 orthonormal 或稱 (orthonormal system of functions on $[a,b]$) 。 ===================== Comments:  一般而言,若我們取 $\{\phi_n\}$  $n \in \mathbb{N}$ 為在 $[0, 2\pi]$ 上 的 Complex-valued 函數 sequence 且滿足 $\phi_n(x):= exp(inx)$  則讀者可自行驗證此 函數 sequence 為 orthogonal ===================== Definition: (n-th Fourier Coefficient of $f$ ) 若 $\{\phi_n\}$ 為 orthonormal on $[a,b]$ 且 對任意 $n \in \mathbb{N}$, \[ c_n:=\int_a^b f(x) \phi_n^*(x) dx \]我們稱 $c_n$ 為 $n$-th Fourier coefficient of $f$ (relative to $\{\phi_n\}$) ===================== 上述 $^*$ 為 complex conjugate。 ========

[數學分析] 三角多項式 與 三角級數 (1)

三角多項式表示一個函數可以透過 多個三角函數 方式表示,具體定義如下。 ============================ Definition: Trigonometric polynomial 我們說 $f(x)$ 為一個 三角多項式( trigonometric polynomial) 若 $f$ 具有下列形式: \[ f(x) := \sum_{n=0}^N a_n \cos(nx) + b_n \sin (nx) \ \ \ \ \ (*) \]其中 $a_n, b_n \in \mathbb{C}$ 且 $x \in \mathbb{R}$。;或者上式可等價寫為 複數形式 \[ f(x) := \sum_{n=-N}^N c_n e^{i n x} \]對任意 $c_n \in \mathbb{C}$ 與 $x \in \mathbb{R}$ ============================ Comment: 注意到對於 式子 $(*)$ 可改寫為 \[f(x) = \sum\limits_{n = 0}^N {{a_n}} \cos (nx) + {b_n}\sin (nx) = {a_0} + \sum\limits_{n = 1}^N {{a_n}} \cos (nx) + {b_n}\sin (nx)\] ========================== FACT 1: Trigonometric polynomial $f$ 為週期函數且週期為 $2 \pi$。 ========================== Proof: 亦即我們要證明 $f(x+2 \pi) = f(x)$,故 \[\begin{array}{l} f(x + 2\pi ): = \sum\limits_{n =  - N}^N {{c_n}} {e^{in\left( {x + 2\pi } \right)}} = \sum\limits_{n =  - N}^N {{c_n}} {e^{in\left( x \right)}}{e^{in\left( {2\pi } \right)}}\\ \begin{array}{*{20}{c}} {}&{}&{}&{

[數學分析] 內積空間的不等式 Cauchy-Schwarz Inequality 與 Triangular Inequality

============================== Theorem: (Cauchy-Schwarz Inequality)  令 $V$ 為實數內積空間,且  ${\bf u}, {\bf v} \in V$ 則\[ |({\bf u}, {\bf v})| \le ||{\bf u}|| \; ||{\bf v}|| \]============================== 先看幾個例子 Example 1:  歐幾里德平面空間對應的 柯西不等式  $V:=\mathbb{R}^2$ 且配備標準內積 $({\bf u}, {\bf v}) := {\bf u}^T {\bf v}$,現令 ${\bf u}:=[u_1\;\;u_2]^T; \; {\bf v}:=[v_1\;\;v_2]^T$ 則上述的 Cauchy-Schwarz Inequality 可表為 \[\begin{array}{l} \left| {\left( {{\bf{u}},{\bf{v}}} \right)} \right| \le \left\| {\bf{u}} \right\|\left\| {\bf{v}} \right\|\\  \Rightarrow {\left| {{{\bf{u}}^T}{\bf{v}}} \right|^2} \le \left( {{{\bf{u}}^T}{\bf{u}}} \right)\left( {{{\bf{v}}^T}{\bf{v}}} \right)\\  \Rightarrow {\left| {{u_1}{v_1} + {u_2}{v_2}} \right|^2} \le \left( {u_1^2 + u_2^2} \right)\left( {v_1^2 + v_2^2} \right) \end{array}\] Example 2:  有限維歐幾里德空間對應的 柯西不等式 $V:=\mathbb{R}^n$ 且配備標準內積 $({\bf u}, {\bf v}) := {\bf u}^T {\bf v}$,現令 ${\bf u}:=[u_1,...,\;\;u_n]^T; \; {\bf v}:=[v_1,...,\;\;v_n]^T$ 則上述的 Cauchy-Schwa

[機率論] 非負連續隨機變數 的期望值

令 $Y $ 為 任意非負 連續隨機變數 配備機率密度 $f_Y$,則我們有以下非常簡潔的結果來描述 $Y$ 的期望值 $E[Y]$。 ============ Lemma: \[ E[Y] = \int_0^\infty P(Y>y) dy \]============ Proof: 首先觀察等式右方,由於 $P\left( {Y > y} \right) = \int_y^\infty  {{f_Y}\left( x \right)dx} $ 故 \[\begin{array}{l} \int_0^\infty  {P\left( {Y > y} \right)dy}  = \int_0^\infty  {\left( {\int_y^\infty  {{f_Y}\left( x \right)dx} } \right)dy} \\ \begin{array}{*{20}{c}} {}&{}&{}&{}&{}&{} \end{array} = \int_0^\infty  {\left( {\int_0^\infty  {{f_Y}\left( x \right){1_{\left\{ {x \ge y} \right\}}}\left( x \right)dx} } \right)dy} \\ \begin{array}{*{20}{c}} {}&{}&{}&{}&{}&{} \end{array} = \int_0^\infty  {\left( {\int_0^\infty  {{f_Y}\left( x \right){1_{\left\{ {y \le x} \right\}}}\left( y \right)dx} } \right)dy} \end{array}\]由於 integrand 非負,由 Fubini Theorem 我們可互換積分順序並得到如下結果 \[\begin{array}{l} \int_0^\infty  {P\left( {Y > y} \right)dy}  = \int_0^\infty  {\int_0^\infty  {{f_Y}\left( x \right){1_{\le

[線性代數] 淺論有限維 實數內積空間 (0)

這次要介紹 有限維度的內積空間 (Inner Product Space),簡而言之就是有限維度向量空間 $(V, \oplus, \odot)$ 上額外定義內積運算,則我們稱此類空間為 內積空間。 Comments:  1. 有限維度內積空間稱為 歐式空間 (Euclidean Space) 2. 若為無窮維度的內積空間我們稱為 Pre-Hilbert Space ,若此無窮維度內積空間為完備空間,則稱之為 Hilbert Space 3. 為何好好的向量空間不用還要多此一舉另外又定一個 內積空間?主因是向量空間本身只定義了加法 與純量乘法的運算,如果我們想討論在向量空間中某元素的大小 或者 某兩元素之間的關係則無從得知。但是如果我們引入 內積運算 到向量空間中,則可以在原本的向量空間上將 代數 與 幾何 的概念做直接的連結,也就是我們可以透過內積引入 其上的兩元素是否 垂直 (正交) 的概念,亦可針對某元素來探討其 長度與大小 概念 。 4. 讀者可回憶 高中所學習過的 點積 (dot product),此文所探討的內積 即為 點積 的推廣。 首先定義內積 ================== Definition: Inner Product on Vector Space 令 $V$ 為實數向量空間,則 Inner Product on $V$ 為函數 $(\cdot, \cdot): V\times V \to \mathbb{R}$ 滿足下列條件 (a) $({\bf u}, {\bf u}) \ge 0$:且 $({\bf u}, {\bf u}) = 0$ 若且唯若 ${\bf u} = {\bf 0}_V$ (b) $({\bf u}, {\bf v}) = ({\bf v}, {\bf u}), \; \forall {\bf u,v} \in V$ (c) $({\bf u} + {\bf v}, {\bf w}) = ({\bf u}, {\bf w}) + ({\bf u}, {\bf v}), \; \forall {\bf u,v,w} \in V$ (d) $(c {\bf u}, {\bf v}) = c({\bf u}, {\bf v}),\; \forall {\bf u,v} \in V,

[MATLAB] 將 symbolic expression 轉成 latex 程式碼

一般而言在 MATLAB 使用中不免會碰到使用 symbolic toolbox 情況,但有時表示式非常繁雜,如果又想要把該表示方程式轉寫成 latex 貼到論文中該怎麼辦? MATLAB 提供一個非常方便的功能 latex(.) 可以幫助我們直接轉換 MATLAB symbolic expression 成為 LATEX code

[線性代數] 座標轉換矩陣

考慮 $V$ 為 $n$ 維向量空間,且 ${\bf v} \in V$。現在考慮兩組 有序基底 (ordered basis) \[\begin{array}{l} S: = \{ {{\bf{v}}_1},{{\bf{v}}_2},...,{{\bf{v}}_n}\} \\ T: = \{ {{\bf{w}}_1},{{\bf{w}}_2},...,{{\bf{w}}_n}\} \end{array}\] 則 我們可將 ${\bf v}$ 用上述有序基底做線性組合唯一表示,比如說 \[ {\bf v} = c_1 { {\bf w}_1} + ... c_n {\bf w}_n \]且其對應於  $T$ 基底的 座標向量 (coordinate vector) 與 對 $S$ 基底的 coordinate vector 我們定義如下  \[{\left[ {\bf{v}} \right]_T} := \left[ {\begin{array}{*{20}{l}} {{c_1}}\\ {{c_2}}\\  \vdots \\ {{c_n}} \end{array}} \right]; \;\;{[{\bf{v}}]_S} := \left[ \begin{array}{l} {a_1}\\ {a_2}\\  \vdots \\ {a_n} \end{array} \right] \]注意到事實上 上述 對 $T$ 基底的 coordinate vector 可看成是函數,比如說令 $L: V \to \mathbb{R}^n$ 滿足 \[ L({\bf v}) = [{\bf v}]_T \]同理,對 $S$ 基底的 coordinate vector 令 $L': V \to \mathbb{R}^n$ 滿足 \[ L'({\bf v}) = [{\bf v}]_S \] Comment: 1. 上述 $L, L'$ 統稱為 coordinate mapping 2. Coordinate mapping 為 bijective linear transformation 或稱 isomorphism。 現在若我們想建構 對於 $S$ 基底的座標向量 與 $T$ 基底座標向

[線性代數] 伴隨矩陣 $adj(A)$ 的一些性質

給定 $n \times n$ 的非奇異方陣 $A$,則下列性質成立 Claim : $adj A$ 為非奇異矩陣 Proof: 由於 $A$ 為 nonsingular,我們有 \[ A^{-1} = \frac{1}{detA} adj (A) \] 注意到等號左方 $A^{-1}$ 亦為 nonsingular (why? 由 $A$ 為 nonsingular 的定義出發,我們可知$A A^{-1} = I$ 等價說明 $A^{-1}$ 為 nonsingular),且由於 $det A$ 僅為常數,故 $adj A$ 必定為 nonsingular。 $\square$ Claim : $\det (adj A) = (\det A)^{n-1}$ Proof: 由 $A^{-1}$ 可知 \[\begin{array}{l} {A^{ - 1}} = \frac{1}{{\det A}}adj\left( A \right)\\  \Rightarrow \left( {\det A} \right)\left( {{A^{ - 1}}} \right) = adj\left( A \right)\\  \Rightarrow \det \left( {\left( {\det A} \right)\left( {{A^{ - 1}}} \right)} \right) = \det \left( {adj\left( A \right)} \right)\\  \Rightarrow {\left( {\det A} \right)^n}\det \left( {{A^{ - 1}}} \right) = \det \left( {adj\left( A \right)} \right)\\  \Rightarrow {\left( {\det A} \right)^n}\frac{1}{{\det A}} = \det \left( {adj\left( A \right)} \right)\\  \Rightarrow {\left( {\det A} \right)^{n - 1}} = \det \left( {adj\left( A \right)} \right) \end{array}\] Claim

[測度論] 淺論 Ring 與 Algebra 及其性質 (0)

令 $X$ 為一集合,且 $\mathcal{P}(X)$ 表示為 $X$ 的 Power Set。 ================= Definition: 我們稱 $R \subset \mathcal{P}(X)$ 為一個 ring 若下列條件成立 1. $\emptyset \in R$ 2. 若 $A,B \in R$ 則 $A\setminus B \in R$ 3. 若 $A, B \in R$ 則 $A \cup B \in R$ ================ 以下我們看幾個 Ring 的性質: 令 $R$ 為一個 ring ========= Property 1: 若 $A_1,...,A_n \in R$ 則 $\cup_{i=1}^n A_i \in R$ Proof: 由 $R$ 定義 (3) 可知 若 $A_1, A_2 \in R \Rightarrow A_1 \cup A_2 \in R$ ,故透過數學歸納法,假定 $A_1,...,A_n \in R \Rightarrow \cup_{i=1}^n A_i \in R$ 我們要證明 \[ A_1,...,A_n, A_{n+1} \in R \Rightarrow \cup_{i=1}^{n+1} A_i \in R \]故 令 $B := \cup_{i=1}^n A_i $ 則 \[ \cup_{i=1}^{n+1} A_i  = B\cup A_{n+1} \]由於 $A_{n+1} \in R$ ,利用 $R$ 的定義 (3) 可知 $B \cup A_{n+1} \in R$ 故得證。 $\square$ ======== Property 2: 若 $A, B \in R $ 則 $A \cap B \in R$ Proof: 注意到 $A \cap B = A \setminus (A\setminus B)$ ,又因為 $A \in R$ 且 $A\setminus B \in R$  故利用 $R$ 的定義 (2) 可知 \[ A \setminus (A\setminus B) \in R \;\;\;\; \square \] ======= Property 3: 若 $A_1,...,A

[線性代數] 應用行列式計算三角形面積

考慮 $\mathbb{R}^2$空間 中的 頂點分別為 $(x_1, y_1), (x_2, y_2)$ 與 $(x_3,y_3)$ 的三角形 如下圖所示 則我們可以計算此三角形 $P_1P_2P_3$ 面積為 三角形$P_1P_2P_3$ 面積 = 梯形$AP_1P_2B$ 的面積  + 梯形 $BP_2P_3C$ 的面積 - 梯形 $A P_1 P_3 C$的面積 現在回憶 國/高中數學,梯形面積 $=$(上底 $+$ 下底) $\times$ 高 $/$ 2,故我們有 \[\begin{array}{l} Area\left( {{P_1}{P_2}{P_3}} \right) = Area\left( {A{P_1}{P_2}B} \right) + Area\left( {B{P_2}{P_3}C} \right) - Area\left( {A{P_1}{P_3}C} \right)\\ \begin{array}{*{20}{c}} {}&{}&{} \end{array} = \frac{1}{2}\left( {{y_1} + {y_2}} \right)\left( {{x_2} - {x_1}} \right) + \frac{1}{2}\left( {{y_3} + {y_2}} \right)\left( {{x_3} - {x_2}} \right) - \frac{1}{2}\left( {{y_3} + {y_1}} \right)\left( {{x_3} - {x_1}} \right)\\ \begin{array}{*{20}{c}} {}&{}&{} \end{array} = \frac{1}{2}\left( {{x_1}{y_3} - {x_1}{y_2} + {x_2}{y_1} - {x_2}{y_3} + {x_3}{y_2} - {x_3}{y_1}} \right)\\ \begin{array}{*{20}{c}} {}&{}&{} \end{array} =  - \frac{1}{2}\left( {\left( {{x_2}{y_3} - {x_3}{y_2}} \right) - \left( {{x_1}{

[轉載] How to Study Math? -Paul R. Halmos

Don't just read it; fight it!   Ask your own questions,  look for your own examples, discover your own proofs.  Is the hypothesis necessary? Is the converse true?  What happens in the classical special case? What  about the degenerate cases? Where does the proof  use the hypothesis? --- Paul R. Halmos

[線性代數] 淺論座標

令 $V$ 為 $n$ 維向量空間,則我們知道 $V$ 有基底 (basis) $S$ 且其元素為 $n$ 維向量。現在我們定義 $S :=\{{\bf v}_1,...{\bf v}_n\}$ 為向量空間 $V$ 的一組有序基底 (ordered basis) 則任意向量 ${\bf v} \in V$ 可由上述有序基底唯一表示成以下的線性組合形式: \[ {\bf v} = a_1 {\bf v}_1 + a_2 {\bf v}_2 + ... + a_n {\bf v}_n \]其中 $a_1,...a_n \in \mathbb{R}^1$ Definition: Coordinate Vector 定義 ${\bf v}$ 對應於有序基底 $S$ 的座標向量 (coordinate vector) 為 \[{[{\bf{v}}]_S}: = \left[ \begin{array}{l} {a_1}\\ {a_2}\\  \vdots \\ {a_n} \end{array} \right]\] 且其中 $[{\bf v}]_S$ 的元素 $a_i$ 稱之為 ${\bf v}$ 對應於有序基底的座標。 Example 1: 考慮向量空間 \[ V:= P_2 := \{p(t) = a_2t^2 + a_1t + a_0: a_2,a_1,a_0 \in \mathbb{R}^2\} \]且令基底 $S= \{t^2, t, 1\}$ 現考慮 ${\bf v}:= p(t) = \alpha t^2 + \alpha t^1 + \alpha$ 求 $[{\bf v}]_S = ?$ Solution 注意到 ${\bf v}:= p(t) = \alpha t^2 + \alpha t^1 + \alpha$,暫稱此式為 $(*)$ 又因為 ${\bf v} \in V$ 故由 $\bf v$ 可由 $S$ 的有序基底 $\{ t^2, t,1\}$ 透過線性組合唯一表示:也就是說 \[{\bf{v}} = p\left( t \right) \in {P_2} \Leftrightarrow {\bf v} = {a_2}{t^2} + {a_1}t + {a_0} \;\;\;\;\; (\star) \]

[自動控制] 穩態誤差與特性方程反求 轉移函數問題

考慮單位回授控制系統如下圖 現在假設 1. 閉迴路系統對 單位步階訊號 的穩態誤差為零: 2. 閉迴路轉移函數 $Y(s)/R(s)$ 的特性方程式為 $s^3 + 4s^2 + 6s +4$ 試決定 $G(s)$ Solution : 首先決定誤差轉移函數 $E(s)$ 並將其以 $G(s)$ 與 $R(s)$ 表示:由於 $Y(s) = G(s)E(s)$ 且 $E(s) = R(s) - Y(s)$ 我們可推得 \[ E(s) = R(s) - Y(s) = R(s) - G(s) E(s) \]故 \[ E(s) = \frac{R(s)}{1 + G(s)} \] 現在令 $G(s) := \frac{n(s)}{d(s)}$ 則 \[E(s) = \frac{{R(s)}}{{1 + G(s)}} = \frac{{R(s)}}{{1 + \frac{{n\left( s \right)}}{{d\left( s \right)}}}} = \frac{{d\left( s \right)}}{{d\left( s \right) + n\left( s \right)}}R(s) \]故由條件 2 可知 \[ d(s) + n(s) = s^3 + 4s^2 + 6s +4 \] 接著由條件1可知此閉迴路系統對 單位步階訊號 的穩態誤差為零:亦即 $\mathop {\lim }\limits_{s \to 0} sE(s) = 0$,故取 $R(s) = 1/s$ 為單位步階訊號,我們有 \[\mathop {\lim }\limits_{s \to 0} s\frac{{d\left( s \right)}}{{d\left( s \right) + n\left( s \right)}}\frac{1}{s} = \mathop {\lim }\limits_{s \to 0} \frac{{d\left( s \right)}}{{d\left( s \right) + n\left( s \right)}} = 0\]或者 \[\mathop {\lim }\limits_{s \to 0} \frac{{d\left( s \right)}}{{{s^3} + 4{s^2} + 6s +