Basic Linear algebra : Vector part I


ความหมายของ Vector

"objects called vectors, which may be added together and multiplied ("scaled") by numbers, called scalars. Scalars are often taken to be real numbers" [1]

จากนิยามนี้  Vector มีอยู่ในหลายรูปแบบ เช่น 

1. ตัวเลข  : 6.02, 0.002, 3.414,... 

\( \begin{align*} 6.02 + 0.002 &= 6.022 \\ 2 \times 6.02 &= 12.04 \\ \end{align*} \)

2. Polynomials หรือ Functions : \( \) 

\( \begin{align*} f(x) &= 1+ x - 2x^2 \\ g(x) &= x+3x^2-3x^3 + x^4 \\ f(x) + g(x) &= 1+2x+x^2-3x^3+x^4 \\ 2 \cdot f(x) &= 2+2x-4x^2\\ \end{align*} \)

3. Coordinate ใน n-space  (Geometric vectors) : 

4. Elements of Real Number :

\( \begin{align*} \vec{v} &= \begin{bmatrix}1\\ 2\\ 3 \end{bmatrix} \\ \vec{u} &= \begin{bmatrix}\frac{4}{3}\\ \frac{22}{7}\\ \frac{3}{5} \end{bmatrix} \\ \vec{v} + \vec{u} &= \begin{bmatrix} 1 + \frac{4}{3} \\ 2 + \frac{22}{7}\\ 3 + \frac{3}{5} \end{bmatrix}= \begin{bmatrix} \frac{7}{3} \\ \frac{36}{7}\\ \frac{12}{5} \end{bmatrix} \\ 2 \times \vec{v} &= \begin{bmatrix} 2 \times 1\\ 2 \times 2\\ 2 \times 3 \end{bmatrix} = \begin{bmatrix} 2 \\ 4 \\ 6 \end{bmatrix}\\ \end{align*} \)

 รูปแบบนี้จะเขียนได้สองแบบคือแนวตั้ง (เรียกว่า column vector)  \( \begin{bmatrix} 1 \\ 2\\3\\ \vdots \end{bmatrix}\) หรือ แนวนอน (เรียกว่า row vector)  \( \begin{bmatrix} 1 & 2 & 3 & \cdots \end{bmatrix}\)  ก็ได้ และเป็นรูปแบบที่ถูกใช้ในข้อเขียนนี้ 

จากตัวอย่างทั้ง 4 แบบ มีข้อสังเกตุว่าการรวมกันของ vector ต้องอยู่ในรูปแบบเดียวกันเท่านั้น  (any two things of the same kind can be added) ถ้าต่างรูปแบบกันจะไม่สามารถหาคำตอบได้ เช่น  \( \begin{bmatrix} 1\\2\\3\end{bmatrix} + 3x^2\) 

นอกจากนี้ จะเห็นว่ามีคำ "scalar" ปรากฏอยู่ ความหมายของ scalar คือ unit of data เป็นสิ่งที่ทำให้เราทราบค่าของสิ่งนั้น เราจะเอา scalar มาจาก set ของจำนวนจริง 


รูปที่ 1

ในรูปที่ 1,  \( \vec{v} = \begin{bmatrix} 2 \\ 2\end{bmatrix}\) , \(\vec{v} \) เป็นสิ่งที่ถูกเรียกว่า vector ในขณะที่เลข 2 ทั้งสองตัวในวงเล็บเป็นจำนวนจริงเรียกว่า scalar หากกล่าวเช่นนี้แล้ว เราจะนับ scalar เป็น vector ได้ในบางกรณี บางมุมมอง ที่นับได้เพราะมันไม่ขัดกับนิยามที่กล่าวมา 

[top]


Vector กับ Coordinate system

เราทราบแล้วว่าเราสามารถใช้ตัวเลขหนึ่งตัวแทนจุดบนเส้นตรงแนวนอนหรือที่เรียกว่าเส้นจำนวน ใช้ตัวเลขสองตัวหรือสามตัวแทนจุดบนระนาบ (plane) การใช้ตัวเลขทำนองนี้คือการบอกตำแหน่งของจุด [2] บนระนาบ จำนวนของตัวเลขที่ใช้เป็นการบอกตำแหน่งขึ้นกับจำนวน space (dimension) ที่กำลังกล่าวถึง เช่น 
1-space ใช้ 1 ตัว  
2-space ใช้ 2  ตัว [2, 3] ,[4, 5], ... ใช้ระบุตำแหน่งบนระนาบ x-axis, y-axis  
3-space ใช้ 3 ตัว  [1, 2, 3], [4, 5, 6], ... ใช้ระบุตำแหน่งในระนาบ x-axis, y-axis , z-axis 
...
n-space ใช้ n ตัว [\( x_1,x_2,x_3,...,x_n\)]

รูปที่ 2

การระบุตำแหน่งของจุด \( X\) ใดๆ บน \( n-space\) ด้วยระบบตัวเลขแบบนี้ อาจเรียกว่า coordinate ของ \( X \) ซึ่งมีรูปแบบที่เหมือนกับการเขียน vector แบบ elements of real number  

เมื่อต้องการระบุว่า vector นั้นอยู่ใน space  หรือ dimension ใด เขียนแทนด้วย \( \Re^n\) เลขกำลังคือจำนวน space และ \( \Re \) หมายถึง set ของจำนวนจริง 

\( \Re^2 \) แทน 2-space : \(\begin{bmatrix}0.5 \\ \pi \end{bmatrix} \in \Re^2\) 

\(\Re^3  \)  แทน 3-space  : \(\begin{bmatrix}\frac{\pi}{4} \\ \frac{\pi}{2} \\ \frac{\pi}{3} \end{bmatrix} \in \Re^3\)

\(\Re^n  \)  แทน n-space  : \(\vec{x} = \begin{bmatrix}x_1\\x_2\\x_3\\ \vdots\\x_n \end{bmatrix} \in \Re^n\)

ระบบ coordinate ถือว่าทุกจุดใน space มีจุดเริ่มต้นมาจากจุด origin มี coordinate เป็น 0 (จำนวน 0 ขึ้นกับว่าอยู่ในขนาด space ใด) และสมาชิกใน coordinate ของจุด map ไปยังแกนของระนาบในแนวฉากทุกแกน เป็นการบอกระยะห่างของจุดนั้นจาก origin  

ดูจากรูปที่ 2 เส้นประแสดงแนวการ map จาก coordinate ลงไปยังแกนในแนวฉาก ยกตัวอย่างเช่น \( \vec{x} = \begin{bmatrix} 2 \\3 \\1\end{bmatrix}\) จะหมายถึง จุดนี้อยู่ใน 3-space หรือ \( \Re^3\) มีระยะห่างจาก \( \text{origin} = \begin{bmatrix} 0 \\0 \\0\end{bmatrix}\)  บน x-axis = 2 หน่วย บน y-axis = 3 หน่วย และ บน z-axis =1 หน่วย (ดูรูปที่ 3 ประกอบ)
รูปที่ 3

การใช้ระบบ coordinate มาเขียนเป็น vector มีข้อดีคือทำให้รับรู้ถึงทิศทางและสามารถคำนวณหา attitude (norm) ได้ด้วย (จะกล่าวถึงต่อไป)

[top]


Special vectors

Zero vector คือ vector ที่สมาชิกทุกตัวเป็น 0 เช่น \( \vec{a} =  \begin{bmatrix} 0 \\  0 \\ 0\end{bmatrix} \)

Unit vector คือ vector ที่มีขนาด (magnitude) เป็น 1 บางครั้งเรียก normalized vector เขียนแทนด้วย \(\hat{v}\) หาได้จาก \(\hat{v} = \frac{\vec{v}}{\|\vec{v} \|} \) (การคูณ vector ด้วย \(\frac{1}{\text{magnitude}}\) เรียกว่าการทำ normalization )

Sparse vector คือ vector ที่สมาชิกส่วนใหญ่เป็น 0 (ด้วยนิยามนี้ เราอาจนับ unit vector และ zero vector ว่าเป็น sparse vector ด้วยก็ได้)  เช่น \( \vec{x_1} = \begin{bmatrix} 2 \\ 0 \\0 \\ 0 \end{bmatrix}, \vec{x_2} = \begin{bmatrix} 0\\1\\0\\0 \\3 \end{bmatrix},\vec{x_3} = \begin{bmatrix} 10\\0\\2\\0\\0\\5\\0\\0 \end{bmatrix},\vec{x_4} = \begin{bmatrix} 0\\0\\0\\1000 \end{bmatrix}\)


[top]


Basic vector operations 


1. Addition หรือการบวก vector  
vector ที่จะรวมกันได้ต้องอยู่ใน space เดียวกัน หรือมีจำนวนสมาชิกเท่ากัน การรวมกันจะเกิดแบบ element-wise คือ จะนำเอาสมาชิกของ vector ที่อยู่ตำแหน่งเดียวกันมารวมกัน

\[ \begin{align*} \vec{x} &= \begin{bmatrix} x_1 \\ x_2 \\ x_3 \\ \vdots \\ x_n \\ \end{bmatrix} , \vec{y} = \begin{bmatrix} y_1 \\ y_2 \\ y_3 \\ \vdots \\ y_n\\ \end{bmatrix} \\ \vec{x} + \vec{y} &= \begin{bmatrix} x_1 + y_1 \\ x_2 + y_2 \\ x_3+y_3 \\ \vdots \\ x_n +y_n\\ \end{bmatrix} \\ \end{align*} \] เช่น \[ \begin{align*} \vec{x} &= \begin{bmatrix} 1 \\ 2 \\ 3 \end{bmatrix} , \vec{y} = \begin{bmatrix} 3 \\ 2 \\ 1 \end{bmatrix} \\ \vec{x} + \vec{y} &= \begin{bmatrix} 1 + 3 \\ 2 + 2 \\ 3+1 \end{bmatrix} = \begin{bmatrix} 4 \\ 4 \\ 4 \end{bmatrix} \end{align*} \]

คุณสมบัติพื้นฐานของการบวก

  1. Commutativity (การสลับ) :  \(\vec{x} + \vec{y} = \vec{y} + \vec{x} \)
  2. Associativity (การจัดหมู่)  : \(\vec{x} + (\vec{y} +\vec{z}) =  (\vec{x} + \vec{y}) +\vec{z} \) 
  3. Adding to zero vector has no effect : \( \vec{x} + \vec{0} = \vec{x} \)
  4. \(\vec{x} - \vec{x} = \vec{0} \)


2 .  Vector-scalar  multiplication

เช่นเดียวกันกับการบวก การคูณ vector ด้วย scalar เป็น element-wise operation ดังนี้

\[ \beta \cdot \begin{bmatrix} x_1 \\ x_2 \\ x_3 \\ \vdots \\ x_n \end{bmatrix} = \begin{bmatrix} \beta \cdot x_1 \\ \beta \cdot x_2 \\ \beta \cdot x_3 \\ \vdots \\ \beta \cdot x_n \end{bmatrix} \] เมื่อ \( \beta \in \Re \)

ยกตัวอย่าง

\[ 2 \times \begin{bmatrix} 0.1 \\ 0.2 \\ 0.3 \end{bmatrix} = \begin{bmatrix} 2 \times 0.1 \\ 2 \times 0.2 \\ 2 \times 0.3 \end{bmatrix} = \begin{bmatrix} 0.2 \\ 0.4 \\ 0.6 \end{bmatrix} \]

คุณสมบัติพื้นฐานของการคูณ

  1. Associativity (การจัดหมู่)  : \( (\beta \alpha) \vec{x} = \beta (\alpha \vec{x}) \)  \[ (2 \times 3) \begin{bmatrix} 0.1 \\ 0.2 \\ 0.3 \end{bmatrix} = (2 \times \begin{bmatrix} 0.1 \\ 0.2 \\ 0.3 \end{bmatrix}) \times 3 = \begin{bmatrix} 0.6 \\ 1.2 \\ 1.8 \end{bmatrix} \]
  2. Distributivity (การกระจาย) :

    \( (\alpha + \beta)\vec{x} = \alpha \vec{x} + \beta \vec{x} \) \[ \begin{align*} (2 + 3) \begin{bmatrix} 0.1 \\ 0.2 \\ 0.3 \end{bmatrix} &= 2 \times \begin{bmatrix} 0.1 \\ 0.2 \\ 0.3 \end{bmatrix} + 3 \times \begin{bmatrix} 0.1 \\ 0.2 \\ 0.3 \end{bmatrix} \\ &= \begin{bmatrix} 0.2 \\ 0.4 \\ 0.6 \end{bmatrix} + \begin{bmatrix} 0.3 \\ 0.6 \\ 0.9 \end{bmatrix} \\ &= \begin{bmatrix} 0.5 \\ 1.0 \\ 1.5 \end{bmatrix} \end{align*} \]

    \( \alpha (\vec{x} + \vec{y}) = \alpha \vec{x} + \alpha \vec{y} \) \[ \begin{align*} 2 ( \begin{bmatrix} 1 \\ 2 \\ 3 \end{bmatrix} + \begin{bmatrix} 3 \\ 2 \\ 1 \end{bmatrix}) &= 2 \times \begin{bmatrix} 1 \\ 2 \\ 3 \end{bmatrix} + 2 \times \begin{bmatrix} 3 \\ 2 \\ 1 \end{bmatrix} \\ &= \begin{bmatrix} 2 \\ 4 \\ 6 \end{bmatrix} + \begin{bmatrix} 6 \\ 4 \\ 2 \end{bmatrix} \\ &= \begin{bmatrix} 8 \\ 8 \\ 8 \end{bmatrix} \end{align*} \]


[top]


Vector space

[3,4,5]
vector space หรือ linear space คือ set  ของ vector  ที่มีเงื่อนไขว่า เมื่อนำเอา binary operation สองตัวคือ vectors addition และ vector-scalar multiplication (เขียนแทนด้วย \( \cdot \)) มาใช้แล้ว จะต้องสอดคล้องกับเงื่อนไขดังนี้

1. \(  \forall x \in V , r \in \Re \Rightarrow r \cdot x \in V \)
2. \( \forall x \in V,  r,s \in \Re \Rightarrow (r + s) \cdot x  = r \cdot x + s \cdot x \)
3. \( \forall x,y \in V , r \in \Re \Rightarrow r \cdot (x+y) = r\cdot x + r\cdot y\)
4. \( \forall x \in V,  r,s \in \Re \Rightarrow  (r \cdot s) \cdot x = r\cdot (s \cdot x) \)
5. \( \forall x \in V \Rightarrow 1 \cdot x = x\)
6. \( \forall x,y \in V \Rightarrow x + y \in V \)
7. \( \forall x,y,z \in V \Rightarrow (x + y) +z =  x + ( y +z) \)
8. \( \exists e \in V, \forall x \in V \Rightarrow e + x = x, x + e = x\)
9. \( \exists y \in V, \forall x \in V \Rightarrow y + x = e\)
10. \( \forall x, y \in V,  \Rightarrow y + x =  x + y \)

[top]


Linear combination


ถ้ามี \( \vec{v}\) ที่อยู่ใน vector space V แล้ว จะสามารถทำให้ \( \vec{v} \) อยู่ในรูปของผลรวมของ  vector-scalar multiplication ของ vector อื่นที่อยู่ใน vector space เดียวกันได้ [6]

\[ \vec{v} = a_1 \cdot \vec{u_1} + a_2 \cdot \vec{u_2} + a_3 \cdot \vec{u_3} + ... + a_n \cdot \vec{u_n} \]

โดยที่  \( \vec{v},\vec{u_1},...,\vec{u_n} \in V \)  และ \( a_1,a_2, a_3,a_n \in \Re\)  เรียก \( \vec{v} \) ว่าเป็น linear combination ของ \( \vec{u_1},\vec{u_2},\vec{u_3},...,\vec{u_n}\)

ตัวอย่าง 1 :
Element of Real : 
\[ \begin{bmatrix} 11 \\ 16 \end{bmatrix} = 2 \cdot \begin{bmatrix} 1 \\ 2 \end{bmatrix} + 3 \cdot \begin{bmatrix} 3 \\ 4 \end{bmatrix}\]

นั่นคือ \( \begin{bmatrix} 11 \\ 16 \end{bmatrix}\) คือ linear combination ของ \( \begin{bmatrix} 1 \\ 2 \end{bmatrix} , \begin{bmatrix} 3 \\ 4 \end{bmatrix}\)

Polynomail :
\[ x^2 -1  = a_1(1) + a_2(x+1) + a_3(x^2+x+1)\]

เมื่อ \(a_3 = 1,a_2+a_3 =0, a_3+a_2+a_1 = 0\)
 นั่นคือ  \( x^2 -1 \) คือ linear combination ของ \(1 ,x+1 ,x^2+x+1 \)

เราอาจได้เห็นรูปแบบของการเขียน linear combination คือ \( \sum_{i=1}^{n}\beta_i \cdot \vec{x_i} \) , \( \beta_i \in \Re\) และ \( \vec{x_i} \in V\)

ตัวอย่าง 2  : ถ้ามี \( \vec{v_1} = \begin{bmatrix} 2\\3\\5\end{bmatrix}\), \( \vec{v_2} = \begin{bmatrix} 8\\13\\21\end{bmatrix}\) จงแสดงว่า \( \vec{u} = \begin{bmatrix} 1\\1\\2\end{bmatrix} \) เป็น linear combination ของ \( \vec{v_1} , \vec{v_2}\)

ตามนิยามแล้ว ถ้า \( \vec{u}\) เป็น linear combination ของ \( \vec{v_1}\) และ \( \vec{v_2}\) แล้ว เราย่อมจะหาค่า \( a_1,a_2\)  ที่ทำให้สมการนี้เป็นจริง \[ \vec{u} = a_1 \cdot \vec{v_1} + a_2 \cdot \vec{v_2} \]

แทนค่าที่กำหนดมา
\[ \begin{align*} a_1 \cdot \begin{bmatrix} 2\\3\\5\end{bmatrix} + a_2 \cdot \begin{bmatrix} 8\\13\\21\end{bmatrix} &= \begin{bmatrix} 1\\1\\2\end{bmatrix} \\ \begin{bmatrix} 2 \times a_1 \\3 \times a_1 \\5 \times a_1 \end{bmatrix} + \begin{bmatrix} 8 \times a_2 \\13 \times a_2 \\ 21 \times a_2 \end{bmatrix} &= \begin{bmatrix} 1\\1\\2\end{bmatrix} \\ \end{align*} \] นั่นคือ \[ \begin{align*} 2 a_1 + 8 a_2 &= 1 \tag{1} \\ 3 a_1 + 13 a_2 &= 1 \tag{2} \\ 5 a_1 + 21 a_2 &= 2 \tag{3} \\ \end{align*} \] เมื่อแก้สมการออกมาแล้วได้ \(a_1=\frac{5}{2}, a_2=\frac{-1}{2} \) แสดงว่า \(\vec{u} \) คือ linear combination ของ \(\vec{v_1},\vec{v_2}\)

linear combination ของ vector เป็นพื้นฐานสำคัญในเรื่อง linear algebra ซึ่งใช้กันบ่อยใน Machine learning

[top]


Vector spanning (Vector span / Span ) [7]


จะเรียกสั้นว่า span เป็นเรื่องต่อเนื่องจาก linear combination ความหมายของ span คือ ถ้ามี set ของ vector \( X = \{ \vec{v_1},\vec{v_2},\vec{v_3},...,\vec{v_n }\} \) แล้ว span ของ X คือ set ของ linear combination ของสมาชิกใน X  เขียนแทนด้วย  \( \text{span(X)}  \)  

ถ้ามี \( V = \{ \vec{v_1},\vec{v_2} \}\) โดย \( \vec{v_1} = \begin{bmatrix} 1\\2\end{bmatrix},\vec{v_2} = \begin{bmatrix} 3\\5\end{bmatrix}  \)  จะได้ span(V) = \( a_1 \cdot \vec{v_1} + a_2 \cdot \vec{v_2} \)

ตัวอย่าง 1 : กำหนดให้ \( V = \{ \begin{bmatrix} 2\\3\end{bmatrix}, \begin{bmatrix} 1\\2 \end{bmatrix} \} \) จงพิสูจน์ว่า \(\text{span(V)} = \begin{bmatrix} 19\\3\end{bmatrix} \)

การพิสูจน์คือ การพยายามหาค่า \( a_1,a_2\) ที่ทำให้สมการ (4) เป็นจริง
\[\begin{align*} \begin{bmatrix} 19\\3\end{bmatrix} &= a_1 \cdot \begin{bmatrix} 2\\3\end{bmatrix} + a_2 \cdot \begin{bmatrix} 1\\2 \end{bmatrix} \tag{4} \\ \begin{bmatrix} 19\\3\end{bmatrix} &= \begin{bmatrix} 2 \times a_1 \\ 3 \times a_1 \end{bmatrix} + \begin{bmatrix} 1 \times a_2\\ 2 \times a_2 \end{bmatrix} \\ \end{align*} \] นั่นคือ \[\begin{align*} 19 &= 2 a_1 + a_2 \\ 3 &= 3 a_1 + 2 a_2 \\ \end{align*} \]

ได้ผลลัพธ์คือ \(a_1= 35, a_2 = -51 \) แสดงว่าสมการ (4) เป็นจริงได้ ดังนั้น \(\text{span(V)} = \begin{bmatrix} 19\\3 \end{bmatrix} \) เป็นจริง

ตัวอย่าง 2 กำหนดให้ V = \(\{ \begin{bmatrix} 3\\1\end{bmatrix}, \begin{bmatrix} -4\\-2\end{bmatrix}, \begin{bmatrix} 2\\3\end{bmatrix}, \begin{bmatrix}4\\-2\end{bmatrix}, \begin{bmatrix}1\\3\end{bmatrix} \} \) vector span คือ set ของ span(V) เราสามารถสร้าง vector span จาก V โดยการสร้าง linear combination จากสมาชิกขอ V เช่น

\[ \begin{align*} \begin{bmatrix}2.05\\1.21\end{bmatrix} &= 0.196 \cdot \begin{bmatrix}1\\3\end{bmatrix} + 0.62 \cdot \begin{bmatrix}3\\1\end{bmatrix} \tag{5} \\ \\ \begin{bmatrix}2.34\\1.904\end{bmatrix} &= 0.62 \cdot \begin{bmatrix}3\\1\end{bmatrix} + 0.88 \cdot \begin{bmatrix}1 \\3\end{bmatrix} \tag{6} \\ \end{align*} \]

นำผลจาก (5),(6) มาเขียนเป็น set , S = \(\{\begin{bmatrix}2.05\\1.21\end{bmatrix}, \begin{bmatrix}2.34\\1.904\end{bmatrix}\} \) set นี้ก็คือ vector span ของ V จะสังเกตุได้ว่า ทั้ง S,V \( \in \Re^2 \)

รูปที่ 4


อาจจะช่วยให้เห็นภาพชัดขึ้นการ span คืออะไร ถ้าเอาสมาชิกใน V มาวาดเป็นลูกศรตามระบบ coordinate เส้นสีเขียวแทน vector ที่เป็นสมาชิกของ V เส้นสีแดง แทน vector ใน S ซึ่ง span มาจาก V (linear combination ด้วยสมาชิกของ V) หากดูผ่านโดยเร็ว อาจมองว่า vector สีแดง ไม่ได้สัมพันธ์อะไรกับ vector สีเขียวเลย แต่แท้จริง vector สีแดงเกิดจาก linear combination ของ vector สีเขียว ดังนั้น vector สีแดงจึงมี  information ที่มาจาก vector สีเขียว

[top]


Linear dependence และ Linear independence [8]
เอานิยามมาเขียนไว้ก่อน 

"A sequence of vectors  from a vector space V is said to be linearly dependent, if there exist scalars  , not all zero, such that "

หรืออาจกล่าวอีกแบบว่า ถ้ามี V = {\( \vec{v_1},\vec{v_2},...,\vec{v_n}\)} และ linear combination \( \vec{0} =  a_1 \cdot \vec{v_1} + a_2 \cdot \vec{v_2} +...+ a_n \cdot \vec{v_n} \) แล้ว ถ้ามีเพียง \( a_1=0,a_2=0,a_3=0,...,a_n=0 \) กรณีเดียวที่ทำให้ linear combination นั้นเป็นจริง เราจะเรียก V ว่าเป็น linearly independent ถ้าไม่จะเรียกเป็น linearly dependent

ตัวอย่าง 1 กำหนด V = {\( \begin{bmatrix} 3\\6\end{bmatrix},\begin{bmatrix} 4\\8\end{bmatrix}\)} แสดงให้ดูว่า V เป็น linear independence หรือ linear dependence 

เราต้องหาค่า \( a_1,a_2\) จากสมการ

\[ a_1 \cdot   \begin{bmatrix} 3\\6\end{bmatrix} + a_2 \cdot \begin{bmatrix} 4\\8\end{bmatrix} =  \begin{bmatrix} 0\\0\end{bmatrix} \tag{7}\]

นั่นคือ

\[ \begin{align*} \begin{bmatrix} 3 a_1 \\ 6 a_1 \end{bmatrix} + \begin{bmatrix} 4 a_2 \\ 8 a_2 \end{bmatrix} &= \begin{bmatrix} 0 \\ 0 \end{bmatrix} \\ \\ 3 a_1 + 4 a_2 &= 0 \\ 6 a_1 + 8 a_2 & = 0 \\ a_1 &= \frac{-4}{3} a_2 \tag{8} \\ \end{align*} \]

จาก (8) จะเห็นว่าค่าของ \(a_1,a_2 \) มีหลายค่าที่เป็นไปได้ เช่น (0,0), (\(\frac{-4}{3} \),1) ที่ทำให้ (7) เป็นจริง  จึงสรุปได้ว่า V มีลักษณะเป็น linearly dependent

ข้อสังเกตุ : เมื่อเอา vector ใน V (linear dependent) มาเขียนบนกราฟ จะเห็นว่าทั้งสองชี้ไปทางเดียวกัน ต่างกันที่ความยาว (ขนาด) เป็นการบอกว่า linear dependent vector มีข้อมูลที่ซ้ำซ้อนกันอยู่ (redundant information)


ตัวอย่าง 2 : กำหนด V = {\( \begin{bmatrix} -5\\-3\end{bmatrix},\begin{bmatrix} 1\\2\end{bmatrix}\)} แสดงให้ดูว่า V เป็น linearly independence หรือ linearly dependence 

ใช้วิธีการเดียวกับตัวอย่างก่อน 

\[ a_1 \cdot \begin{bmatrix} -5\\-3\end{bmatrix} + a_2 \cdot \begin{bmatrix} 1\\2\end{bmatrix} =  \begin{bmatrix} 0\\0\end{bmatrix} \tag{9}\]

\[ \begin{align*} \begin{bmatrix} -5 a_1 \\ -3 a_1 \end{bmatrix} + \begin{bmatrix} 1 a_2 \\ 2 a_2 \end{bmatrix} &= \begin{bmatrix} 0 \\ 0 \end{bmatrix} \\ \\ -5 a_1 + a_2 &= 0 \\ -3 a_1 + 2 a_2 & = 0 \\  \\ \end{align*} \]

 จะเห็นว่าค่าของ \(a_1,a_2 \) เป็นไปได้กรณีเดียวที่จะทำให้ (9) เป็นจริงคือ (0,0)  จึงสรุปได้ว่า V มีลักษณะเป็น linearly independent

ข้อสังเกตุ    vectors ใน V ซึ่งเป็น linearly independent  มีทิศทางไม่สอดคล้องกัน


[top]



Norm ของ vector [9]

"norm" หรือ "magnitude" ของ vector คือค่าของขนาดหรือความยาวของ vector ที่นับจากจุด origin ไปยังจุดปลายของ vector ในระบบ coordinate    

norm ของ \( vec{u}\) เขียนแทนด้วย \( \mid\mid u \mid\mid \)  คุณสมบัติของ norm มีดังนี้

1. \( \alpha \in \Re,  \mid\mid \alpha \vec{v} \mid\mid = \mid \alpha \mid \cdot \mid\mid \vec{v} \mid\mid \)

2. \( \mid\mid\vec{v} + vec{u} \mid\mid  \leq \mid\mid \vec{v} \mid\mid + \mid\mid \vec{u} \mid\mid\)

3. \( \mid\mid \vec{v} \mid\mid \geq 0 \)

การคำนวณหาค่าของ norm

1. Euclidean norm  เป็นการ norm ที่ใช้บ่อย การคำนวณใช้หลักการของ Pythagorean equation [10] คือการวัดตามแนวเส้นทะแยงมุม เช่น  \[\vec{v} =  \begin{bmatrix}3\\4\end{bmatrix}\] 

\[ \| \vec{v} \| = \sqrt{3^2 + 4^2} = \sqrt{25} = 5 \]

รูปที่ 5

\[ \begin{align*} \vec{v_2} &= \begin{bmatrix} 2\\-2\\3\\4 \end{bmatrix} \\ \|\vec{v_2} \| &= \sqrt{2^2 + -2^2 + 3^2 + 4^2} = \sqrt{33} \end{align*} \]

Euclidean norm บางครั้งจะเรียกว่า \( L_2\)

2. Manhattan norm ได้มาจากวิธีการเดินทางใน Manhattan ซึ่งวางผังเมืองไว้เป็นแบบ grid ขนาดของ vector ที่วัดด้วยวิธีนี้คือผลรวมของ element ใน vector นั้น เช่น \( \vec{v} =  \begin{bmatrix}3\\4\end{bmatrix}\) norm จะมีค่า \( \| \vec{v} \| = \mid 3+4 \mid = 7  \) Manhattan norm บางครั้ง จะเรียกว่า \( L_1\)

[top]


เอกสารอ้างอิง

[1] https://en.wikipedia.org/wiki/Vector_space

[2] https://en.wikipedia.org/wiki/Coordinate_system

[3] https://en.wikipedia.org/wiki/Abelian_group

[4] https://en.wikipedia.org/wiki/Group_(mathematics)

[5] https://en.wikipedia.org/wiki/Vector_space

[6] https://en.wikipedia.org/wiki/Linear_combination

[7] https://en.wikipedia.org/wiki/Linear_span

[8] https://en.wikipedia.org/wiki/Linear_independence

[9] https://en.wikipedia.org/wiki/Norm_(mathematics)

[10] https://en.wikipedia.org/wiki/Linear_independence#Definition

[11] https://en.wikipedia.org/wiki/Dot_product

[12] https://en.wikipedia.org/wiki/Inner_product_space

[13] https://en.wikipedia.org/wiki/Orthogonality

[14] https://en.wikipedia.org/wiki/Cosine_similarity

[15] https://en.wikipedia.org/wiki/Basis_(linear_algebra)








ความคิดเห็น