ความหมายของ Vector
"objects called vectors, which may be added together and multiplied ("scaled") by numbers, called scalars. Scalars are often taken to be real numbers" [1]
จากนิยามนี้ Vector มีอยู่ในหลายรูปแบบ เช่น
1. ตัวเลข : 6.02, 0.002, 3.414,...
\( \begin{align*} 6.02 + 0.002 &= 6.022 \\ 2 \times 6.02 &= 12.04 \\ \end{align*} \)
2. Polynomials หรือ Functions : \( \)
\( \begin{align*} f(x) &= 1+ x - 2x^2 \\ g(x) &= x+3x^2-3x^3 + x^4 \\ f(x) + g(x) &= 1+2x+x^2-3x^3+x^4 \\ 2 \cdot f(x) &= 2+2x-4x^2\\ \end{align*} \)
3. Coordinate ใน n-space (Geometric vectors) :
4. Elements of Real Number :
\( \begin{align*} \vec{v} &= \begin{bmatrix}1\\ 2\\ 3 \end{bmatrix} \\ \vec{u} &= \begin{bmatrix}\frac{4}{3}\\ \frac{22}{7}\\ \frac{3}{5} \end{bmatrix} \\ \vec{v} + \vec{u} &= \begin{bmatrix} 1 + \frac{4}{3} \\ 2 + \frac{22}{7}\\ 3 + \frac{3}{5} \end{bmatrix}= \begin{bmatrix} \frac{7}{3} \\ \frac{36}{7}\\ \frac{12}{5} \end{bmatrix} \\ 2 \times \vec{v} &= \begin{bmatrix} 2 \times 1\\ 2 \times 2\\ 2 \times 3 \end{bmatrix} = \begin{bmatrix} 2 \\ 4 \\ 6 \end{bmatrix}\\ \end{align*} \)
รูปแบบนี้จะเขียนได้สองแบบคือแนวตั้ง (เรียกว่า column vector) \( \begin{bmatrix} 1 \\ 2\\3\\ \vdots \end{bmatrix}\) หรือ แนวนอน (เรียกว่า row vector) \( \begin{bmatrix} 1 & 2 & 3 & \cdots \end{bmatrix}\) ก็ได้ และเป็นรูปแบบที่ถูกใช้ในข้อเขียนนี้
จากตัวอย่างทั้ง 4 แบบ มีข้อสังเกตุว่าการรวมกันของ vector ต้องอยู่ในรูปแบบเดียวกันเท่านั้น (any two things of the same kind can be added) ถ้าต่างรูปแบบกันจะไม่สามารถหาคำตอบได้ เช่น \( \begin{bmatrix} 1\\2\\3\end{bmatrix} + 3x^2\)
นอกจากนี้ จะเห็นว่ามีคำ "scalar" ปรากฏอยู่ ความหมายของ scalar คือ unit of data เป็นสิ่งที่ทำให้เราทราบค่าของสิ่งนั้น เราจะเอา scalar มาจาก set ของจำนวนจริง
รูปที่ 1 |
ในรูปที่ 1, \( \vec{v} = \begin{bmatrix} 2 \\ 2\end{bmatrix}\) , \(\vec{v} \) เป็นสิ่งที่ถูกเรียกว่า vector ในขณะที่เลข 2 ทั้งสองตัวในวงเล็บเป็นจำนวนจริงเรียกว่า scalar หากกล่าวเช่นนี้แล้ว เราจะนับ scalar เป็น vector ได้ในบางกรณี บางมุมมอง ที่นับได้เพราะมันไม่ขัดกับนิยามที่กล่าวมา
[top]
Vector กับ Coordinate system
การระบุตำแหน่งของจุด \( X\) ใดๆ บน \( n-space\) ด้วยระบบตัวเลขแบบนี้ อาจเรียกว่า coordinate ของ \( X \) ซึ่งมีรูปแบบที่เหมือนกับการเขียน vector แบบ elements of real number
เมื่อต้องการระบุว่า vector นั้นอยู่ใน space หรือ dimension ใด เขียนแทนด้วย \( \Re^n\) เลขกำลังคือจำนวน space และ \( \Re \) หมายถึง set ของจำนวนจริง
\( \Re^2 \) แทน 2-space : \(\begin{bmatrix}0.5 \\ \pi \end{bmatrix} \in \Re^2\)
\(\Re^3 \) แทน 3-space : \(\begin{bmatrix}\frac{\pi}{4} \\ \frac{\pi}{2} \\ \frac{\pi}{3} \end{bmatrix} \in \Re^3\)
\(\Re^n \) แทน n-space : \(\vec{x} = \begin{bmatrix}x_1\\x_2\\x_3\\ \vdots\\x_n \end{bmatrix} \in \Re^n\)
รูปที่ 3 |
การใช้ระบบ coordinate มาเขียนเป็น vector มีข้อดีคือทำให้รับรู้ถึงทิศทางและสามารถคำนวณหา attitude (norm) ได้ด้วย (จะกล่าวถึงต่อไป)
[top]
Special vectors
Zero vector คือ vector ที่สมาชิกทุกตัวเป็น 0 เช่น \( \vec{a} = \begin{bmatrix} 0 \\ 0 \\ 0\end{bmatrix} \)
Unit vector คือ vector ที่มีขนาด (magnitude) เป็น 1 บางครั้งเรียก normalized vector เขียนแทนด้วย \(\hat{v}\) หาได้จาก \(\hat{v} = \frac{\vec{v}}{\|\vec{v} \|} \) (การคูณ vector ด้วย \(\frac{1}{\text{magnitude}}\) เรียกว่าการทำ normalization )
Sparse vector คือ vector ที่สมาชิกส่วนใหญ่เป็น 0 (ด้วยนิยามนี้ เราอาจนับ unit vector และ zero vector ว่าเป็น sparse vector ด้วยก็ได้) เช่น \( \vec{x_1} = \begin{bmatrix} 2 \\ 0 \\0 \\ 0 \end{bmatrix}, \vec{x_2} = \begin{bmatrix} 0\\1\\0\\0 \\3 \end{bmatrix},\vec{x_3} = \begin{bmatrix} 10\\0\\2\\0\\0\\5\\0\\0 \end{bmatrix},\vec{x_4} = \begin{bmatrix} 0\\0\\0\\1000 \end{bmatrix}\)
[top]
Basic vector operations
1. Addition หรือการบวก vector
\[ \begin{align*} \vec{x} &= \begin{bmatrix} x_1 \\ x_2 \\ x_3 \\ \vdots \\ x_n \\ \end{bmatrix} , \vec{y} = \begin{bmatrix} y_1 \\ y_2 \\ y_3 \\ \vdots \\ y_n\\ \end{bmatrix} \\ \vec{x} + \vec{y} &= \begin{bmatrix} x_1 + y_1 \\ x_2 + y_2 \\ x_3+y_3 \\ \vdots \\ x_n +y_n\\ \end{bmatrix} \\ \end{align*} \] เช่น \[ \begin{align*} \vec{x} &= \begin{bmatrix} 1 \\ 2 \\ 3 \end{bmatrix} , \vec{y} = \begin{bmatrix} 3 \\ 2 \\ 1 \end{bmatrix} \\ \vec{x} + \vec{y} &= \begin{bmatrix} 1 + 3 \\ 2 + 2 \\ 3+1 \end{bmatrix} = \begin{bmatrix} 4 \\ 4 \\ 4 \end{bmatrix} \end{align*} \]
คุณสมบัติพื้นฐานของการบวก
- Commutativity (การสลับ) : \(\vec{x} + \vec{y} = \vec{y} + \vec{x} \)
- Associativity (การจัดหมู่) : \(\vec{x} + (\vec{y} +\vec{z}) = (\vec{x} + \vec{y}) +\vec{z} \)
- Adding to zero vector has no effect : \( \vec{x} + \vec{0} = \vec{x} \)
- \(\vec{x} - \vec{x} = \vec{0} \)
เช่นเดียวกันกับการบวก การคูณ vector ด้วย scalar เป็น element-wise operation ดังนี้
\[ \beta \cdot \begin{bmatrix} x_1 \\ x_2 \\ x_3 \\ \vdots \\ x_n \end{bmatrix} = \begin{bmatrix} \beta \cdot x_1 \\ \beta \cdot x_2 \\ \beta \cdot x_3 \\ \vdots \\ \beta \cdot x_n \end{bmatrix} \] เมื่อ \( \beta \in \Re \)
ยกตัวอย่าง
\[ 2 \times \begin{bmatrix} 0.1 \\ 0.2 \\ 0.3 \end{bmatrix} = \begin{bmatrix} 2 \times 0.1 \\ 2 \times 0.2 \\ 2 \times 0.3 \end{bmatrix} = \begin{bmatrix} 0.2 \\ 0.4 \\ 0.6 \end{bmatrix} \]
คุณสมบัติพื้นฐานของการคูณ
- Associativity (การจัดหมู่) : \( (\beta \alpha) \vec{x} = \beta (\alpha \vec{x}) \) \[ (2 \times 3) \begin{bmatrix} 0.1 \\ 0.2 \\ 0.3 \end{bmatrix} = (2 \times \begin{bmatrix} 0.1 \\ 0.2 \\ 0.3 \end{bmatrix}) \times 3 = \begin{bmatrix} 0.6 \\ 1.2 \\ 1.8 \end{bmatrix} \]
- Distributivity (การกระจาย) :
\( (\alpha + \beta)\vec{x} = \alpha \vec{x} + \beta \vec{x} \) \[ \begin{align*} (2 + 3) \begin{bmatrix} 0.1 \\ 0.2 \\ 0.3 \end{bmatrix} &= 2 \times \begin{bmatrix} 0.1 \\ 0.2 \\ 0.3 \end{bmatrix} + 3 \times \begin{bmatrix} 0.1 \\ 0.2 \\ 0.3 \end{bmatrix} \\ &= \begin{bmatrix} 0.2 \\ 0.4 \\ 0.6 \end{bmatrix} + \begin{bmatrix} 0.3 \\ 0.6 \\ 0.9 \end{bmatrix} \\ &= \begin{bmatrix} 0.5 \\ 1.0 \\ 1.5 \end{bmatrix} \end{align*} \]
\( \alpha (\vec{x} + \vec{y}) = \alpha \vec{x} + \alpha \vec{y} \) \[ \begin{align*} 2 ( \begin{bmatrix} 1 \\ 2 \\ 3 \end{bmatrix} + \begin{bmatrix} 3 \\ 2 \\ 1 \end{bmatrix}) &= 2 \times \begin{bmatrix} 1 \\ 2 \\ 3 \end{bmatrix} + 2 \times \begin{bmatrix} 3 \\ 2 \\ 1 \end{bmatrix} \\ &= \begin{bmatrix} 2 \\ 4 \\ 6 \end{bmatrix} + \begin{bmatrix} 6 \\ 4 \\ 2 \end{bmatrix} \\ &= \begin{bmatrix} 8 \\ 8 \\ 8 \end{bmatrix} \end{align*} \]
[top]
Vector space
[3,4,5]Linear combination
linear combination ของ vector เป็นพื้นฐานสำคัญในเรื่อง linear algebra ซึ่งใช้กันบ่อยใน Machine learning
[top]
Vector spanning (Vector span / Span ) [7]
ได้ผลลัพธ์คือ \(a_1= 35, a_2 = -51 \) แสดงว่าสมการ (4) เป็นจริงได้ ดังนั้น \(\text{span(V)} = \begin{bmatrix} 19\\3 \end{bmatrix} \) เป็นจริง
ตัวอย่าง 2 กำหนดให้ V = \(\{ \begin{bmatrix} 3\\1\end{bmatrix}, \begin{bmatrix} -4\\-2\end{bmatrix}, \begin{bmatrix} 2\\3\end{bmatrix}, \begin{bmatrix}4\\-2\end{bmatrix}, \begin{bmatrix}1\\3\end{bmatrix} \} \) vector span คือ set ของ span(V) เราสามารถสร้าง vector span จาก V โดยการสร้าง linear combination จากสมาชิกขอ V เช่น
\[ \begin{align*} \begin{bmatrix}2.05\\1.21\end{bmatrix} &= 0.196 \cdot \begin{bmatrix}1\\3\end{bmatrix} + 0.62 \cdot \begin{bmatrix}3\\1\end{bmatrix} \tag{5} \\ \\ \begin{bmatrix}2.34\\1.904\end{bmatrix} &= 0.62 \cdot \begin{bmatrix}3\\1\end{bmatrix} + 0.88 \cdot \begin{bmatrix}1 \\3\end{bmatrix} \tag{6} \\ \end{align*} \]
นำผลจาก (5),(6) มาเขียนเป็น set , S = \(\{\begin{bmatrix}2.05\\1.21\end{bmatrix}, \begin{bmatrix}2.34\\1.904\end{bmatrix}\} \) set นี้ก็คือ vector span ของ V จะสังเกตุได้ว่า ทั้ง S,V \( \in \Re^2 \)
รูปที่ 4 |
[top]
หรืออาจกล่าวอีกแบบว่า ถ้ามี V = {\( \vec{v_1},\vec{v_2},...,\vec{v_n}\)} และ linear combination \( \vec{0} = a_1 \cdot \vec{v_1} + a_2 \cdot \vec{v_2} +...+ a_n \cdot \vec{v_n} \) แล้ว ถ้ามีเพียง \( a_1=0,a_2=0,a_3=0,...,a_n=0 \) กรณีเดียวที่ทำให้ linear combination นั้นเป็นจริง เราจะเรียก V ว่าเป็น linearly independent ถ้าไม่จะเรียกเป็น linearly dependent
ตัวอย่าง 1 กำหนด V = {\( \begin{bmatrix} 3\\6\end{bmatrix},\begin{bmatrix} 4\\8\end{bmatrix}\)} แสดงให้ดูว่า V เป็น linear independence หรือ linear dependence
เราต้องหาค่า \( a_1,a_2\) จากสมการ
\[ a_1 \cdot \begin{bmatrix} 3\\6\end{bmatrix} + a_2 \cdot \begin{bmatrix} 4\\8\end{bmatrix} = \begin{bmatrix} 0\\0\end{bmatrix} \tag{7}\]
นั่นคือ
\[ \begin{align*} \begin{bmatrix} 3 a_1 \\ 6 a_1 \end{bmatrix} + \begin{bmatrix} 4 a_2 \\ 8 a_2 \end{bmatrix} &= \begin{bmatrix} 0 \\ 0 \end{bmatrix} \\ \\ 3 a_1 + 4 a_2 &= 0 \\ 6 a_1 + 8 a_2 & = 0 \\ a_1 &= \frac{-4}{3} a_2 \tag{8} \\ \end{align*} \]
จาก (8) จะเห็นว่าค่าของ \(a_1,a_2 \) มีหลายค่าที่เป็นไปได้ เช่น (0,0), (\(\frac{-4}{3} \),1) ที่ทำให้ (7) เป็นจริง จึงสรุปได้ว่า V มีลักษณะเป็น linearly dependent
ข้อสังเกตุ : เมื่อเอา vector ใน V (linear dependent) มาเขียนบนกราฟ จะเห็นว่าทั้งสองชี้ไปทางเดียวกัน ต่างกันที่ความยาว (ขนาด) เป็นการบอกว่า linear dependent vector มีข้อมูลที่ซ้ำซ้อนกันอยู่ (redundant information)
ตัวอย่าง 2 : กำหนด V = {\( \begin{bmatrix} -5\\-3\end{bmatrix},\begin{bmatrix} 1\\2\end{bmatrix}\)} แสดงให้ดูว่า V เป็น linearly independence หรือ linearly dependence
ใช้วิธีการเดียวกับตัวอย่างก่อน
\[ a_1 \cdot \begin{bmatrix} -5\\-3\end{bmatrix} + a_2 \cdot \begin{bmatrix} 1\\2\end{bmatrix} = \begin{bmatrix} 0\\0\end{bmatrix} \tag{9}\]
\[ \begin{align*} \begin{bmatrix} -5 a_1 \\ -3 a_1 \end{bmatrix} + \begin{bmatrix} 1 a_2 \\ 2 a_2 \end{bmatrix} &= \begin{bmatrix} 0 \\ 0 \end{bmatrix} \\ \\ -5 a_1 + a_2 &= 0 \\ -3 a_1 + 2 a_2 & = 0 \\ \\ \end{align*} \]
จะเห็นว่าค่าของ \(a_1,a_2 \) เป็นไปได้กรณีเดียวที่จะทำให้ (9) เป็นจริงคือ (0,0) จึงสรุปได้ว่า V มีลักษณะเป็น linearly independent
ข้อสังเกตุ vectors ใน V ซึ่งเป็น linearly independent มีทิศทางไม่สอดคล้องกัน
"norm" หรือ "magnitude" ของ vector คือค่าของขนาดหรือความยาวของ vector ที่นับจากจุด origin ไปยังจุดปลายของ vector ในระบบ coordinate
norm ของ \( vec{u}\) เขียนแทนด้วย \( \mid\mid u \mid\mid \) คุณสมบัติของ norm มีดังนี้
1. \( \alpha \in \Re, \mid\mid \alpha \vec{v} \mid\mid = \mid \alpha \mid \cdot \mid\mid \vec{v} \mid\mid \)
2. \( \mid\mid\vec{v} + vec{u} \mid\mid \leq \mid\mid \vec{v} \mid\mid + \mid\mid \vec{u} \mid\mid\)
3. \( \mid\mid \vec{v} \mid\mid \geq 0 \)
การคำนวณหาค่าของ norm
1. Euclidean norm เป็นการ norm ที่ใช้บ่อย การคำนวณใช้หลักการของ Pythagorean equation [10] คือการวัดตามแนวเส้นทะแยงมุม เช่น \[\vec{v} = \begin{bmatrix}3\\4\end{bmatrix}\]
\[ \| \vec{v} \| = \sqrt{3^2 + 4^2} = \sqrt{25} = 5 \]
รูปที่ 5 |
\[ \begin{align*} \vec{v_2} &= \begin{bmatrix} 2\\-2\\3\\4 \end{bmatrix} \\ \|\vec{v_2} \| &= \sqrt{2^2 + -2^2 + 3^2 + 4^2} = \sqrt{33} \end{align*} \]
Euclidean norm บางครั้งจะเรียกว่า \( L_2\)
2. Manhattan norm ได้มาจากวิธีการเดินทางใน Manhattan ซึ่งวางผังเมืองไว้เป็นแบบ grid ขนาดของ vector ที่วัดด้วยวิธีนี้คือผลรวมของ element ใน vector นั้น เช่น \( \vec{v} = \begin{bmatrix}3\\4\end{bmatrix}\) norm จะมีค่า \( \| \vec{v} \| = \mid 3+4 \mid = 7 \) Manhattan norm บางครั้ง จะเรียกว่า \( L_1\)
[top]
เอกสารอ้างอิง
[1] https://en.wikipedia.org/wiki/Vector_space
[2] https://en.wikipedia.org/wiki/Coordinate_system
[3] https://en.wikipedia.org/wiki/Abelian_group
[4] https://en.wikipedia.org/wiki/Group_(mathematics)
[5] https://en.wikipedia.org/wiki/Vector_space
[6] https://en.wikipedia.org/wiki/Linear_combination
[7] https://en.wikipedia.org/wiki/Linear_span
[8] https://en.wikipedia.org/wiki/Linear_independence
[9] https://en.wikipedia.org/wiki/Norm_(mathematics)
[10] https://en.wikipedia.org/wiki/Linear_independence#Definition
[11] https://en.wikipedia.org/wiki/Dot_product
[12] https://en.wikipedia.org/wiki/Inner_product_space
[13] https://en.wikipedia.org/wiki/Orthogonality
[14] https://en.wikipedia.org/wiki/Cosine_similarity
[15] https://en.wikipedia.org/wiki/Basis_(linear_algebra)
ความคิดเห็น
แสดงความคิดเห็น