Lately ni, banyak pulak aku terbuka dan terbaca post - post/cerita - cerita lama aku.. Aku baca - baca balik,
Kadang - kadang rasa malu dengan diri ini..
Kadang - kadang rasa meluat dengan diri sendiri..
Kadang - kadang rasa marah dengan perbuatan ku sendiri..
said me to me whilst trying to maintain positive vibes |
Tiada apa yang boleh dibanggakan. Tiada apa yang boleh ceritakan sebagai satu achievement yang besar. Semuanya menjadikan aku rasa macam nak padam je post - post lama. Segan. Malu. Heartbroken. Depressed. Semua ada..
Mungkin.. deep down in my heart, aku rasa kalau aku padam post - post lama, secara logiknya, terpadamlah juga kisah lama..
Kan?
Kan??
Kan???
WRONG!
You see.. (bear with me a little bit).. in Time Series, there's a method that is called Exponential Smoothing. This is the simplest and purest form of it.
\[\hat{F}_{n} = \alpha x_{n-1} + (1-\alpha) \hat{F}_{n-1}\] | .. (1) |
dimana, $\hat{F}_{n}$ ialah nilai prediction pada masa $n$, $x_{n-1}$ pula ialah cerapan data (observation data) pada masa lepas (jarak dia -1 dari $n$) dan $\alpha$ ialah parameter smoothing $(0< \alpha < 1)$... nak kasi smooth atau tajam.. camtu aa lebih kurang..
So ape kaitannye dengan mukadimmah aku tadi tu? Ideanya begini.. Dari equation tu, lagi lama observation data tu dari masa sekarang, makin kurang impak dia.
Maksudnya apa yang berlaku semalam, impak dia lagi kuat untuk hari ni, berbanding dengan 8 tahun lepas. Dah nampak la apa yang aku nak terangkan hnn?
Cenggini. Aku tau korang mesti excited nak drill down lagi kan? Mari kita pecahkan lagi ke term lebih dalam lagi untuk equation (1) tu tadi..
\[\hat{F}_{n} = \alpha x_{n-1} + (1 - \alpha) ( \alpha x_{n-2} + (1 - \alpha) \hat{F}_{n-2} )\] | .. (2) |
\[ \hat{F}_{n} = \alpha x_{n-1} + \alpha (1 - \alpha) x_{n-2} + (1 - \alpha)^2 \hat{F}_{n-2} \] | .. (3) |
\[ \hat{F}_{n} = \alpha [ x_{n-1} + (1 - \alpha) x_{n-2} ] + (1 - \alpha)^2 \hat{F}_{n-2} \] | .. (4) |
Sampai le kita dapat (dengan kita set $\hat{F}_{0} = x_{0}$) ,
\[\hat{F}_{n} = \alpha [ x_{n-1} +(1 - \alpha) x_{n-2} + (1 - \alpha)^2 x_{n-3} + .. + (1-\alpha)^{n-2} x_{1} ] + (1-\alpha)^{n-1} x_0\] | .. (5) |
So idea dia, lagi jauh kita ke belakang, lagi takde kesan pon masa sekarang dengan data lama tu. Let say, kita ambil $ n - (n -1) = 1 \mathrm{ tahun}$, dan KATEKAN LA umur aku sekarang 38 tahun, so untuk $\alpha=0.5$, kite akan dapat $(1-\alpha)^{37}=7.276 \times 10^{-12}$ gituuu. Banyak betul kosong dia (ade 11 kosong depan die). Tu belum kalau kira jam lagi..
Maksudnya, takde impact la kan?
Nilai tu tetap ada. Cuma kita dah terbiasa sangat dengan bundarkan nombor (duit dalam bank tinggal RM0.63 tapi korang cakap duit tinggal RM0 je kann - padahal kalau ikutkan ilmu asas bundar, korang kene cakap tinggal RM1.. haha).
perbundaran.. in-action.. haha |
213.213465000000001 tak akan sama (sampai bila2) dengan 213.213465. Kau cuma tutup sebab kau tak nak tengok dan kau cuba sedaya upaya padam dari memori kau, tapi sebenarnya 0.000000000000001 tu ada. Tetap ada. Tetap bersama kau.
Dan.. (bergantung kepada apa jenis manusia kita ni), ianya boleh jadi akan menghantui diri kau, atau,
Kalau baik buat tauladan (teladan), kalau tak baik buat sempadan. (peribahasa lama)
Dan sebenarnya, takde masalah pon kalau nak padam pon. Sekurang - kurangnya takde la nampak depan mata. Tah - tah, (sebab tak nampak depan mata), sooner or later, kau sendiri akan terus lupakannya.. Hopefully, tertanam bersama - sama kenangan tidak indah ketika di sekolah rendah dulu.. (adeh. teringat pulak balik)..
Cuma.. (for the time being), aku akan biarkan je post - post lama ni dulu. Walaupon rasa malu, but.. that posts is the nearest time machine that I can have.... walaupon rasa malu.. segan.. marah.. depressed... Then again,
The past is past, the future is now!