• Tidak ada hasil yang ditemukan

ANTARA SAHAM LIKUID DAN TAK LIKUID DI BURSA EFEK JAKARTA PERSPEKTIF MEKANIKA STATISTIKA

N/A
N/A
Protected

Academic year: 2021

Membagikan "ANTARA SAHAM LIKUID DAN TAK LIKUID DI BURSA EFEK JAKARTA PERSPEKTIF MEKANIKA STATISTIKA"

Copied!
35
0
0

Teks penuh

(1)

ANTARA SAHAM LIKUID DAN TAK

LIKUID DI BURSA EFEK JAKARTA

PERSPEKTIF MEKANIKA STATISTIKA

Hokky Situngkir††

(hs@compsoc.bandungfe.net) Yun Hariadi ††

(yh@dynsys.bandungfe.net) Yohanes Surya ††† (yohaness@centrin.net.id)

Catatan:

Makalah kemajuan penelitian yang dilaksanakan atas kerjasama antara Surya Research International dan Bursa Efek Jakarta; disampaikan pada 22 Maret 2005.

†† Peneliti Ekonofisika di Bandung Fe Institute dan Surya Research International.

†††SeniorResearch Fellow EkonofisikaSurya Research International.

Abstract

We analyze the statistical properties of specific individual indexes traded in Jakarta Stock Exchange representing the liquid and illiquid stocks. We discover that the universality of statistical properties are detected in most of the stocks. Nonetheless, the general analysis showed inefficiency of the market. The quest of the source of it is explored by analysis on return data distribution, long memory of the market, the correlation of price and volume traded, the correlation among stock price fluctuations in ultrametric space and random matrix theory. The research progress proposed another source of the illiquidity to be analyzed in the future, that is the perception of society of investment and the investment climate. This should be conducted beside the forthcoming microstructure simulations on various trading systems.

Acknowledgement

The report reflects the second month research progress funded by PT Bursa Efek Jakarta and Surya Research International February-April 2005. The authors thank Vitri Herma Susanti for suggestions and correspondence on representing data, the meeting audience of Research & Development Division of JSX, and BFI colleagues for criticsms. We also would like to thank Yohanis personally for technical help. All faults remain the authors’

(2)

0. Pendahuluan

Makalah ini membahas lebih lanjut hasil ekstraksi data-data statistika perdagangan yang diperoleh di Bursa Efek Jakarta dengan konsentrasi pada pembedahan sifat-sifat statistika antara saham yang likuid dan tidak likuid. Dalam makalah ini, kita menganalisis sistem pasar modal yang hendak disimulasikan untuk melihat sejauh mana dampak dilakukannya sistem perdagangan continuous market, call market, dan continuous interval market dalam hal likuiditas dan fairness dalam proses perdagangan.

Secara umum, sebagaimana dielaborasi pada diskusi sebelumnya, terdapat beberapa sifat statistika data-data di pasar modal yang sudah diterima sebagai sifat khas dari data keuangan. Makalah ini akan mengecek sifat-sifat ini satu persatu dengan analisis komparatif saham yang dianggap likuid dan tidak likuid di Bursa Efek Jakarta selama tahun perdagangan 2000-2004. Di samping digunakan sebagai bahan baku dasar konstruksi simulasi pasar modal komputasional kemudian, hal ini juga tentunya menjadi penting pula bagi Bursa Efek Jakarta untuk meng-evaluasi secara komprehensif dengan metodologi ilmiah berbagai transaksi yang terjadi di bursa saham.

Sebelum memulai menganalisis, ada baiknya perlu diterangkan sebelumnya tentang data-data yang akan digunakan secara spesifik dalam penelitian ini. Dari data perdagangan saham yang tercatat di Bursa Efek Jakarta untuk periode perdagangan 2000-2004, terdapat 368 indeks individual yang merepresentasikan bursa. Dalam hal kategorisasi, kesemua indeks tersebut dapat dibagi dalam sembilan sektor perdagangan dilihat dari sisi sektor bisnis yang dijalankan oleh masing-masing emitten, yaitu:

1. Agriculture

2. Mining

3. Basic Industry and Chemical

4. Miscelaneous Industry

5. Property, Real Estate, and Building Construction

6. Consumer Goods Industry

7. Infrastructure, Utilities, and Transportation

8. Finance

(3)

Sebagaimana telah diketahui, di dalam tiap kategori sektoral tersebut terdapat berbagai indeks individual saham, baik yang likuid maupun tidak likuid. Untuk membedakan saham yang kita anggap likuid dan tidak likuid dari daftar seluruh emitten pada masing-masing sektor perdagangan tersebut, kita menggunakan indeks LQ45 sebagai indeks di BEJ yang menunjukkan 45 emitten yang sahamnya paling likuid pada sistem perdagangan saham.

Untuk memilih saham yang dianggap mewakili indeks yang likuid tentu bukanlah pekerjaan yang sulit karena setiap data yang terdaftar di indeks LQ45 tentunya memiliki jumlah perdagangan/transaksi yang relatif besar dan dapat dengan mudah dianalisis dengan perangkat statistika yang ada. Pemilihan atas emitten yang kita anggap mewakili saham yang tidak likuid memberikan dilema jumlah data, oleh karena saham yang tidak likuid biasanya tidak memiliki banyak representasi data transaksi. Dalam hal ini kita perlu memilah-milah data-data yang ingin kita analisis dalam rangka menunjukkan sejauh mana sebuah saham tertentu dapat dikategorikan tidak likuid (tentunya tidak termasuk dalam indeks LQ45) namun masih memiliki sejumlah data perdagangan yang dapat diekstraksi sifat statistikanya.

Dalam hal ini, untuk meng-cover indeks-indeks saham di seluruh sektor perdagangan yang ada, kita memilih saham dengan kode perdagangan AALI, BUMI, BRPT, ASII, SMRA, DNKS, BLTA, BBNI, dan JIHD sebagai representasi data yang dianggap likuid selama ini, sementara kode perdagangan UNSP, LSIP, CTTH, INCI, SMSM, KPIG, SUBA, CMNP, ASBI, dan TKGA kita analisis sebagai representasi data yang perlu diperhatikan likuiditasnya.

Analisis kita nantinya akan berkisar pada permasalahan likuiditas dan efisiensi pasar di Bursa Efek Jakarta (sesuai dengan definisi formal efisiensi dalam dunia ekonomi dan keuangan) serta sifat-sifat fluktuasi data harga dan volume perdagangan yang ada. Makalah ini akan dimulai dengan kajian ulang atas hipotesis pasar efisien yang menunjukkan bagaimana sebuah pasar dikatakan efisien secara formal untuk melihat seberapa efisien sistem perdagangan yang ada di BEJ secara umum (overall) saat ini yang tentunya akan berdampak pada analisis kita atas likuiditasnya. Hal ini kemudian dilanjutkan dengan melihat fenomena leptokurtosis pada pasar serta penyebab hipotetikalnya yakni herding behavior, momen-momen distribusi data perdagangan, korelasi positif antara volume perdagangan dengan fluktuasi harganya, serta memori yang panjang pada indeks saham. Hal ini kemudian dilanjutkan dengan

(4)

analisis ultarmetrik dan teori matriks acak. Dari sini, kita mulai mereka lagi hipotesis kita serta hasil analisis sebagai kesimpulan awal dari topik penelitian secara umum yang dilakukan.

1. Mengingat kembali Hipotesis Pasar Efisien

Sebuah anasir yang senantiasa menjadi topik dalam berbagai penerangan tentang bursa efek adalah pertanyaan tentang apakah pasar bursa itu sama dengan judi? Apakah pasar keuangan itu adil (fair) dalam formasi fluktuasi harga-harga? Paradigma yang paling masuk akal bagi analis keuangan konvensional adalah bahwa pasar tersebut sangat efisien dalam menentukan harga yang paling rasional dari seluruh aset yang diperdagangkan di bursa keuangan. Pasar dikatakan efisien jika seluruh informasi yang tersedia diproses dan dinyatakan seketika sebagai nilai harga baru dari aset-aset yang diperdagangkan (Fama, 1970). Nobelis ekonomi, Paul Samuelson (1965) menunjukkan hal ini secara matematis, bahwa harga-harga berfluktuasi secara acak. Hipotesisnya adalah bahwa agen pelaku ekonomi seutuhnya rasional dan pasar selalu efisien. Sebagaimana digambarkan Mantegna & Stanley (2000:10), hipotesis pasar efisien menunjukkan bahwa nilai harga sebuah aset tertentu pada waktu t+1, disimbolkan dengan Yt+1 dalam hubungan dengan nilai-nilai

sebelumnya, Y0, Y1, Y2,… Ytmengikuti:

E{Yt+1| Y0, Y1, Y2,… Yt}= Yt (1)

Konsep ini disebut sebagai martingales, yaitu model probabilitas dari suatu permainan yang jujur (fair) – dalam hal ini proses fluktuasi harga adalah ibarat permainan judi yang jujur: menang dan kalah memiliki probabilitas yang sama dan keuntungan yang diharapkan adalah sama dengan aset yang saat ini dimiliki. Dengan kata lain, keuntungan dari pasar saham tidak mungkin dapat diprediksi hanya dengan menggunakan sejarah data harga sebelumnya. Ini disebut sebagai kesimpulan ‘lemah’ dari hipotesis pasar efisien, karena banyak pendekatan teoretis saat ini yang menantang bentuk kaku dari hipotesis ini. Secara kasar, dapat kita katakan bahwa

Hipotesis pasar efisien berbicara tentang sebuah kondisi ideal dari pasar. Begitu ada informasi eksploitasi peluang arbitrase, maka pasar segera bergerak untuk mengeliminasinya.

(5)

Perubahan-perubahan harga memang sangat sulit untuk diramalkan dengan memperhatikan data deret waktu yang sedemikian banyak jumlahnya. Namun apakah ini berarti bahwa tidak ada informasi yang bisa diperoleh dari data deret waktu perubahan harga tersebut? Menurut Mantegna & Stanley (2000:12), kita tidak bisa meramalkan nilai harga saham tertentu dari data deret waktu bukan karena tidak adanya informasi yang berguna di sana, justru sebaliknya, hal ini dikarenakan jumlah informasi yang terkandung pada data deret waktu keuangan sangat besar jumlahnya. Inilah yang memotivasi kita untuk menganalisis dan mengekstrak informasi yang sedemikian besar jumlahnya dengan berbagai perangkat analisis mekanika statistika agar kita memiliki struktur statistika dari data keuangan yang ada, untuk selanjutnya menganalisis sejauh mana hal-hal ini dapat membantu kita dalam market engineering

dalam hal likuiditas saham dan fairness proses perdagangan.

2. Seberapa efisienkah perdagangan yang telah ada selama ini?

Untuk mengetahui secara jelas seberapa efisien sistem perdagangan di BEJ selama ini, kita dapat melihat distribusi nilai return dari banyak saham-saham yang diperdagangkan, baik yang likuid ataupun tidak likuid. Histogram yang menunjukkan hal ini diberikan pada gambar 1.

Gambar 1

Histogram dari nilai return dari banyak saham di BEJ pada periode 2000-2004. Lingkaran hitam menunjukkan adanya ketakseimbangan (defisit) pada nilai return negatif.

(6)

Pada gambar terlihat dengan jelas bahwa untuk periode yang panjang (selama 5 tahun) histogram banyak saham ternyata defisit nilai return negatif yang bisa diartikan sebagai lebih banyaknya nilai return positif. Secara fundamental hal ini tentu masuk akal mengingat selama lima tahun tersebut, dalam banyak hal pemerintah sedang berupaya meningkatkan sistem perekonomian sehabis krisis yang melanda pada tahun 1997. Secara sepintas pola distribusi data yang digambarkan tersebut mirip dengan apa yang ditemui oleh ekonofisikawati Makowiec (2004) di Warsaw Stock Exchange Polandia untuk data perdagangan 2000-2003.

Dalam analisisnya, Makowiec menunjukkan bahwa pola histogram ini pada dasarnya menunjukkan ke-kurang-efisien-an sistem perdagangan yang dipenuhi oleh spekulasi akan sistem perekonomian yang baru keluar dari krisis1. Lebih lanjut, menurut simulasi yang dilakukannya hal ini terjadi dengan adanya kesadaran akan asimetri informasi di antara investor sehingga investor memiliki kecenderungan untuk meniru (imitasi) strategi investasi investor lain yang dianggapnya memiliki pengaruh

1 Hal ini dikenal sebagai speculative bubble yang seringkali cepat atau lambat akan diikuti dengan

crash jika faktor fundamental pasar tidak menyokongnya (Sornette, 2003). Kita tentu berharap agar

crash yang besar tidak terjadi di Indonesia dengan memperhatikan kondisi bubbling yang belakangan

terjadi pasca Pemilihan Umum 2004.

Gambar 2

Sifat pengelompokan volatilitas saham ASII dan KPIG. Pengelompokan volatilitas pada indeks KPIG cenderung lebih renggang oleh karena kurang likuid relatif terhadap ASII.

(7)

– misalnya modal yang besar, dan sebagainya. Bukan tak mungkin hal yang sama terjadi di Bursa Efek Jakarta di mana investor (khususnya investor dengan modal relatif kecil) cenderung membeli atau menjual tidak senantiasa bersandar pada chart

atau fluktuasi namun lebih terpengaruh kepada rumor dan copycat keputusan orang yang dianggap memiliki informasi lebih tentang suatu stok. Pada praktiknya, dalam kajian mikrostruktur pasar modal, hal ini dapat dilihat sebagai bentuk perilaku mengerumun investor (herding behavior). Yang menarik, hal inilah yang justru menunjukkan terjadinya ekor yang sangat gemuk (leptokurtik) pada bursa saham di Indonesia sekaligus sifat pengelompokan volatilitas dari data perdagangan.

Secara teknis, pada gambar 1 tersebut menunjukkan terjadinya sifat leptokurtis dari gabungan data return tersebut yang menunjukkan terjadinya pengelompokan volatilitas dalam data-data perdagangan tersebut. Pengelompokan volatilitas ini pada dasarnya menunjukkan bahwa perubahan harga yang besar selalu relatif lebih jarang terjadi dibandingkan perubahan kecil. Hal ini terjadi karena adanya perilaku berkerumun dari investor dalam proses perdagangan di manapun dan di pasar apapun. Ini ditunjukkan pertama kali oleh ekonofisikawan asal Perancis Cont & Bouchaud (2000) pada mikrosimulasi berbasis agen.

Dalam hal data-data yang likuid dan tidak likuid di Bursa Efek Jakarta, hal ini memberikan efek yang berbeda. Untuk saham-saham yang tidak likuid pengelompokan volatilitas cenderung lebih renggang dibandingkan dengan saham yang likuid – senantiasa terdapat selang antara perubahan harga di satu waktu dengan perubahan harga di waktu lain yang lebih besar atau lebih kecil. Gambar 3 menunjukkan hal ini melalui contoh yang membandingkan grafik return data ASII dan KPIG.

Dari sini kita dapat memahami bahwa pengelompokan volatilitas (volatility clustering) maupun distribusi ekor gemuk (leptokurtis) merupakan sifat yang universal terdapat pada setiap pasar modal. Namun dari sini kita dapat melihat perbedaan karakter tersebut, yang terjadi pada pasar stok yang likuid dan yang tidak likuid. Mengingat fakta akan masih relatif sedikitnya saham yang dapat dikategorikan likuid (dari segi jumlah transaksi per hari) di BEJ dan direfleksikan pada distribusi yang tidak balans antara return bernilai negatif dan positif, maka secara umum (overall seluruh saham yang diperdagangkan) dapat dikatakan bahwa pasar kita memang belum dapat dikatakan efisien dalam formasi harganya. Bagian berikutnya

(8)

dari makalah ini akan membedah sejauh mana hal ini terjadi oleh karena sistem perdagangan yang saat ini berlaku.

3. Statistika data Likuid versus Tak Likuid

Telah dibahas sebelumnya sifat-sifat umum statistika atas data-data pasar keuangan (Situngkir & Surya, 2004) yang bersifat umum. Namun masih sedikit sekali literatur yang membahas tentang perbedaan statistika antara data yang diketahui likuid dan tidak likuid dalam bursa. Hal ini tentu menjadi tantangan yang menarik dalam penelitian ini, dan kita akan membedahnya melingkupi banyak aspek, seperti distribusi data, sifat memori dan persistensi data, korelasi antara fluktuasi dan volumenya, serta keterhubungan antara data perdagangan yang likuid dan yang tidak likuid. Melalui penyelidikan ini, kita akan mencoba membedah sejauh mana kita dapat mengatasi inefisiensi yang terjadi secara umum.

3. 1. Sifat Distribusi data

Salah satu perangkat penting untuk menganalisis data deret waktu adalah fungsi distribusi peluang. Dua masalah yang akan muncul dalam menentukan bentuk distribusi peluang ini adalah: pertama, pemilihan bentuk data deret waktu, misalnya apakah data nilai saham atau data return nilai saham. Kedua, jika pemilihan data didasarkan pada perubahan nilai saham, masalah yang muncul selanjutnya adalah pada perubahan satuan waktu ke berapa masing-masing data akan diamati.

Sebagaimana telah dijelaskan pada bagian sebelumnya, beberapa penyelidikan terbaru menyimpulkan bahwa data return tidak mengikuti bentuk distribusi normal (Situngkir & Surya, 2003), tetapi mengikuti distribusi dengan ekor yang gemuk. Distribusi Levy merupakan salah satu kandidat yang mampu menampilkan ekor gemuk. Meski distribusi Levy memiliki variansi tak hingga namun hal ini bisa disiasati dengan memotong distribusi ini sehingga akan diperoleh variansi hingga. Modifikasi distribusi Levy ini dikenal sebagai distribusi Levy terpotong yang pertama kali diperkenalkan oleh Mantegna & Stanley (2002).

Meski data return tidak mengikuti distribusi normal namun penjumlahan (agregrat) data return akan mengikuti distribusi normal, ini dijamin oleh teorema limit pusat. Pertanyaan yang muncul selanjutnya adalah pada penjumlahan ke berapa distribusi ini menjadi distribusi normal atau dengan bahasa lain seberapa dekat

(9)

distribusi ini dengan distribusi normal. Pertanyaan yang muncul ini bisa menjadi parameter lain dalam analisis data deret waktu selain volatilitas (Hariadi & Surya, 200.

Syarat utama sebuah distribusi disebut distribusi stabil adalah sifatnya yang tertutup terhadap penjumlahan, artinya penjumlahan dari sejumlah data dalam distribusi tersebut memiliki bentuk distribusi yang sama. Sehingga hal ini memiliki hubungan langsung dengan sifat self-similarity. Distribusi peluang yang stabil merupakan bentuk fraktal, dimana distribusi dari bagian-bagiannya memiliki bentuk distribusi yang sama dengan penjumlahan dari sejumlah distribusinya.

Peran besar yang ditunjukkan oleh Teorema Limit Pusat (TLP) terhadap multifraktal adalah kemampuan TLP dalam menjamin munculnya limit distribusi jika dilakukan penjumlahan data yang banyaknya mendekati tak hingga dengan distribusi apapun asalkan semua data memiliki distribusi yang sama dan memiliki rata-rata dan varian yang hingga, lebih jauh bentuk akhir dari limit distribusi ini adalah distribusi normal(Gaussian). Secara formal hal ini dinyatakan dalam TLP (Craig&Hogg, 1995): Teorema 1. (Teorema Limit Pusat).Misalkan X1,X2,...,Xn merupakan variabel acak dari sebuah distribusi dengan rata-rata μ dan variansi σ2 maka variabel acak

σ μ σ μ ( )/ 1 − = ⎟ ⎠ ⎞ ⎜ ⎝ ⎛ =

n in n X n n n X

Y mempumyai limit distribusi normal

dengan rata-rata nol dan variansi 1.

Lantas bagaimana hubungan antara distribusi stabil dengan limit distribusi? Levy dan Khintchine menemukan hubungan menarik antara keduanya, bahwa kepadatan peluang dapat menjadi limit distribusi dari penjumlahan data jika merupakan distribusi stabil. Terlihat bahwa distribusi stabil merupakan syarat perlu untuk menjadi limit distribusi. Distribusi normal merupakan salah satu contoh dari distribusi stabil yang hal ini sesuai dengan peran distribusi normal dalam TLP.

Lebih jauh Levy dan Khintchine menemukan kondisi umum untuk menjamin sebuah distribusi merupakan distribusi stabil. Penemuan keduannya didasarkan pada bentuk fungsi karakteristik φ(k) yang memenuhi

⎟ ⎟ ⎠ ⎞ ⎜ ⎜ ⎝ ⎛ + − = 1 ( , ) ) ( lnφ γ α β ω k α k k i k c k i k (2)

(10)

dengan ⎩ ⎨ ⎧ = ≠ = 1 , ln ) 2 / ( 1 ), 2 / tan( ) , ( α π α πα α ω k k (3)

dan c,γ,α,β merupakan bilangan real, c≥0,0<α ≤2,−1≤β ≤1.

Untuk α=2 (dan γ =0) diperoleh lnφ(x)=−cx2yang merupakan fungsi karakteristik dari distribusi normal dan untuk 0<α<2 akan diperoleh fungsi kepadatan peluang α + 1 1 ~ ) ( x x p untuk x→±∞ (4)

Namun jaminan yang diberikan oleh Levy dan Khintchine di atas hanya terbatas pada usaha untuk memenuhi distribusi stabil, tidak memberi jaminan terhadap bentuk umum sehingga sebuah distribusi stabil akan konvergen pada limit distribusi tertentu pada prosedur TLP.

Untuk melengkapi jaminan Levy dan Khintchine diatas dikembangkan sebuah teorema yang secara khusus memberi kriteria sehingga distribusi stabil tertentu akan memiliki limit distribusi tertentu pula. Secara formal, hal tersebut dirumuskan dalam teorema berikut (Baschnagel & Paul, 1999).

Teorema 2. Fungsi kepadatan peluang p(l) terletak pada daerah atraktor dari fungsi kepadatan peluang distribusi stabil Lα,β(x) dengan eksponen karakteristik α (0<α<2)

jika dan hanya jika α α α + ± 1 ~ ) ( l c a l

p untuk l→±∞ dengan c+ ≥0,c ≥0,a>0adalah konstanta.

p(l) terletak pada daerah atraktor dari fungsi kepadatan peluang distribusi stabil Lα,β(x)

artinya fungsi kepadatan peluang p(l) bersifat stabil dan akan konvergen ke distribusi

(11)

Salah satu sifat yang tidak realistis dari distribusi Levy untuk memodelkan data saham adalah varian tak hingga yang dimilikinya. Mantegna & Stanley (2002) memodifikasi model distribusi ini menjadi model distribusi Levy terpotong (Truncated Levy) yang didefinisikan sebagai berikut:

⎩ ⎨ ⎧ − ≤ ≤ = lainnya x x L x p , 0 ), ( : ) ( ξ α,0 l l (5)

dengan ξ konstanta normalisasi, dan l adalah parameter pemotong, Lα,0 distribusi

Levy dengan parameter β=0. Bentuk distribusi ini memiliki variansi hingga, sehingga menurut TLP akan konvergen ke distribusi normal jika dilakukan penjumlahan data, untuk banyaknya data yang mendekati tak hingga.

Dari sini, berdasarkan TLP kita mengetahui bahwa penjumlahan sejumlah data yang banyaknya mendekati tak hingga akan konvergen ke distribusi normal. Pada simulasi ini sejumlah data saham akan diestimasi pada distribusi Levy terpotong dan selanjutnya akan dicari saat kritis yaitu ketika distribusinya konvergen ke distribusi normal.

Misalkan {Yi} adalah sejumlah data saham dan {Xi} adalah nilai return dari

saham tersebut. Bentuk distribusi {Xi} diestimasi pada distribusi Levy terpotong, dan

didefinisikan Sn:=X1+X2+…+Xn dan Zdt(t):=St-St-dt=Xt+Xt-1+…+Xt-dt+1maka menurut

TLP nilai Zdt akan konvergen untuk suatu nilai dt tertentu, misalkan pada saat dt=dtx

sehingga akan diperoleh dua limit distribusi yaitu Levy dan Gauss, jika terdapat dalam wilayah yang konvergen ke distribusi Levy biasa disebut terletak dalam rezim Levy dan jika terletak dalam wilayah yang konvergen ke distribusi normal biasa disebut terletak dalam rezim Gauss.

⎩ ⎨ ⎧ >> << ≈ x dt x dt dt dt dt S G dt dt S L S p ), ( ), ( ) ( α,0 (6)

dengan G merupakan distribusi normal, nilai dt pada hasil simulasi ini digunakan sebagai salah satu skala untuk melihat karakteristik data saham yaitu sejauh mana

jarak distribusi data saham tersebut terhadap distribusi normal. Hal ini merupakan versi berbeda dari parameter volatilitas yang merupakan bentuk dari variansi yang

(12)

digunakan untuk mengukur sejauh mana data saham berbeda terhadap nilai rata-ratanya.

Dari implementasi dengan menggunakan data-data saham yang diperdagangkan di BEJ dalam kurun waktu 2000-2004, kita lihat bahwa perubahan atau transisi dari rezim Levy ke Gauss ternyata umumnya hanya terlihat pada saham-saham yang likuid. Hal ini terlihat pada perbandingan antara saham ASII dan SMSM. Saham ASII dan SMSM sama-sama menunjukkan sifat skala, namun ASII kembali pada distribusi Gaussian setelah sekitar 100 hari perdagangan sedangkan SMSM tidak menunjukkan hal serupa. Hal lain adalah perbandingan antara saham BBNI dan ASBI, BUMI dan CTTH, serta BRPT dan INCI. Secara umum terlihat bahwa saham yang likuid lebih lambat berubah menjadi Gaussian relatif terhadap yang kurang likuid. Dari sini, kita dapat membuat catatan bahwa meskipun beberapa saham yang digunakan dalam analisis ini memiliki likuiditas yang relatif rendah, namun distribusinya lebih gaussian daripada saham yang likuiditasnya lebih tinggi. Dengan kata lain, secara kasar kita

Gambar 3

(13)

dapat menyatakan formasi harga untuk beberapa saham yang tidak likuid sebenarnya telah cukup efisien dengan sistem perdagangan yang ada sekarang ini.

3. 2. Sifat Memori dalam saham

Data-data ekonomi keuangan di berbagai pasar modal yang terkenal efisien dan likuid di luar negeri seperti London Stock Exchange dikenal memiliki kecenderungan memiliki memori yang panjang pada deret waktunya. Secara sederhana, data deret waktu yang memiliki memori panjang menunjukkan sifat persistensi atau anti-persistensi dalam fluktuasinya (Lillo & Farmer, 2004) – secara statistika, hal ini dikenal dengan penurunan nilai sampel otokorelasi dan otokovariansi data yang mengikuti hukum pangkat. Jika fungsi otokovariansi dari data deret waktu dinyatakan sebagai γ(k), maka untuk k →∞ dipenuhi sifat:

) ( ~ ) (k k αL k γ − (7)

di mana 0<α <1 dan L(k) sebagai fungsi yang berubah dengan lambat.

Di sini terdapat paradoks yang sangat menarik: jika pada pasar yang efisien terjadi formasi data-data yang dapat dikenali persistensi atau anti-persistensinya terhadap data sebelumnya, maka investor cenderung dapat membaca tren dari data deret waktu yang ada. Namun justru hal ini menunjukkan bahwa hipotesis pasar efisien menjadi kurang kuat dalam “memperhitungkan” efisiensi pasar – karena orang masih dapat memperoleh informasi tertentu dari data formasi harga. Hal ini tentu saja menjadi diskusi yang menarik dalam wacana kalkulus keuangan2.

Namun dalam kajian penelitian ini, kita ingin mengecek sejauh mana persistensi dari data-data keuangan yang likuid dan tidak likuid tersebut. Apakah data yang likuid di BEJ lebih memiliki memori yang panjang dibanding yang tidak likuid atau sebaliknya? Untuk menjawab pertanyaan ini, kita menggunakan analisis rescaled range (R/S Analysis) yang diperkenalkan oleh E. Hurst (Situngkir & Surya, 2005, Hariadi & Surya, 2003).

(14)

Analisis R/S merupakan metode yang dikenal dalam statistika sebagai bentuk analisis dengan penskalaan selang (rescaled range analysis) untuk menghasilkan eksponen Hurst (Gammel, 1998 & Carbon, et.al, 2004). Dalam analisis R/S, kita memecah data deret waktu Y1,Y2,...YN atas selang yang sama menjadi y1,y2,...yn

kemudian menghitung (R) nilai deviasi kumulatifnya terhadap nilai rata-rata pada selang tersebut yang dinormalisasi atas standar deviasi sampelnya (S). Secara singkat dapat ditulis: ⎥ ⎦ ⎤ ⎢ ⎣ ⎡ ⎟ ⎠ ⎞ ⎜ ⎝ ⎛ − − ⎟ ⎠ ⎞ ⎜ ⎝ ⎛ − =

= = t i n i t i n i y y y y n S n S n R 1 1 min max ) ( 1 ) ( ) ( , (8)

di mana standar deviasi dinyatakan sebagai

(

)

= − = n i n i y y n n S 1 2( ) 1 . (9)

Hal ini dilakukan untuk ukuran selang (s) yang berubah-ubah sehingga terdapat hubungan yang menunjukkan ada/tidaknya selang skala dalam hubungan hukum pangkat: H s n S n R ) ( ) ( (10)

di mana nilai H akan selalu berada pada interval [0,1]. Nilai H yang berbeda-beda menunjukkan sifat data deret waktu terhadap tren yang diikutinya, sebagai:

(i) 0≤H <0.5 menunjukkan persistensi atas tren.

(ii) H =0.5 menunjukkan sifatnya sebagai gerak Brown biasa. (iii) 0.5< H ≤1 menunjukkan antipersistensi atas tren.

Hasil kalkulasi terhadap sekitar 20 saham yang dianggap mewakili ditunjukkan pada tabel 1, demikian pula dengan fit eksponen hukum pangkat (α ) koefisien sampel otokorelasinya.

(15)

Jika kita secara teliti memperhatikan estimasi eksponen Hurst atas berbagai Gambar 4

Koefisien sampel otokorelasi berbagai data saham dalam kurva log-log. Kebanyakan saham yang likuid memiliki memori yang panjang.

(16)

Hurst yang dekat dengan 0.5, atau dapat dinyatakan sebagai memiliki memori perdagangan yang pendek. Beberapa saham besar yang termasuk dalam daftar indeks LQ45 memiliki persistensi atas tren tertentu. Sebaliknya saham baru yang dinilai kurang likuid justru berfluktuasi naik turun sebagai anti-persistensi (TKGA), sementara yang lainnya memiliki persistensi naik meskipun fungsi otokorelasi yang kita temui menunjukkan memori yang pendek untuk saham-saham tersebut.

Dari sini, kita mencatat bahwa dengan sistem perdagangan yang ada sekarang, analisis atas beberapa saham likuid telah menunjukkan perdagangan yang efisien dan cukup baik (dengan continuous treading system) dari segi standar sifat statistikanya. Sebaliknya, dengan tidak melupakan jumlah transaksi yang memang kecil, saham-saham yang kurang likuid menunjukkan hasil yang inkonklusif. Berdasarkan pendekatan yang dilakukan ekonofisikawan Lillo & Farmer (2004) di London Stock Exchange dan Bouchaud, et.al. (2004) di Paris Bourse, pada dasarnya hal ini cukup masuk akal – bahwa sifat memori yang panjang pada return harga pada dasarnya tidak berkenaan dengan efisiensi pasar. Justru, efisiensi pasar harus ditunjukkan melalui fungsi ekspektasi volume perdagangan dan likuiditas. Dengan kata lain, masih terdapat kemungkinan bahwa pola memori yang tidak panjang pada saham yang tidak likuid adalah efisien mengingat rendahnya likuiditasnya. Jika demikian halnya, maka terdapat kemungkinan sistem perdagangan yang digunakan saat ini justru tidak bermasalah, mengingat continuous trading system merupakan cara yang memudahkan pasar dalam mencapai efisiensinya dibandingkan dengan call market system. Hal ini tentunya akan kita uji dalam simulasi pada tahapan berikutnya dari penelitian ini.

3. 3. Korelasi antara Fluktuasi dan Volume saham

Secara spesifik, terdapat hubungan korelasi positif antara fluktuasi harga (yang direpresentasikan sebagai nilai mutlak dari return) dengan volume perdagangan. Hal ini dianalisis dengan menggunakan konsep korelasi silang. Dalam hal ini, korelasi silang antara vektor i dan vektor j dihitung sebagai:

2 2 2 2 j j i i j i j i ij V V V V V V V V − − − = ρ (11)

(17)

dengan Vi adalah nilai saham i dan kurung sudut (<>) menunjukkan nilai rata-rata. Dari

sini, kita memperoleh koefisien korelasi ρij =[−1..1], di mana:

(12)

Dalam hal ini, kita bisa memahami bahwa perubahan harga yang besar (apakah naik atau turun) cenderung diikuti dengan kapitalisasi volume perdagangan yang juga besar. Yang tentunya menarik untuk disimak adalah bagaimana hal ini terjadi pada pasar saham tertentu yang likuid dan yang tidak likuid.

Untuk masing-masing wilayah sektoral perdagangan saham, kita menganalisis dua saham yang representatif untuk yang dianggap likuid dan yang tidak likuid. Hal ini lengkapnya digambarkan pada gambar 5 dan 6.

Pada gambar tersebut terlihat jelas bahwa pada saham yang kurang likuid, seringkali justru tidak terjadi korelasi positif antara fluktuasi harga dengan volume perdagangannya. Yang paling kentara adalah saham dengan kode INCI dan TKGA. Untuk saham INCI dan TKGA terlihat korelasi silang yang terjadi seiring dengan lag

data pada deret waktu senantiasa berada di bawah ambang kepercayaan kita sehingga sulit untuk mengambil kesimpulan terjadinya korelasi silang yang positif. Pada dasarnya hal serupa terjadi secara anomali pada pasar saham dengan kode AALI. Namun hal ini dapat dimaklumi mengingat untuk selang lebih kecil (misalnya data per transaksi) masih ditemui korelasi yang positif.

Secara umum, baik saham yang likuid maupun tidak likuid menunjukkan korelasi positif yang terjadi senantiasa terjadi pada selang satu hari. Artinya perubahan fluktuasi harga di satu titik biasanya memiliki korelasi silang positif pada satu sesi volum perdagangan sesudahnya. Hal ini pada dasarnya menunjukkan rendahnya likuiditas secara overall di BEJ mengingat seharusnya terjadi banyak transaksi yang terjadi pada satu hari perdagangan. Dari aspek mikrostruktur, kita dapat melihat bahwa ternyata baik saham yang likuid atau tidak likuid memiliki pola korelasi yang mirip satu sama lain dan menunjukkan standar data perdagangan yang sudah cukup baik. Artinya, meski kurang likuid dan kurang efisien, pasar masih menunjukkan pola standar dalam hal formasi harga.

= ij ρ 1, terkorelasi 0, tidak berkorelasi -1, anti korelasi

(18)

Gambar 5

Korelasi silang nilai absolut return dengan volume perdagangan: UNSP, AALI, CTTH, BUMI, INCI, BRPT, SMSM, dan ASII.

(19)

Gambar 6

Korelasi silang nilai absolut return dengan volume perdagangan: SMRA, KPIG, DNKS, SUBA, BLTA, CMNP, BBNI, ASBI, JIHD, dan TKGA.

(20)

Dugaan kita, hal ini disebabkan oleh karena sistem limit order yang secara kontinu “membiarkan” pasar “membentuk” harga sendiri melalui keinginan dari investor. Dari segi fairness, aspek statistika ini menunjukkan bahwa formasi harga secara umum sudah pula memadai. Tentu saja, apa yang ditampilkan di sini bersifat analisis statistika formasi harga. Sebagaimana kita ketahui, konsep fairness

melingkupi banyak hal, termasuk yang tak tergambarkan dalam chart fluktuasi harga.

3. 4. Keterhubungan antara Data Perdagangan yang Likuid dan tak Likuid

Analisis korelasi silang ini juga berguna bagi kita untuk menganalisis bagaimana hubungan satu data dengan data yang lain. Dari 19 data saham yang kita pilih, kita dapat menggambarkan jarak antara satu saham dengan saham lain berdasarkan korelasi silangnya. Hal ini digambarkan pada gambar 7.

Pada gambar tersebut terlihat bahwa terdapat kesamaan warna tertentu untuk saham yang berada pada satu sektor perekonomian yang sama. Namun pada dasarnya,

Gambar 7

Jarak antara satu saham dengan saham lain. Semakin biru maka semakin berkorelasi positif dua saham dan semakin merah maka semakin anti-korelatif.

(21)

kesamaan warna tak hanya terlihat di antara sektor yang sama. Beberapa warna yang menunjukkan kedekatan jarak (atau korelasi positif yang tinggi) justru juga terlihat di antara saham-saham yang berbeda sektor ekonominya. Untuk ini, kita menggambarkan dendrogram dari jarak saham-saham ini. Dalam hal ini, dendrogram adalah diagram yang menunjukkan seberapa jauh jarak satu saham dengan saham lain. Model ini biasanya digunakan sebagai penggambaran jarak ultrametrik pada model fisika (model spin-glass).

Tabel 1

Parameter-parameter Statistika Nilai return Yang Digunakan Rata-rata Standar

Deviasi Skewness Kurtosis

Eksponen Otokorelasi Eksponen Hurst AALI*** 0.00037 0.1250 -0.37 316.17 0.46 0.45 UNSP -0.0011 0.0719 -10.36 239.38 1.59 0.27 LSIP 0.00039 0.0408 0.81 14.09 0.34 0.34 BUMI*** 0.0011 0.0814 0.47 6.76 0.72 0.19 CTTH -0.0027 0.0786 0.42 10.16 1.59 0.46 BRPT*** -0.00033 0.0792 0.63 38.22 0.46 0.24 INCI 0.00033 0.0792 0.63 38.22 N/A* 0.50 ASII*** 0.00078 0.0341 0.0563 8.46 0.46 0.48 SMSM -0.0019 0.0704 -17.82 427.71 0.82 0.63 SMRA*** 0.00050 0.0946 -5.58 98.97 0.55 0.34 KPIG -0.0032 0.0865 0.02 7.85 0.63 0.37 DNKS*** -0.00052 0.0669 -0.44 174,20 5.43 0.34 SUBA -0.0021 0.0966 4.60 126.49 1.14 0.19** BLTA*** -0.00038 0.0546 -15.13 367.81 1.17 0.25 CMNP -0.00099 0.0309 0.58 7.99 0.69 0.50 BBNI*** 0.0015 0.918 20.53 596.92 1.14 0.07 ASBI -0.0016 0.0577 -9.87 206.38 0.94 0.28 JIHD*** -0.00041 0.0535 -1.36 32.11 0.96 0.47 TKGA -0.141 0.1774 0.0890 3.60 2.39 0.65

* Nilai fit yang diperoleh terlalu besar ** Untuk data perdagangan tahun 2000-2001 *** Data termasuk dalam indeks LQ45

Di sini, kita menggunakan koefisien korelasi silang di antara saham-saham (persamaan 11) dan mengubahnya menjadi matriks jarak antara saham. Jadi jika dua saham berkorelasi positif tentu jaraknya semakin dekat dibandingkan dengan saham yang berkorelasi negatif. Metode ini diperkenalkan dalam analisis hirarki bursa saham oleh Mantegna (1999) untuk mengekstrak informasi tersembunyi antara satu saham dengan saham yang lain. Pada praktiknya, biasanya metode ini digunakan sebagai perangkat ekonofisika yang membantuk dalam penyusunan portfoloio. Berdasarkan laporan Mantegna & Stanley (2000:105-6), saham-saham yang berada dalam sektor

(22)

yang sama akan meng-cluster pada ranting yang sama pada pohon taksonomi saham-saham tersebut.

Dalam pemodelan ini, kita menggunakan jarak euclidean (dij) antar saham-saham sebagai: ) 1 ( 2 ij ij d = −ρ (13)

Dari sini, kita mendapati jarak euclidean antara saham sebagai

(14)

Dari sini kita kemudian menyusun model hirarki sebagai pohon taksonomi dengan mencari jarak terpendek antar saham-saham tersebut dengan menggunakan algoritma Pohon Terpendek (Minimum Spanning Tree). Kita melakukan hal ini dengan menggunakan algoritma Kruskal yang menggambarkan graf yang terdiri atas n node dan terhubung dengan n-1 koneksi. Dengan algoritma ini kita menyusun keterhubungan antara saham-saham dengan total jarak antaranya yang paling minimum.

Dengan menerapkan algoritma ini, kita menambahkan satu syarat dari ketiga syarat yang ditunjukkan pada persamaan 14 yang dikenal sebagai sifat ultrametrik, yaitu: ) , max( ult kj ult ik ult ij d d d ≤ (15)

Hasil yang diperoleh sangat menarik, karena bukannya berkelompok berdasarkan sektor ekonominya, justru saham-saham tersebut berkelompok berdasarkan likuiditas perdagangannya.

Sebagai contoh, kita lihat kelompok di sebelah kiri dendrogram. Di sana ditunjukkan bahwa saham CTTH dan INCI sangat berdekatan dan mengelompok bersama dengan kelompok saham yang memuat ASBI dan SUBA. Keempat saham ini berada pada sektor yang sangat berbeda, yaitu sektor pertambangan (CTTH), sektor

properties kj ik ij ji ij ij d d d d d j i d + ≤ = = ⇔ =0

(23)

industri dasar dan bahan kimia (INCI), sektor keuangan (ASBI), dan sektor industri konsumen (SUBA). Pola fluktuasi saham CTTH dan INCI justru lebih mirip dibandingkan CTTH dengan BUMI yang berada di satu sektor yang sama dengannya; demikian pula halnya dengan INCI dan BRPT. Saham dengan kode BUMI sendiri memiliki pola fluktuasi yang sama dengan saham sektor keuangan yaitu BBNI. Dalam hal ini BUMI dan BBNI termasuk dua saham yang paling likuid di BEJ.

Apa arti dari pengelompokan berdasarkan jarak korelatif ini? Hal ini menunjukkan bahwa likuiditas sebuah saham justru memberikan citra yang paling dominan dalam korelasi silangnya dengan saham-saham lain dibandingkan dengan sektor perekonomian di mana ia berada. Akibat dari hal ini adalah bahwa perdagangan secara umum tidak dapat menggambarkan perdagangan di masing-masing sektor.

Dengan kata lain, agregasi dari seluruh perdagangan yang ada di BEJ kurang menggambarkan sektor-sektor ekonomi di mana perusahaan tersebut bergerak. Mengingat faktor likuiditas sangat mempengaruhi clustering saham-saham, perspektif lain yang muncul adalah adanya kemungkinan bahwa ketidaklikuidan sebuah saham

Gambar 8

Saham-saham yang diperdagangkan di BEJ berkelompok membentuk jsutru tidak berdasarkan kesamaan sektor perekonomian, justru berdasarkan likuiditasnya.

(24)

khalayak. Ini tentu menjadi masukan untuk penelitian ini bahwa di luar faktor endogen sistem perdagangan terdapat faktor eksogen yaitu persepsi masyarakat atas perdagangan saham di BEJ termasuk profil masing-masing firma yang diperdagangkan.

3. 5. Analisis Teori Matriks Acak

Misalkan terdapat N saham pada saat t yaitu )S1(t),S2(t),...,SN(t dalam rentang waktu pengamatan L atau t=1,2,...,L. selanjutnya data saham tersebut dirubah menjadi data return,

⎟⎟ ⎠ ⎞ ⎜⎜ ⎝ ⎛ + ≡ ) ( ) 1 ( ln ) ( t S t S t G i i i (i)

Kemudian data return ini dinormalkan terhadap standar deviasinya

i i i i G t G t g σ − ≡ ( ) ) ( (ii) dengan 2 2 i i iGG

σ dan fungsi korelasi silang didefinisikan sebagai

) ( ) (t g t g Ciji j (iii) dengan sifat ⎪ ⎩ ⎪ ⎨ ⎧ − anti korelasi i berkorelas tidak sempurna korelasi Cij _ , 1 _ , 0 _ , 1

Persamaan (iii) bisa dituliskan dalam bentuk

T GG L C = 1

(25)

Dengan G

{

gij |gij = gi(j), j=1,...,L,i =1,...,N

}

, sedangkan untuk matrik acak, setiap anggota dari matrik di atas dibangkitkan secara acak, hal ini ditulis sebagai

T AA L R≡ 1

dengan A adalah matrik yang beranggotakan data acak, baik G maupun A merupakan matrik dengan ukuran NxL.

Peran dari matrik acak adalah sebagai pembanding terhadap data sebenarnya. Perbandingan ini meliputi distribusi peluang matrik korelasi dan distribusi peluang nilai eigen dari matrik korelasi. Hasil yang diperoleh dari perbandingan ini adalah seberapa besar perilaku data saham berbeda dari data acak. Lebih jauh, kedekatan perilaku statistik terhadap data acak merupakan bentuk dari informasi yang bersifat gangguan/noise.

Hal menarik dari model ini adalah jika dihubungkan dengan teoerma limit pusat (TLP), yaitu ketika ukuran matrik sedemikian besarnya dan distribusi peluang nilai eigen memiliki sifat universal, hal ini merupakan akibat langsung dari TLP [11].

Untuk matrik yang diperoleh dari persamaan (iv), fungsi kepadatan peluang nilai eigen didefinisikan sebagai

= − ≡ N j j N 1 ) ( 1 ) (λ δ λ λ ρ dengan j

λ menyatakan nilai eigen dari saham-j dan δ merupakan fungsi Dirac. Apa yang terjadi jika N →∞,L→∞ , Bouchad [11] menunjukkan melalui TLP bahwa akan diperoleh λ λ λ λ λ πσ λ ρ ( )( ) 2 ) ( = Q 2 mak − − min

(26)

Sifat statistika dari data yang dimodelkan dalam TMA akan menghasilkan dua hal, yang pertama adalah gangguan dan yang ke dua adalah informasi. Merupakan gangguan jika sifat statistika tersebut sesuai atau mirip dengan perilaku data acak, demikian sebaliknya bahwa data tersebut merupakan informasi jika berada diluar sifat data acak. sehingga penyelidikan tentang data saham dengan menggunakan TMA adalah mencari sejauh mana data saham menyimpang dari data acak.

Hal utama yang ingin diperoleh pada RMT adalah membedakan antara informasi yang berguna dan informasi yang merupakan gangguan yang dalam hal ini bisa diketahui melalui nilai eigen dan vektor eigen. Cara yang digunakan untuk menentukan prosedur ini adalah melalui perbandingan antara matrik korelasi data saham terhadap matrik korelasi data acak. sejauh mana penyimpangan yang terjadi merupakan petunjuk bahwa informasi dari data merupakan informasi yang berguna, validitas metode RMT dari nilai eigen yang merupakan hasil dari matrik korelasi silang. Simpangan terhadap RMT merupakan informasi yang tidak bisa dijelaskan dari model acak [7].

Dalam penerapan model RMT ini, ada tiga data yang kita gunakan yakni: sampel data likuid, sampel data tak likuid, dan sampel data gabungan. Data dimulai dari 2000-03-30 s/d 2004-12-29

Gambar 9

Secara umum matrik korelasi dari data saham bernilai positif jika dibandingkan dengan data acak. Perhatikan pula pada nilai korelasi sekitar 1

(27)

Gambar 10

Jika dibandingkan dengan hasil sebelumnya, terlihat bahwa bentuk distribusi pada nilai eigen relatif lebih dekat. Dan juga perhatikan bahwa terjadi pengumpulan nilai eigen di luar

jangkauan data acak, jelas berbeda dengan data sebelumnya

Gambar 11

Histogram dari nilai eigen menciptakan dua kelompok, kelompok pertama yang dekat dengan dengan data acak dan kelompok ke dua yang di luar jangkauan data acak.

(28)

Jika diperhatikan pada grafik matrik korelasi terlihat jelas bahwa terjadi perbedaan mencolok antara perilaku saham likuid dibandingkan dengan saham tak likuid. Pada saham likuid, distribusi peluang dari nilai eigen selain bergeser ke kiri juga jauh di bawah distribusi peluang dari data acak. Hal ini menunjukkan bahwa dalam saham yang likuid perilaku korelasi antar sahamnya jauh dari sifat perilaku acak. Sementara pada saham tak likuid distribusi peluang dari korelasi relatif lebih dekat dengan data acak.

Sementara pada grafik nilai eigen, kedua saham likuid dan tak likuid menunjukkan perilaku yang hampir sama, yaitu sebagian besar distribusi peluang berada dalam nilai eigen matrik acak. Perbedaannya muncul pada seberapa besar nilai eigen yang berada di luar jangkauan matrik acak. Perbedaan maksimal nilai eigen saham dengan maksimal nilai eigen matrik acak menyatakan tingkat informasi yang berguna (kebalikan informasi yang bersifat gangguan) dari komposisi data tersebut. Jadi semakin besar perbedaan nilai eigen dengan matrik acak maka komposisi data tersebut mengandung informasi yang bukan gangguan sehingga memudahkan analisis, karena tidak perlu ada data yang dibuang.

Gambar 12

hampir sebagian besar nilai eigen dari data saham berada dalam rentang

[

λmin,λmak

]

, dan nilai eigen terbesar dari data saham sekitar 1.6224 kali nilai eigen

(29)

Teori matrik acak berperan sebagai pembanding terhadap data sebenarnya. Seberapa jauh data menyimpang dari perilaku data acak. Nilai penyimpangan pada nilai eigen matrik korelasi menunjukkan sejauh mana data berisi kumpulan informasi

Gambar 13

Kelompok sebelah kiri mewakili saham-saham tak likuid, dan kelompok sebelah kanan mewakili saham-saham likuid. Coba perhatikan grafik matrik korelasi dan nilai eigen

(30)

Secara umum pada matrik korelasi, terjadi perbedaan yang amat besar antara perilaku data saham dibandingkan dengan data acak. Pada data acak, nilai korelasi ini mengumpul di sekitar nilai nol dan frekuensi yang mengumpul pada nilai ini telihat jauh lebih banyak jika dibandingkan dengan data saham. Hal ini menyatakan bahwa komposisi data saham memiliki keterkaitan satu dengan yang lainnya dalam perubahan return. Lebih jauh, jika kita bandingkan perbedaan terhadap data acak akan terlihat bahwa data saham likuid memiliki perbedaan yang jauh lebih besar dibandingkan dengan data saham tak likuid. Hal ini menyatakan bahwa korelasi pada saham likuid relatif lebih besar dibandingkan dengan saham tak likuid.

Tabel 2

Jelas bahwa pada saham likuid nilai perbandingan antara maksimal eigen saham dengan data acak akan lebih besar jika dibandingkan dengan saham tak likuid. Namun

jika kedua data tersebut digabung, dihasilkan perbandingan yang lebih besar lagi. Jenis Maks (eigen saham)/Maks(eigen acak)

Likuid 1.3361

Tak likuid 1.2056

Gabungan 1.6224

Jika pada matrik korelasi, perbedaan dengan data saham dengan data acak terlihat cukup besar ternyata dalam nilai eigen terjadi perbedaan yang amat kecil antara data saham dengan data acak. Dan hal penting dalam analisis ini adalah seberapa besar nilai eigen data saham yang berada di luar rentang nilai eigen data acak.

Pada grafik nilai eigen, kedua saham likuid dan tak likuid menunjukkan perilaku yang hampir sama, yaitu sebagian besar distribusi peluang berada dalam nilai eigen matrik acak. Perbedaannya muncul pada seberapa besar nilai eigen yang berada di luar jangkauan matrik acak. Perbedaan maksimal nilai eigen saham dengan maksimal nilai eigen matrik acak menyatakan tingkat informasi yang berguna (kebalikan informasi yang bersifat gangguan) dari komposisi data tersebut. Jadi semakin besar perbedaan nilai eigen dengan matrik acak maka komposisi data tersebut mengandung informasi yang bukan gangguan sehingga memudahkan analisis, karena tidak perlu ada data yang dibuang.

(31)

4. Ikhtisar

Pada dasarnya kita telah dapat melihat bahwa dari segi sifat statistikanya, sistem perdagangan di BEJ masih perlu memperhatikan efisiensi berkenaan dengan likuiditas sebagian besar saham yang diperdagangkan. Hal ini mengakibatkan munculnya ketidaksamaan distribusional return negatif dan positif pada bagian ekor distribusi return gabungan beberapa saham. Hal ini pada dasarnya menunjukkan tingginya kuantitas spekulasi trend follower di pasar saham. Hal ini diikuti pula oleh fakta bahwa sebagian besar data saham di BEJ cenderung memiliki persistensi yang kuat atas tren.

Tabel 3

Ikhtisar Ekstraksi Sifat Statistik Saham Likuid vs Saham tak Likuid

Saham Likuid Saham tak Likuid

Sifat skala

Cenderung lebih lambat kembali ke distribusi normal

dari distribusi ekor gemuk.

Bervariasi. Beberapa data saham justru tidak menunjukkan karakter

kembali ke kondisi leptokurtis. Beberapa saham yang memiliki ekor gemuk justru diduga mencapai

efisiensi pada tingkat likuiditas sedemikian.

Memori (hal otokorelasi)

Yang memiliki tingkat likuiditas lebih tinggi cenderung memiliki memori

yang panjang.

Umumnya sulit dideteksi apakah memiliki memori panjang atau

pendek. Namun yang dapat terdeteksi memiliki memori

pendek.

Eksponen Hurst Cenderung persisten terhadap tren (<0.5).

Kebanyakan persisten terhadap tren, namun untuk yang sangat tidak likuid beberapa sampel menunjukkan anti-persistensi. Korelasi Fluktuasi

dan Volume Saham

Umumnya menunjukkan korelasi positif.

Beberapa saham tidak menunjukkan korelasi positif.

Keterhubungan antar saham

Tidak mencerminkan sektor perdagangan saham. Saham mengelompok berdasarkan

likuiditas.

Tidak mencerminkan sektor perdagangan saham. Saham mengelompok berdasarkan

likuiditas.

Teori Matriks Acak

Maksimal nilai eigen data saham lebih besar daripada

yang tidak likuid.

Maksimal nilai eigen data saham relatif lebih kecil.

Sebagaimana sifat universal yang ditemukan di berbagai pasar modal, bursa saham di BEJ, baik yang likuid maupun yang kurang likuid menunjukkan sifat skala atas distribusinya yang leptokurtis. Namun kembalinya distribusi menjadi distribusi

(32)

normal berbeda antara saham yang likuid dan yang kurang likuid. Lebih jauh, sifat statistika ini justru tidak ditemukan pada beberapa saham yang memang sangat tidak likuid.

Dari segi korelasi fluktuasi dan volume perdagangan, pada dasarnya ditunjukkan adanya korelasi positif yang mensyaratkan bahwa formasi harga telah cukup baik berkenaan dengan volume transaksinya. Hal serupa pada dasarnya ditemukan juga di banyak pasar termasuk bursa saham. Namun beberapa hal ternyata menunjukkan bahwa saham yang tidak likuid justru tidak menunjukkan sifat ini yang memberikan entry point pertanyaan kita akan formasi harga, apakah telah cukup fair

di bursa saham atau belum.

Dari analisis keterhubungan antar saham dideteksi bahwa ternyata kategori sektor-sektor ekonomi berkenaan dengan bidang usaha emitten yang terdaftar tidak ditunjukkan oleh fluktuasi harga saham-saham tersebut. Hal ini mengakibatkan rendahnya sensitifitas variabel umum bursa atas sektor-sektor tersebut. Justru, likuid tidaknya sebuah saham menjadi faktor penting yang menggambarkan fluktuasi saham. Hal ini mensyaratkan bahwa ketaklikuidan sebuah saham bisa jadi ditentukan oleh berbagai faktor eksogen yang melibatkan masyarakat luas, khususnya segmen investor. Dalam pasar biasa, misalnya pasar tradisional, pasar barang dan jasa, dan sebagainya, efisiensi pasar dapat dikalkulasi atas banyaknya kuantitas konsumen. Pada kondisi efisien ini, secara logis kita mengetahui bahwa semakin efisien sebuah pasar maka semakin besar fluktuasi harga (De Martino & Marsili, 2005). Demikian pula dengan pasar modal, yang menjadi agen likuiditas tentunya adalah investor. Persepsi investor (atau calon investor) di pasar modal tentu merupakan ikhwal yang menjadi prioritas utama untuk dikaji, demi likuiditas dan efisiensi pasar itu sendiri.

Hal-hal yang menjadi bahan pertimbangan statistika kita dalam rangka melakukan simulasi mikrostruktur sistem perdagangan di BEJ disarikan pada tabel 3. Di sisi lain, tabel ikhtisar tersebut pada dasarnya juga dapat digunakan oleh pihak bursa untuk meng-evaluasi perdagangan saham dalam kurun waktu data penelitian, yaitu 2000-2005.

5. Diskusi & Catatan Kesimpulan

Melalui penelaahan atas sifat-sifat statistika yang memperbandingkan antara saham yang likuid dan tak likuid ini kita menemukan bahwa ternyata di samping

(33)

sistem perdagangan terdapat faktor yang mungkin sangat besar pengaruhnya dalam menciptakan likuiditas perdagangan di bursa saham. Faktor tersebut adalah faktor eksogen yang berkenaan dengan animo publik, khususnya kalangan investor, tentang saham-saham yang diperdagangkan. Dalam evaluasi pasar tak efisien Warsaw Stock Exchange iklim investasi di pasar bursa merupakan hal yang penting dalam menentukan efisiensi pasar lebih dari sistem perdagangan. Analisis efisiensi dan optimalisasi yang dilakukan beberapa peneliti di London Stock Exchange dan Paris Bourse juga merefleksikan hal ini.

Dalam penelitian yang dilakukan, simulasi mikrostruktur dalam rangka membedah berbagai pola trading system, khususnya continuous interval trading system akan membuktikan seberapa jauh dampak likuiditas atas perubahan sistem perdagangan. Namun perlu dicatat bahwa penelitian ini juga mengisyaratkan bahwa penting dilakukan analisis atas berbagai strategi untuk memasyarakatkan investasi di bursa efek kepada masyarakat luas. Hal ini dinilai penting mengingat bahwa animo publik untuk berinvestasi di pasar modal juga merupakan hal yang penting di samping bagaimana investor berinteraksi dalam pasar dalam kajian trading system.

Referensi:

1. Baschnagel, J. & Paul, W. (1999). Stochastic Processes From Physics and Finance. Springer-Verlag.

2. Bouchaud, J.P. (2002). “An Introduction to Statistical Finance”. Physica A

313:238-251.

3. Bouchaud, J.-P., Gefen, Y., Potters, M., & M. Wyart. (2004). “Fluctuations and response in financial markets: the subtle nature of ’random’ price changes”. Quantitative Finance 4:176-190.

4. Burda, Z.& Jurkiewicz, J. (2003). Signal and Noise in Financial Correlation Matrices.Preprint submitted to Elsevier Science. arXiv:cond-mat/0312496v2

5. Carbon, A., Castelli, G. & Stanley, H. E. (2004). “Time Dependent Hurst Exponent in Financiail Time Series”. Physica A 344:267-271.

6. Cont, R. & Bouchaud, J. (2000). “Herd Behavior and Aggregate Fluctuations in Financial Markets. Macroeconomic Dynamics 4:170-96.

7. Craig, A.T. & Hogg, R.V. (1995). Introduction to Mathematical Statistics. Prentice Hall.

(34)

8. De Martino, A. & Marsili, M. (2005). On the interplay between fluctuations and efficiency in a model economy with Heterogenous Adaptive Consumers. pre-print arXiv:cond-mat/0502662.

9. Fama, E.F. (1970). “Efficient Capital Markets: A Review of Theory and Empirical Work”. Journal of Finance 25:383-417.

10.Farmer, J.D. & Lillo, F. (2003). On The Origin of Power-law Tails in Price Fluctuations. Working Paper 03-09-052. Santa Fe Institute.

11.Forresters, P.J., Snaith, N.C., Verbaarschot, J.J.M. (2003). Developments in

RandomMatrix Theory. arXiv:cond-mat/0303207v1.

12.Gabaix, X., Gopikrishnan, P., Plerou, V., & Stanley, H.E. (2003). A Theory of Power-law Distributions in Financial Market Fluctuations. Nature Vol.423:267-270.

13.Gammel, B. M. (1998). "Hurst’s rescaled range statistical analysis for pseudorandom number generators used in physical simulations". Physical Review E 58(2):2586-97.

14.Gaunersdorfer, A. & Hommes, C.H. (2000). A Nonlinear Structural Model for Volatility Clustering. Working Paper Series No.63. Vienna University of Economics and Bussiness Administration.

15.Hariadi, Y. & Surya, Y. (2003). Multifraktal: Telkom, Indosat, & HMSP. Working Paper WPT2003 Bandung Fe Institute.

16.Hariadi, Y. & Surya, Y. (2003). Kulminasi Prediksi Data Deret Waktu Keuangan: Volatilitas dalam GARCH(1,1). Working Paper WPF2003. Bandung Fe Institute.

17.Hariadi, Y. & Surya, Y. (2003). Peramalan dalam Selang GARCH(1,1).

Working Paper WPH2003. Bandung Fe Institute

18.Iori, Giulia. (2001). “Scaling and Multi-Scaling in Financial Markets”.

Disordered and Complex Systems. ed. P.Sollich et al., AIP Conference Proceedings. Vol 553: 297-302.

19.Iori, G., Daniels, M.G., Farmer, J.D., Gillemot, L., Krishnamurty, S., & Simth, E. (2003). “An analysis of price impact function in order-driven markets”.

Physica A 324:146-51.

20.LeBaron, B., Arthur, W., & Palmer, R. (1999). “Time Series Properties of an Artificial Stock Market”. Journal of Economic Dynamics and Control

23:1487-516.

21.Lillo, F., & Farmer, J.D. (2004). The Long Memory of the Efficient Market. Pre-print: arxiv:cond-mat/0311053

22.Lo, M.S. (2000). Generalized Autoregressive Conditional Heteroscescedastic

Time Series Model. A Project Submitted in Partial Fulfillment of the

Requirements for Degree of Master of Science. Simon Fraser University.

23.Makowiec, D. (2004). “On Modeling of Inefficient Market”. Physica A

344:36-40.

24.Mandelbrot, Benoit. (1963). The Variation of Certain Speculative Prices.

(35)

25.Mantegna, R. N. (1999). “Hierarchical Structure in Financial Market”. The European Physical Journal B 11:193-7.

26.Mantegna, R. M. & Stanley, H.E. (2000). An Introduction to Econophysics: Correlations and Complexity in Finance. Cambridge University Press.

27.Plerou, V., Gopikrishnan, P., Rosenow, B. Amaral, L.A.N, Guhr, T., Stanley, H.E. (2002). “Random matrix approach to cross correlations in financial data”.

Physical Review E 65.

28.Plerou, V., Gopikrishnan, P., Rosenow, B. Amaral, Stanley, H.E. (1999). “Universal and Nonuniversal Properties of Cross Correlations in Financial Time Series”. Physical Review Letters 83(7).

29.Samuelson, Paul A. (1965). “Proof that Properly Anticipated Prices Fluctuate Randomly”. Industrial ManagementReview 6:41-45.

30.Situngkir, H. & Surya, Y. (2003). Dari Transisi Fasa Ke Sistem Keuangan: Distribusi Statistika pada Sistem Keuangan. Working Paper WPQ2003. Bandung Fe Institute.

31.Situngkir, H. & Surya, Y. (2004). “Sifat Statistika Data Ekonomi Keuangan”. Makalah kerja disampaikan pada Simposium Fisika Nasional XX, Riau, 24-25 Agustus 2004. Proceeding Simposium Fisika Nasional XX. Himpunan Fisika Indonesia.

32.Situngkir, H. & Surya, Y. (2005). Simulasi Investasi dengan Hukum Pangkat Zipf: Analisis Zipf-(m,2) dalam Teks Data Indeks. Working Paper WPC Bandung Fe Institute.

33.Sornette, D. & Johansen, A. (2001). "Significance of Log-Periodic Precursors to Financial Crashes". Quantitative Finance 1: 452-71.

34.Utsugi, A., Ino, K., Oshikawa, M. (2003). Random Matrix Theory of Cross Correlations in Financial Markets. arXiv:cond-mat/0312643v1

Referensi

Dokumen terkait

Data primer adalah data yang diperoleh dari lokasi bangunan maupun hasil survei yang dapat langsung dipergunakan sebagai sumber dalam analisis suatu struktur bangunan..

Data pembeli yang ada adalah pembeli yang sudah mendaftar sebagai member pada website e-commerce Konveksi “ Fausta Gallery ”..

--- Bahwa dia terdakwa DAPIT SEMBIRING pada tanggal 14 Nopember 2006 dan tanggal 19 Pebruari 2007 atau setidak-tidaknya antara tahun 2006 sampai tahun 2007,

- Bagian gigi t’besar, ditengahnya t’dapat pulpa dentis - Merupakan suatu jaringan yang zat Interselnya.

Dalam sejarah, kita pernah menerapkan berbagai sistem pemerintahan, yaitu sistem presidensial, parlementer, sistem presidensial era orde lama dengan banyak partai, sistem

Nam un dem ikian pem bangunan infrast rukt ur w ilayah t ersebut m asih dihadapkan beberapa kelem ahan sepert i m asih kurang m erat anya pem bangunan infrast rukt ur,

Kemampuan praktikan dalam mengembangkan diri terutama dalam proses pembelajaran masih sangat minim karena itu praktikan merasa masih harus banyak belajar, baik

Dalam Renstra ini telah disajikan visi, misi, tujuan, dan sasaran Program Studi D3 Manajemen Informatika dalam menghadapi tantangan masa depan sesuai dengan tugas yang