Copy and Paste

Anda bebas mengambil content blog ini, tapi mohon sebutkan alamat blog ini dalam tulisan Anda.

You are free to copy the content of my blog. However, please let your readers know my blog as your source.

Senin, 03 November 2014

Big Data: Big Promise

Solusi TI dari dulu sering mengumbar janji-janji manis. Mungkin kelakuan mengumbar janji ini akan terus berlanjut. Para vendor sangat lihay memunculkan istilah baru yang katanya bisa memenuhi janji-janji yang pernah diumbar sebelumnya, ditambah tentunya dengan janji baru yang lebih manis. Big data adalah salah satu janji manis itu - big promise.

Masih segar dalam ingatan kita, tidak terlalu lama sebelum ini ada janji manis berupa teknologi database, kemudian data warehouse, terus data mart, data mining, malah pernah ada data lake. Masih banyak buzzword lain, tapi sudahlah. Memang sih ga semua janjinya cuma pepesan kosong, tapi mengklaim janji-janjinya terpenuhi semua juga ga tepat. Nah, ketika big data datang dengan janji manis baru, tidak terlalu salah kalau pengguna-pengguna seperti kita ini agak skeptis di satu sisi, tapi juga penuh harap di sisi lain.

Menurut saya pribadi, sikap skeptis terhadap janji-janji dari vendor TI, termasuk big data, adalah sikap yang tepat. Memang harus imbang sih. Jangan sampai sikap skeptis itu menjadi negatif sehingga menutup peluang-peluang baru yang boleh jadi sudah menunggu setelah tikungan di depan. Anyway, pertanyaan skeptis yang sering muncul di benak saya adalah, "Apa bedanya dengan yang lalu?"

Ayo kita ingat-ingat lagi teknologi sebelumnya dulu kasih janji apa dan yang mana yang belum terwujud. Menyusuri ingatan seperti ini kadang menyakitkan karena membuka luka lama. Mari mulai dengan yang satu ini: database. Teknologi database sudah memberi sumbangannya, meskipun ada kurangnya. Koq ya tumpukan data di database yang berasal dari transaksi-transaksi perusahaan kita tidak mudah di-query? Jangan ngomong dulu mengenai sejumlah database perusahaan yang tidak nyambung satu dengan yang lain. Kalaupun query terpaksa dilakukan, ada risiko kegiatan operasional yang didukung database dimaksud mengalami gangguan.

Data warehouse katanya bisa mengatasi masalah integrasi dan gangguan ketika query dilakukan. Data dari berbagai sumber ditarik ke warehouse, diintegrasikan, dan disimpan secara historis. Ketika query dilakukan ke warehouse, sistem-sistem database operasional tidak bakal terganggu, karena proses penarikan dan transformasi data dilakukan malam hari. Itupun bebannya banyak di data warehouse, bukan di database sumber. Selesai? Tidak juga. Integrasi tetap menjadi isu. Data sebenarnya berhasil diintegrasikan, tapi seiring kompleksitas yang makin meningkat, integrasi kembali menjadi isu. Ini berarti semakin sulit mengintegrasikan data dari sumber-sumber baru. Jangan bicara dulu mengenai masalah performance baik pada proses penarikan dan transformasi (biasa disebut ETL atau ELT) maupun proses query untuk menghasilkan informasi.

Data mart bisa mengatasi masalah performance dari query, karena lebih kecil dan spesifik untuk kebutuhan tertentu. Iya sih, tapi kalau data mart dibentuk langsung dari penarikan data di sumber-sumber tertentu, masalah integrasi tidak terpecahkan. Antara satu data mart dengan yang lain betul-betul independen dan ga nyambung. Pendekatan Ralph Kimball berupaya mengatasinya dengan suatu bus architecture, tapi lagi-lagi ketika proyek sudah sukses, kemudian muncul kebutuhan-kebutuhan baru, pendekatan ini pada akhirnya menemui kesulitan yang sama.

Lain lagi kalau menggunakan data mart yang dependen terhadap data warehouse. Solusi seperti ini yang diusung oleh Bill Inmon memang menjamin data mart-data mart dibentuk dari data warehouse yang sebelumnya sudah terintegrasi. Pertanyaan kembali muncul terhadap tingkat integrasi data warehouse itu sendiri. Dengan pendekatan asli dari Inmon, relatif sulit untuk secara agile mengintegrasikan data dari sumber-sumber baru ke warehouse. Pendekatan modern dari Dan Linstedt sepertinya bisa menjadi solusi buat Kimball dan Inmon: mengatasi kelemahannya masing-masing sekaligus memanfaatkan kekuatan masing-masing.

Apa masalah sudah beres? Anggaplah kita mampu mengimplementasi pendekatan Inmon-Linstedt-Kimball, apakah semua janji terpenuhi? Belum. Pengambil keputusan dalam tiap-tiap institusi tidak dapat memutuskan hanya berdasarkan informasi dari data warehouse atau data mart. Menurut bacaan saya dulu, semakin tinggi dan strategis level pengambil keputusan, semakin tidak terstruktur prosesnya, semakin tidak terstruktur inputnya, semakin dipengaruhi oleh faktor-faktor eksternal keputusannya. Bagaimana mungkin keputusan diambil dengan output data warehouse saja.

Saya tidak mengatakan bahwa proses pengambilan keputusan di level strategis tidak ada pola atau sistematikanya. Yang ingin saya sampaikan adalah prosesnya itu semakin tidak mekanistis, meskipun tetap ada mekanismenya. Prosesnya semakin tidak terstruktur, meskipun tetap ada strukturnya. Semakin tidak pasti faktor-faktor keputusan itu, meskipun ada kejelasannya. Dengan lain perkataan, teknologi belum mampu menggantikan sistem informasi paling canggih yang inheren dalam diri manusia, dalam diri pengambil keputusan dan para pembisiknya itu.

Untuk sederhananya, saya kembali menggunakan istilah pembisik, seperti pada tulisan yang lalu, Big Data: Big Bingung. Tidak jarang pengambil keputusan mengambil suatu keputusan atas dasar bisikan pembisiknya. Apakah ini 100% ngawur? Tidak sama sekali. Kalau si pengambil keputusan yakin dengan kemampuan dan kualitas pembisiknya, justru praktik ini sangat efektif dan efisien. Bagaimana pembisik itu bisa menghasilkan bisikan yang berkualitas untuk tuannya? Barangkali di belakangnya ada pembisik lagi. Barangkali dia mengakses data warehouse.

Apakah cukup dari data warehouse atau database? Pasti tidak. Hanya persoalan yang sangat diketahui nature-nya yang bisa diotomasi dan didukung penuh dengan teknologi. Sebagian besar persoalan pengambil keputusan, khususnya di lembaga-lembaga besar mengandung faktor-faktor yang masih tersembunyi di dalam lipatan-lipatan platonik yang tidak dapat diantisipasi. Makanya perlu kolaborasi para pembisik. Kalau data yang dibutuhkan belum tersedia di data warehouse atau database, sudah pasti kreativitas para kolaborator itu akan membawa mereka ke kemungkinan perolehan data secukupnya. Sang tuan harus segera dibisiki!

Bagaimana para pembisik berkolaborasi? Pembisik yang satu mengetahui kualitas para pembisik di sekitarnya. Oya, di lembaga-lembaga serius, pembisik ini mungkin disebut analis, kadang disebut peneliti, malah ada yang disebut ekonom dan ilmuwan. Kembali ke pembisik, mereka bekerja mengikuti struktur tertentu, entah itu formal atau informal. Struktur formal misalnya mengikuti struktur organisasi. Jadi, ada pembisik pemula, ada pembisik madya, dan ada pembisik eksekutif, serta ada kepala pembisiknya. Mereka kenal satu dengan yang lain. Saking kenalnya, kepala pembisik selalu memberi penugasan ke pembisik tertentu yang dia sudah tahu kualitas dan/atau loyalitas ybs. Itu di satu sisi. Di sisi lain, ada yang dikucilkan, menjadi pembisik bisu, yang paling-paling berbisik untuk diri sendiri.

Para pembisik itu mempraktikkan empat kegiatan utama. Pertama, mungkin yang paling manusiawi, adalah sosialisasi. Para pembisik kongkow-kongkow bertukar bisikan. Yang kedua adalah eksternalisasi bisikannya menjadi tulisan-tulisan, laporan, jurnal ilmiah, atau sekedar tulisan di medsos yang kemudian dibaca oleh tuannya. Yang ketiga adalah kombinasi. Maksudnya pembisik membaca beberapa tulisan pembisik-pembisik lain, lalu mengkombinasikannya menjadi tulisan baru. Barangkali dalam proses mengkombinasi itu, ada penyaringan, ada penekanan, dan ada pengabaian. Yang terakhir, keempat, disebut internalisasi. Di modus ini, seorang pembisik mempelajari tulisan-tulisan yang ada dan berusaha memasukkannya dalam pemahaman. Mungkin termasuk juga dalam modus ini adalah si pembisik mempelajari data yang dia dapatkan dari data warehouse, database, atau DARI MANA SAJA (sengaja huruf besar, yang ini merupakan area big promise dari big data), kemudian mempelajari segala korelasi, dan kemudian membuat suatu kesimpulan.

Ah, panjang juga penjelasan mengenai empat kegiatan utama para pembisik atau para kolaborator di paragraf terakhir di atas. Supaya saya ga disebut curang, mending saya sebut saja sumber pembisik saya, yaitu Nonaka dan Takeuchi dengan model SECI, socialization-externalization-combination-internalization. Pasti kita semua sudah melakukan kegiatan-kegiatan itu. Model SECI hanya untuk memudahkan penjelasan saja.

Waduh, saya masih perlu mengelaborasi artikel ini, khususnya memberi penekanan di area big promise of big data, tapi ini udah kepanjangan. Tunggu ya di artikel selanjutnya.

addthis

Live Traffic Feed