Copy and Paste

Anda bebas mengambil content blog ini, tapi mohon sebutkan alamat blog ini dalam tulisan Anda.

You are free to copy the content of my blog. However, please let your readers know my blog as your source.

Rabu, 26 November 2014

Big Data: Big Untung

Seperti penjelasan sekenanya di artikel Big Data: Big Bingung, teknologi big data adalah suatu teknologi yang memungkinkan pengolahan catatan digital yang terus menerus tercipta setiap saat dengan velocity tinggi dan volume besar, baik lokal maupun global, menjadi informasi yang bernilai tinggi. Sumber data digital tersebut bermacam-macam. Variasi dan formatnya juga bermacam-macam.  Data scientist menggunakan big data analytics untuk menemukan (men-discovery) informasi yang bernilai tinggi tersebut, yang kemudian dapat digunakan dalam proses produksi.

Biasanya artikel mengenai big data menyebut internet dan jejaring sosial semacam Facebook dan Twitter sebagai sumber big data. Ya, contoh itu memang paling mudah. Yang agak sulit dimengerti, meskipun sudah berjalan di perusahaan-perusahaan besar, adalah big data berupa streaming yang bersumber dari sensor-sensor yang mengukur dan kemudian mengirim ukurannya ke tempat pengolahan. Misalnya sensor yang terpasang di turbin-turbin produksi General Electric (GE) yang jumlah turbinnya saja di seluruh dunia luar biasa banyak. Apalagi jumlah sensor dan data yang diproduksi secara keseluruhan. Mungkin kita bertanya-tanya apa untungnya buat GE mengumpulkan semua data yang segunung itu?

Ayo, kita hela nafas dikit... Ga apa. Wajar aja kalau big bingung dengan big data. Bayangkan jika data dari sensor turbin-turbin GE yang terpasang di seluruh dunia itu bisa diolah oleh para data scientist GE untuk mengetahui keadaan dari setiap turbin. Setiap saat! Lebay ya? Apakah turbinnya, misalnya di padang pasir Timur Tengah, masih berjalan normal. Apakah kinerja mulai menurun? Apakah ada fungsi yang tiba-tiba tidak berjalan. Dengan pengetahuan itu saja, GE mampu menyediakan layanan yang sangat cepat tanggap ke pengguna turbinnya. Lebih jauh lagi, GE bisa lebih efisien mengelola service termasuk site visit ke padang pasir dengan lebih murah. GE untung. Customer-nya juga untung. Keuntungan dari big data!

Contoh yang lebih sehari-hari misalnya dalam manajemen lalu lintas. Barangkali Bu Airin tiba-tiba terinspirasi menerapkannya di Tangsel. Memang kasus ini agak ngarang sih, tapi who knows? Umpamanya Pemkot Tangsel bisa memasang sensor di seluruh jalanan, untuk permulaannya misalnya di tiap perempatan atau lampu lalu lintas. Sensor itu berfungsi mengukur kondisi lalu lintas. Berapa kecepatan kendaraan? Berapa kendaraan yang lewat? Misalnya saja itu bisa dilakukan. Kemudian setiap sensor mengirim data pengukurannya ke kantor pengelola lalu lintas. Dengan data scientist yang cakap yang kemudian bisa membuat algoritma ciamik untuk pemantauan, kondisi lalu lintas tiap jalanan di Tangsel bisa diketahui setiap saat.

Sebenarnya Bu Airin punya alternatif lain. Bisa saja Bu Airin menyewa satelit khusus memotret dan mengirim gambar Tangsel setiap berapa waktu. Perangkat lunak analytics yang mampu mengolah gambar memang masih harus dibeli, tapi kalau mampu, lagi-lagi Pemerintahan Bu Airin bisa mengetahui kondisi jalanan setiap saat. Dengan pengetahuan itu, manajemen lalu lintas bisa lebih baik. Misalnya, lebih cepat memutuskan kapan harus mengirim petugas. Ke lokasi mana saja. Kantor manajemen lalu lintas kemudian bisa memberikan penerangan ke pengguna jalan agar menghindari area tertentu atau merekomendasikan jalur alternatif, bekerja sama dengan stasiun radio atau lewat akses langsung para pengguna mobile app Pemkot Tangsel. Lebih canggih lagi seandainya dari data satelit atau sensor di atas, yang pasti volumenya luar biasa, Bu Airin dan staf bisa mengembangkan automated traffic control system.

Mahal? Mau murah? Mungkin bisa bekerjasama dengan GoogleMap atau Waze. Basisnya pengumpulan data dari jejaring sosial. Jadi 'sensor' dalam hal ini adalah para pengendara itu sendiri yang mengirim sinyal lokasi dan kecepatannya masing-masing. Saya mendengar dari seorang kawan. Katanya dia pernah membaca berita bahwa Jakarta bermaksud bekerjasama dengan Waze dalam kaitan dengan manajemen lalu lintas ini.

Lalu apa lagi manfaat big data? Kan sayang kalau sudah menyimpan big data yang amat bejibun, tetapi tidak banyak manfaatnya? Mau untung malah buntung. Kita-kita ini pengguna teknologi sudah semestinya berhati-hati. Tidak boleh percaya begitu saja pada vendor. Vendor biasanya mengatakan yang bagus-bagus saja. Malah vendor cukup sering mengiyakan pemanfaatan suatu teknologi yang sebetulnya kurang tepat. Bahasa kerennya: business use case tidak cocok. Pengamat yang berada di pinggiran malah jadi sinis. Wah... si fulan menginisiasi proyek terkait big data atau teknologi apa saja hanya untuk manjang-manjangin pengalaman kerja (credential). Ada apa pula dia dengan vendor itu?

Runyam kan kalau kondisinya jadi penuh curiga gitu? Begini... Saya mau share dikit. Saya diminta baca buku big data @ work karangan Thomas Davenport. Bagus bukunya. Beliau memang bukan orang yang tahu detil mengenai IT. Beliau mungkin lebih tepat kalau disebut sebagai penulis strategi. Di bukunya, beliau membuat tiga kategori business case pemanfaatan big data.

Yang pertama adalah cost/time reduction. Yang kedua adalah new products and services. Yang ketiga adalah internal business decision support. Untuk yang ketiga ini perlu sedikit hati-hati. Thomas Davenport mengatakan:

"Traditional information manajement and analytics were primarily about supporting internal decisions. Big data is somewhat different in this regard..."

"... instead of creating reports or presentations that advise senior executive on internal decisions, data scientists commonly work on customer-facing products and services."

Namun demikian, menurut Davenport, bukannya tidak ada kasus yang bagus untuk pemanfaatan big data dalam mendukung keputusan. Ada ga contoh-contohnya? Ah, tunggu ya, masih ada dua bab yang belum selesai saya baca. In syaa Allah, saya lanjutin di artikel berikutnya. Kalau untuk mendukung riset, ada ga? Mestinya ada. Saya pernah baca, ada peneliti yang menggunakan Google Trend untuk mengikuti 'keyword' tertentu kemudian membandingkannya dengan indikator yang biasa diperoleh secara konvensional.

Selengkapnya.....

Senin, 10 November 2014

Big Data: Big Problem

Di artikel sebelumnya, Big Data: Big Promise, saya sudah sampai pada penjelasan bagaimana para pembisik berkolaborasi dalam memberikan suplai bisikan ke tuannya. Dengan model SECI dari Nonaka-Takeuchi, kita bisa mengelompokkan kegiatan kolaborasi para pembisik dalam empat kegiatan: sosialisasi, eksternalisasi, kombinasi, dan internalisasi. Di artikel itu juga saya sudah menyinggung dalam melakukan empat kegiatan itu, khususnya internalisasi, para pembisik memerlukan data yang diaksesnya dari data warehouse, database, atau DARI MANA SAJA.


Huruf kapital yang digunakan untuk frasa DARI MANA SAJA mencerminkan agitasi dan intimidasi, karena memang jika kita masih big bingung dengan big promise dari big data, tidak perlu terlalu lama menyimpulkan kita menghadapi big problem. Eits... jangan buru-buru. Sebelumnya, mungkin kita perlu meninjau kebalikannya, little data: little problem, dulu.


Dari dulu, buku-buku maupun konsultan suka sekali dengan gambar piramida. Mungkin karena bentuknya memberi kesan kokoh, maka model ini menggoda untuk digunakan. Lagipula Piramida adalah salah satu keajaiban dunia. Dasar piramida mewakili data yang diperoleh dari sumbernya. Masih mentah, raw data. Tengah-tengah piramida hingga puncaknya mewakili hasil pengolahan data dari dasar piramida, untuk menghasilkan informasi bahkan pengetahuan. Di puncak piramida, sang tuan sudah menunggu asupan dari bawah untuk mengambil tindakan atau keputusan!



Kalau piramida itu digunakan untuk menggambarkan sistem informasi atau aplikasi, maka dasarnya adalah transaction processing systems, tengahnya management information systems, dan atasnya decision support systems atau executive information systems. Keren kan? 

Ini dia masalahnya. Keren sih keren, tapi secara pribadi, gambar itu tidak saya sukai. Pertama, ada nuansa bahwa dasar piramida harus terisi utuh dulu sebelum tengah-tengah dan puncak piramida dapat dibangun. Seorang teman kantor, dulu juga saya pernah, ngomong bagaimana mungkin kita bisa membuat MIS dan EIS yang bagus kalau kualitas TPS kita masih rendah, malah banyak yang manual. Sekarang saya tidak sependapat dengan pandangan ini.

Kedua, piramida itu memang terkesan kokoh, tapi tidak menampilkan unsur manusia secara tepat, padahal manusia adalah elemen terpenting dalam suatu sistem informasi, khususnya sistem informasi konsumsi pimpinan strategis. Pembisik-pembisik itu tidak tergambar di piramida. Akhirnya saya bikin model saya sendiri. Staf saya menyebutnya belah ketupat terbelah awan. Hahahaha.

Ini gambar belah ketupat terbelah awan ala saya.



Lho koq dasar piramida yang kokoh dihilangkan? Iya, menurut saya harus dihilangkan. Kekokohannya hanya ilusi. Tumpuan sistem informasi modern tetap saja pada orang-orangnya, yaitu para pembisik. Bagian bawah yang runcing mewakili filosofi saya bahwa untuk mengintegrasikan data dari berbagai sumber diperlukan pendekatan one bite at a time. Ini tidak berarti harus satu sumber saja pada satu saat, tapi integrasikanlah beberapa sumber yang telah tersedia. Ada pertimbangan manageability. Pilihlah yang signifikan. Pake hukum Paretto. Ga perlu kita menunggu semua TPS lengkap dan berkualitas, baru bikin enterprise data warehouse.

Tahu ga? Realitanya para pembisik sudah biasa mencukupkan diri dengan keterbatasan data yang ada dan tetap harus ngasih bisikan. Memang mereka ngedumel, tapi keluh kesahnya itu positif dan memicu kreativitas. Apatah lagi sang tuan? Dalam kondisi tidak ada data sama sekali, ketika tindakan harus diambil, tetap aja beliau buat keputusan. Memang kondisi tanpa data sama sekali adalah ekstrem. Dalam dunia nyata, kondisinya selalu di tengah-tengah. Data ada. Informasi tersedia, tapi ga sempurna. Bualan informasi sempurna hanya ada di ideologi ekonomi yang itu tuh.

One bite at a time memang menggeser tumpuan. Menggeser tanggung jawab dari aplikasi TPS dan MIS semata ke para pembisik. Itu sebabnya para pembisik itu harus digambarkan lebih eksplisit lagi di dalam model. Hingga saat ini, saya masih nyaman dengan gambar awan. Kesannya buat saya adalah magic. Ajaib... Dengan segala keterbatasan, bisnis tetap berjalan. Hidup para pembisik!

Oya, penting juga dicatat proses kolaborasi para pembisik dapat difasilitasi dengan solusi enterprise content management. Sekarang ini, minimal harus difasilitasi email, kemampuan akses secara mobile, dan integrasi dengan office. Idealnya... semua konten terkelola dengan efektif dan efisien di 'satu' tempat dan dapat ditemukan kembali dengan mudah. Kalau saja saya salah satu pembisik, saya barangkali perlu mengetahui bisikan saya di periode yang lalu apa aja, kemudian bisikan orang lain dalam menanggapi bisikan saya seperti apa. Saya mungkin perlu juga me-reuse atau me-leverage bisikan-bisikan orang lain ke dalam bisikan saya. Proses kombinasi!

Masih bersama saya? Mudah-mudahan masih ingat, meskipun artikel ini mulai kepanjangan, one bite at a time ini juga kembali ke joke yang saya lempar di atas, little data: little problem. Model belah ketupat terbelah awan  hemat saya cukup mewakili filosofi dan pendekatan ala saya di atas. Model piramida gimana? Kalau model piramida itu, little data: big problem. Manfaat terbatas, tapi masalah banyak. Cape deh. Pekerjaan ga selesai-selesai.

Nah ini saatnya kita masuk ke penjelasan yang lebih mendalam mengenai big data: big problem... Ah, katanya gambar mewakili ribuan kata. Kira-kira gambar berikut ini mampu menyampaikan pesan ga ya? 


Area baru yang merupakan wilayah big data sangat berbeda dengan area little data. Sumbernya tidak konvensional DARI MANA SAJA dan variasinya luar biasa, di samping volume dan velocity-nya berkali-kali-kali lipat, sampai mencapai APABYTE, hehehe. Area baru ini bisa seluas-luasnya area yang menjadi concern pengambil keputusan. Kalau pengambil keputusan dimaksud adalah pengambil kebijakan ekonomi yang berskala nasional dengan dampak nasional bahkan beyond, bisa dibayangkan seberapa luas area big data yang berpotensi masuk radar beliau. Lagi-lagi, peran pembisik sangat vital, bahkan lebih vital lagi.

Dengan struktur yang ga jelas, big data harus diolah sedemikian rupa oleh pembisik agar berguna. Kalau tidak begitu, cuma menuhin tempat aja, padahal keputusan tetap dapat diambil dengan data seadanya, little data. Malahan dalam perspektif tertentu, big data harus bisa ditransformasi oleh para pembisik menjadi little data yang sudah lebih jelas manfaatnya. Dalam perkataan lain, big data masih bernilai rendah. Potensinya masih harus diolah untuk menghasilkan little data yang lebih bernilai tinggi.

Akhirnya... persoalan-persoalan di atas, meskipun sudah mulai difasilitasi dengan teknologi baru, seperti Hadoop, analytics, information discovery, dan sebagainya, tetap menjadi persoalan, big problem. Barangkali yang terbesar adalah bagaimana manajemen bisa meng-upgrade para pembisiknya menjadi ahli dalam pemanfaatan big data. Ini peran baru para pembisik sebagai ilmuwan data, data scientist

Selengkapnya.....

Senin, 03 November 2014

Big Data: Big Promise

Solusi TI dari dulu sering mengumbar janji-janji manis. Mungkin kelakuan mengumbar janji ini akan terus berlanjut. Para vendor sangat lihay memunculkan istilah baru yang katanya bisa memenuhi janji-janji yang pernah diumbar sebelumnya, ditambah tentunya dengan janji baru yang lebih manis. Big data adalah salah satu janji manis itu - big promise.

Masih segar dalam ingatan kita, tidak terlalu lama sebelum ini ada janji manis berupa teknologi database, kemudian data warehouse, terus data mart, data mining, malah pernah ada data lake. Masih banyak buzzword lain, tapi sudahlah. Memang sih ga semua janjinya cuma pepesan kosong, tapi mengklaim janji-janjinya terpenuhi semua juga ga tepat. Nah, ketika big data datang dengan janji manis baru, tidak terlalu salah kalau pengguna-pengguna seperti kita ini agak skeptis di satu sisi, tapi juga penuh harap di sisi lain.

Menurut saya pribadi, sikap skeptis terhadap janji-janji dari vendor TI, termasuk big data, adalah sikap yang tepat. Memang harus imbang sih. Jangan sampai sikap skeptis itu menjadi negatif sehingga menutup peluang-peluang baru yang boleh jadi sudah menunggu setelah tikungan di depan. Anyway, pertanyaan skeptis yang sering muncul di benak saya adalah, "Apa bedanya dengan yang lalu?"

Ayo kita ingat-ingat lagi teknologi sebelumnya dulu kasih janji apa dan yang mana yang belum terwujud. Menyusuri ingatan seperti ini kadang menyakitkan karena membuka luka lama. Mari mulai dengan yang satu ini: database. Teknologi database sudah memberi sumbangannya, meskipun ada kurangnya. Koq ya tumpukan data di database yang berasal dari transaksi-transaksi perusahaan kita tidak mudah di-query? Jangan ngomong dulu mengenai sejumlah database perusahaan yang tidak nyambung satu dengan yang lain. Kalaupun query terpaksa dilakukan, ada risiko kegiatan operasional yang didukung database dimaksud mengalami gangguan.

Data warehouse katanya bisa mengatasi masalah integrasi dan gangguan ketika query dilakukan. Data dari berbagai sumber ditarik ke warehouse, diintegrasikan, dan disimpan secara historis. Ketika query dilakukan ke warehouse, sistem-sistem database operasional tidak bakal terganggu, karena proses penarikan dan transformasi data dilakukan malam hari. Itupun bebannya banyak di data warehouse, bukan di database sumber. Selesai? Tidak juga. Integrasi tetap menjadi isu. Data sebenarnya berhasil diintegrasikan, tapi seiring kompleksitas yang makin meningkat, integrasi kembali menjadi isu. Ini berarti semakin sulit mengintegrasikan data dari sumber-sumber baru. Jangan bicara dulu mengenai masalah performance baik pada proses penarikan dan transformasi (biasa disebut ETL atau ELT) maupun proses query untuk menghasilkan informasi.

Data mart bisa mengatasi masalah performance dari query, karena lebih kecil dan spesifik untuk kebutuhan tertentu. Iya sih, tapi kalau data mart dibentuk langsung dari penarikan data di sumber-sumber tertentu, masalah integrasi tidak terpecahkan. Antara satu data mart dengan yang lain betul-betul independen dan ga nyambung. Pendekatan Ralph Kimball berupaya mengatasinya dengan suatu bus architecture, tapi lagi-lagi ketika proyek sudah sukses, kemudian muncul kebutuhan-kebutuhan baru, pendekatan ini pada akhirnya menemui kesulitan yang sama.

Lain lagi kalau menggunakan data mart yang dependen terhadap data warehouse. Solusi seperti ini yang diusung oleh Bill Inmon memang menjamin data mart-data mart dibentuk dari data warehouse yang sebelumnya sudah terintegrasi. Pertanyaan kembali muncul terhadap tingkat integrasi data warehouse itu sendiri. Dengan pendekatan asli dari Inmon, relatif sulit untuk secara agile mengintegrasikan data dari sumber-sumber baru ke warehouse. Pendekatan modern dari Dan Linstedt sepertinya bisa menjadi solusi buat Kimball dan Inmon: mengatasi kelemahannya masing-masing sekaligus memanfaatkan kekuatan masing-masing.

Apa masalah sudah beres? Anggaplah kita mampu mengimplementasi pendekatan Inmon-Linstedt-Kimball, apakah semua janji terpenuhi? Belum. Pengambil keputusan dalam tiap-tiap institusi tidak dapat memutuskan hanya berdasarkan informasi dari data warehouse atau data mart. Menurut bacaan saya dulu, semakin tinggi dan strategis level pengambil keputusan, semakin tidak terstruktur prosesnya, semakin tidak terstruktur inputnya, semakin dipengaruhi oleh faktor-faktor eksternal keputusannya. Bagaimana mungkin keputusan diambil dengan output data warehouse saja.

Saya tidak mengatakan bahwa proses pengambilan keputusan di level strategis tidak ada pola atau sistematikanya. Yang ingin saya sampaikan adalah prosesnya itu semakin tidak mekanistis, meskipun tetap ada mekanismenya. Prosesnya semakin tidak terstruktur, meskipun tetap ada strukturnya. Semakin tidak pasti faktor-faktor keputusan itu, meskipun ada kejelasannya. Dengan lain perkataan, teknologi belum mampu menggantikan sistem informasi paling canggih yang inheren dalam diri manusia, dalam diri pengambil keputusan dan para pembisiknya itu.

Untuk sederhananya, saya kembali menggunakan istilah pembisik, seperti pada tulisan yang lalu, Big Data: Big Bingung. Tidak jarang pengambil keputusan mengambil suatu keputusan atas dasar bisikan pembisiknya. Apakah ini 100% ngawur? Tidak sama sekali. Kalau si pengambil keputusan yakin dengan kemampuan dan kualitas pembisiknya, justru praktik ini sangat efektif dan efisien. Bagaimana pembisik itu bisa menghasilkan bisikan yang berkualitas untuk tuannya? Barangkali di belakangnya ada pembisik lagi. Barangkali dia mengakses data warehouse.

Apakah cukup dari data warehouse atau database? Pasti tidak. Hanya persoalan yang sangat diketahui nature-nya yang bisa diotomasi dan didukung penuh dengan teknologi. Sebagian besar persoalan pengambil keputusan, khususnya di lembaga-lembaga besar mengandung faktor-faktor yang masih tersembunyi di dalam lipatan-lipatan platonik yang tidak dapat diantisipasi. Makanya perlu kolaborasi para pembisik. Kalau data yang dibutuhkan belum tersedia di data warehouse atau database, sudah pasti kreativitas para kolaborator itu akan membawa mereka ke kemungkinan perolehan data secukupnya. Sang tuan harus segera dibisiki!

Bagaimana para pembisik berkolaborasi? Pembisik yang satu mengetahui kualitas para pembisik di sekitarnya. Oya, di lembaga-lembaga serius, pembisik ini mungkin disebut analis, kadang disebut peneliti, malah ada yang disebut ekonom dan ilmuwan. Kembali ke pembisik, mereka bekerja mengikuti struktur tertentu, entah itu formal atau informal. Struktur formal misalnya mengikuti struktur organisasi. Jadi, ada pembisik pemula, ada pembisik madya, dan ada pembisik eksekutif, serta ada kepala pembisiknya. Mereka kenal satu dengan yang lain. Saking kenalnya, kepala pembisik selalu memberi penugasan ke pembisik tertentu yang dia sudah tahu kualitas dan/atau loyalitas ybs. Itu di satu sisi. Di sisi lain, ada yang dikucilkan, menjadi pembisik bisu, yang paling-paling berbisik untuk diri sendiri.

Para pembisik itu mempraktikkan empat kegiatan utama. Pertama, mungkin yang paling manusiawi, adalah sosialisasi. Para pembisik kongkow-kongkow bertukar bisikan. Yang kedua adalah eksternalisasi bisikannya menjadi tulisan-tulisan, laporan, jurnal ilmiah, atau sekedar tulisan di medsos yang kemudian dibaca oleh tuannya. Yang ketiga adalah kombinasi. Maksudnya pembisik membaca beberapa tulisan pembisik-pembisik lain, lalu mengkombinasikannya menjadi tulisan baru. Barangkali dalam proses mengkombinasi itu, ada penyaringan, ada penekanan, dan ada pengabaian. Yang terakhir, keempat, disebut internalisasi. Di modus ini, seorang pembisik mempelajari tulisan-tulisan yang ada dan berusaha memasukkannya dalam pemahaman. Mungkin termasuk juga dalam modus ini adalah si pembisik mempelajari data yang dia dapatkan dari data warehouse, database, atau DARI MANA SAJA (sengaja huruf besar, yang ini merupakan area big promise dari big data), kemudian mempelajari segala korelasi, dan kemudian membuat suatu kesimpulan.

Ah, panjang juga penjelasan mengenai empat kegiatan utama para pembisik atau para kolaborator di paragraf terakhir di atas. Supaya saya ga disebut curang, mending saya sebut saja sumber pembisik saya, yaitu Nonaka dan Takeuchi dengan model SECI, socialization-externalization-combination-internalization. Pasti kita semua sudah melakukan kegiatan-kegiatan itu. Model SECI hanya untuk memudahkan penjelasan saja.

Waduh, saya masih perlu mengelaborasi artikel ini, khususnya memberi penekanan di area big promise of big data, tapi ini udah kepanjangan. Tunggu ya di artikel selanjutnya.

Selengkapnya.....

Senin, 27 Oktober 2014

Big Data: Big Bingung

Teknologi informasi (TI) memang berkembang cepat cepat cepat sekali. Sekarang ini data digital yang tercipta setiap harinya di seluruh dunia sudah meledak sampai hitungan 10 pangkat entahlah. Medsos seperti Facebook dan Twitter saja setiap hari ketambahan data dalam hitungan APABYTES. Seiring dengan ledakan data digital yang sangat luar biasa itu, para inovator menciptakan teknologi baru, yaitu big data.

Apa sih sebenarnya teknologi big data? Jawaban serampangannya yang mungkin agak bodoh adalah terkait dengan teknologi yang memungkinkan menyimpan dan mengolah data sampai APABYTES tadi, hehe... Mungkin kita bertanya-tanya apakah kita mesti peduli dengan teknologi ini. Apa manfaatnya buat kita pribadi? Atau pertanyaan yang lebih canggih: apa manfaatnya buat perusahaan kita?

Sebelum menjawab pertanyaan di atas, izinkan saya disklaim terlebih dahulu. Tulisan ini tidak akan banyak mengulas detil teknologi big data itu sendiri, tapi akan lebih pada ulasan konseptual seputar apa dan mengapa serta perspektif posisi big data dalam konsep sistem informasi. Ulasan mengenai bagaimananya barangkali bisa didapatkan lewat googling aja. Banyak koq artikel yang sudah membahas masalah itu. Yang lebih dalam kayaknya mesti lewat kursus atau sekolahan.

Saya ngaku aja dulu bahwa sejak beberapa tahun lalu, saya mulai enggan menulis di blog ini. Saya punya tanggung jawab yang lebih banyak sekarang, baik di kantor maupun di rumah (narsis). Selain itu, saya sudah ga mau terlalu eksis lagi di dumay, mungkin karena sedikit ketakutan terhadap ancaman seperti yang dialami oleh Will Smith di film lama Enemy of the State... Status Facebook sesekali aja di-update. OL ke Facebook dan LinkedIn juga hanya sekilas info doang.

Sampai hari ini, big data yang bikin big bingung ini akhirnya berhasil mengusik saya keluar dari gua persembunyian.

Nah, untuk mengulas big data, rasanya harus mulai dari konsep kuno dulu. Saya pernah menulis Apa Sih Sistem Informasi? Pernah juga R/evolusi Informasi, tapi yang pertama itu lebih mendasar. Tahun 90-an awal saya pernah disuruh membaca buku teks Management Information System, oleh PENULIS ITU, sebagai bagian dari kuliah Pak Husni di Bandung. Intinya sistem informasi melayani penggunanya dengan penyediaan informasi yang relevan sebagai dasar keputusan dan tindakan.

Tidak harus pake komputer kata beliau! Lampu lalulintas yang memberi sinyal kapan berhenti dan kapan boleh jalan sudah bisa didefinisikan sebagai sistem informasi. Di kasus lain yang juga ekstrem, sistem informasi bisa saja lebih bertumpu kepada para pembisik yang hanya menggunakan teknologi kuno berupa pulpen dan secarik kertas. Bahkan kalau dibolehkan dan pada saat tertentu diharuskan, sang pembisik menyampaikan informasi yang relevan kepada tuannya langsung dari mulut ke kuping secara harfiah.

Kapan pake secarik kertas dan kapan cuma pake modal mulut semuanya tergantung aturan yang ditetapkan oleh sang tuan. Untuk rekap definisi yang sayup-sayup saya ingat dari buku teks yang diwajibkan Pak Husni untuk kami baca, komponen sistem informasi terdiri dari alat (hardware dan software), orang, dan aturan. Iya deh kayaknya kurang lebih begitu.

Mana big data-nya nih? Koq masih muter-muter di konsep kuno itu. Iya ini sudah mau dijelaskan. Sabar dikit ya.

Seperti air, informasi mengalir dari sumber mencapai tujuannya, yaitu pengguna. Seperti produk, informasi melalui tahap-tahap produksi yang masing-masing menambah nilai. Dalam dunia yang agak filosofis, terdapat perbedaan definisi mengenai data, informasi, dan pengetahuan, tapi di sini anggaplah ketiganya sama, meskipun kita tahu berbeda. Oya, jangan campuradukkan pengetahuan tok dengan ilmu pengetahuan ya. Yang belakangan ini agak serem jelasinnya.

Kebelet pengen tahu beda ketiganya? Ah, cukup rasakan nuansanya saja: informasi di hulu masih bernilai rendah (masih bernuansa data saja), sementara di hilir tempat para pengambil keputusan dan tindakan, informasi bernilai tinggi (bernuansa pengetahuan). Di satu sisi, kata-kata dan data yang keluar dari mulut para pembisik di telinga pengambil keputusan itulah yang bernilai tinggi. Di sisi lain, fakta dan data yang masih harus dikumpulkan dari sumbernya masih bernilai rendah dan mungkin ada yang sama sekali tidak relevan. Kadang jarak antar sumber data dengan pengambil keputusan dekat. Kadang jauh, seperti Bengawan Solo.

Lalu kita perlu sadar bahwa para pembisik berkolaborasi di antara sesamanya. Mereka saling bisiki satu dengan yang lain, yang kemudian bisa saja mengubah isi bisikannya ke sang tuan. Masing-masing pembisik mempunyai informan (Koq bukan dataman ya? Ah udahlah). Bisa saja mereka langsung mengobservasi suatu fenomena. Dalam dunia yang semakin digital ini, barangkali mengobservasi suatu fenomena menjadi demikian mudahnya. Ini seperti catatan amal digital yang diperlihatkan ke kita sebagai pelaku dalam menciptakan fenomena. Catatan digital itu membuat kita terperanjat!

Terperanjat? Ternyata di catatan itu ada jejak kunjungan kita ke situs-situs web, baik yang normal maupun yang nyerempet. Di catatan itu ada juga jejak lokasi kita lengkap dengan status yang kita update dari waktu ke waktu. Ada juga panggilan telpon kita lengkap dengan rekamannya. Malah foto kita waktu melanggar lalu lintas di NYC juga ada. Medical record sampai belanjaan kita juga ada catatannya. Hmm ini baru sebagian kecil aja. Maka waspadalah, jangan beramal buruk. Ga usah nunggu pengadilan akhirat. Di sini saja kita bisa dibuat malu karena catatan amal digital kita.

Poinnya ini nih. Teknologi big data memungkinkan catatan digital yang terus menerus tercipta setiap saat baik lokal maupun global dapat diolah menjadi informasi yang bernilai tinggi. Yang mengolah siapa atau apa? Ya harusnya para pembisik itu yang mengolahnya dengan bantuan alat, yaitu teknologi big data. Teknologi big data yang canggih tanpa pembisik yang mampu mengolah big data ga ada artinya. Pembisik-pembisik itu harus meng-upgrade diri mereka dari peranan analis semata menjadi penemu data, istilah kerennya data scientist. Artinya para pembisik itu harus bekerja keras dan cerdas menggali tumpukan catatan digital dan menemukan data yang relevan untuk selanjutnya menyimpulkannya untuk kebutuhan sang tuan.

Udah mulai ngerasa sense-nya? Belum? Ya, ternyata nulis big data dalam konteks yang benar ga bisa hanya dengan beberapa paragraf. Tunggu ya di artikel berikutnya. Saya akan mencoba mengulas hubungan antara big data dengan para pembisik dan dua rumpun teknologi yang sudah biasa digunakan, yaitu enterprise content management (ECM) dan enterprise data warehouse (EDW). 

Selengkapnya.....

addthis

Live Traffic Feed