Penghasil Data Terbesar Di Dunia : 600 terabyte data per detik

Ilmuwan di CERN, Jenewa menghasilkan jutaan gigabyte data setiap harinya dengan Particle Accelerator baru mereka. Eksperimen baru ini menjadi ujian pertama terhadap Grid, Internet generasi selanjutnya.

Cikal bakal World Wide Web meru­pakan sebuah kubus hitam yang ditempeli tulisan “Jangan dimati­kan! Ini sebuah server!” Tanda ini merupa­kan peringatan bagi petugas kebersihan agar tidak mematikan komputer tersebut. Web server pertama ini dibangun oleh ahli fisika Tim Berners-Lee pada tahun 1990 di Pusat Penelitian Inti Atom Eropa CERN, Jenewa. Dahulu, para ilmuwan ingin ber­bagi data dengan kolega mereka di institut lain dan di situlah mereka menemukan teknologi yang disebut World Wide Web. Saat ini, jaringan Internet ini tidak dapat dipi­sahkan dari kehidupan sehari-hari kita.
Sekarang, para peneliti di CERN pun bakal meletakkan dasar untuk generasi In­ternet yang baru. Motivasinya, mereka juga ingin bertukar data dengan kolega di seluruh penjuru dunia. Namun, kali ini tidak hanya sekadar bertukar dokumen yang berukuran kilobyte atau megabyte, melainkan data dari eksperimen-eksperimen yang be­sar. Eksperimen ini bisa menghasilkan data sampai 90 juta gigabyte per tahun, atau se­kitar 90 petabyte. Data ini nantinya diakses oleh ahli-ahli fisika di seluruh dunia. Na­mun, pembuat sejarah di masa depan ini masih menghadapi masalah untuk meng­gambarkan generasi Web baru ini.
Data dalam jumlah besar ini dihasilkan dari sebuah mesin terbesar yang pernah dibuat oleh tangan manusia, yang disebut Large adron Collider (LHC). Mesin ini terdiri atas sebuah particle accelerator ring dengan panjang sekitar 26,7 km yang ter­bentang dalam beberapa ratus meter tun­nel system, tidak jauh dari Jenewa. Dalam tunnel ini, sejak 10 September lalu, para peneliti CERN menabrakkan proton satu sama lain setara kecepatan cahaya.
Sekitar 5000 ilmuwan melakukan pene­litian di CERN. Mereka berasal dari 300 institut di 50 negara dengan empat ekspe­rimen yang berbeda. Para ahli fisika ingin membuktikan eksistensi dari partikel, yang sampai saat ini hanya merupakan hitungan di atas kertas, misalnya tentang Higgs Boson. Selain itu, eksperimen ini akan mencari tahu bagaimana kondisi setelah terjadinya big bang alam semesta, yang akan dapat meneliti materi yang disebut Plasma Quark Gluon. Pada beberapa eksperimen, ahli-ahli fisika yakin tidak akan terjadi lubang hitam kecil atau materi ge­lap yang sampai saat ini belum terbukti di bumi.
Tsunami data: 600 terabyte data per detik
Eksperimen seperti ini memang memberi­kan daya tarik bagi semua orang walaupun mereka tidak menyukai pelajaran fisika di sekolah. Menariknya, selama bertahun-ta­hun, ilmuwan membangun sebuah unit research untuk melakukan eksperimen yang hasilnya hanya berlangsung selama piko detik saja. Berkat teknologi komputer yang berkinerja tinggi, eksperimen ini bukanlah masalah bagi ahli-ahli fisika. Partikel yang terbentuk dari kolisi proton ini dipantau oleh sebuah detektor raksasa, praktisnya direkam sebagai film. Trak ini kemudian disimpan sebagai digital raw da­ta dan digunakan sebagai basis untuk re­konstruksi eksperimen yang beberapa kali diulangi di komputer.
Masing-masing dari keempat eksperi­men di CERN ini menggunakan detektor tersendiri. Paling besar berukuran tinggi 25 meter dan panjang 46 meter. Ini hampir setengah dari ukuran katedral Notre-Da­me di Paris. Sensor-sensor di berbagai la­pisan pada alat ukur raksasa ini merekam particle chaos setelah proton-proton ber­kolisi. Di sini ada banyak tugas yang harus dilakukan. Tergantung pada intensitas pancaran partikel, setiap detiknya terjadi sampai sekitar 1 miliar tabrakan. Dalam particle detector CMS (Compact Muon So­lenoid) yang akan digunakan, antara lain untuk membuktikan Higgs particles, ter­dapat 15 juta detector channel yang mere­kam informasi dengan sebuah frekuensi sebesar 40 MHz. Outputnya mencapai 600 terabyte per detik.
“Ini benar-benar merupakan tsunami data,” jelas ilmuwan CERN, Pere Mató, di ajang Euroscience Open Forum Barcelona.
Tidak ada pusat komputer yang dapat memproses data sejumlah ini. Walaupun demikian, sebenarnya kondisi tersebut ti­dak diperlukan karena bagian terbesar dari data raksasa ini hanya berupa sampah da­ta. Ia menggambarkan partikel-partikel yang salah arah atau yang sudah diketahui sebelumnya. Dari 10 juta tabrakan, peneli­ti memperkirakan hanya ada dua atau tiga tabrakan yang menarik diamati, yang ma­sing-masing membentuk ratusan partikel-partikel baru. Partikel yang sering disebut sebagai Higgs Particle, malah diperkirakan hanya terjadi satu kali dalam satu miliar tabrakan.
Digital filter: libatkan 60.000 prosesor
Lebih dari 99 persen data yang terekam ha­nyalah data sampah. Untuk itu, pada lang­kah pertama, digunakan prosesor dan lo­gic module dengan aplikasi khusus yang langsung bekerja dalam detektor. Pere Mató menyebutnya sebagai Trigger Level 1. Komponen ini menganalisis data yang tidak rumit, misalnya kecepatan sebuah partikel, karakteristik elektromagnetisnya, atau level energinya. Berdasarkan infor­masi-informasi tersebut, komponen ini menghasilkan banyak data yang tidak penting. Dalam tiga sampai empat mikro­detik, chip ini memproses sebanyak 9.999 sampai 10.000 event.
Pada langkah kedua, yaitu Trigger Level 2, hasil-hasil yang tertinggal masih harus disaring sekali lagi. Di sini chip khusus akan membandingkan hasil pengukuran dari berbagai sensor satu sama lain dan ke­mungkinan sekali lagi menyaring sembilan dari sepuluh event dalam satu milidetik. Selanjutnya, data yang sudah tersaring dia­nalisis dalam Trigger High Level, sebuah tahap kontrol yang terakhir. Di sini, prose­sor menganalisis data dengan algoritma yang kompleks selama sampai satu detik dan menyusun masing-masing data ke dalam satu keseluruhan event. Pusat kom­puter ini dilengkapi dengan 2.500 PC un­tuk setiap eksperimennya. Terakhir, 99 persen data yang sudah tersaring akan di­buang. Sebanyak 60.000 prosesor akan memilih salah satu dari 10 juta event. Event inilah yang disimpan. Walaupun demiki­an, tetap ada sejumlah data yang terting­gal. Per tahun, eksperimen dalam particle accelerator menyimpan sampai 15 peta­byte data pada hard disk CERN.
Eksperimen ini tidak hanya melibatkan data dalam jumlah yang sangat besar. Se­luruh instalasinya sangat mengagumkan. Sejak perencanaan instalasi ini yang perta­ma, diperlukan waktu selama 24 tahun dengan biaya seluruhnya mencapai 3 mili­ar Euro. Materi yang sudah dibangun men­capai 80.000 ton, 34.000 ton di antaranya ada di dalam empat detektor. Suhu di dalam pipa sepanjang 26.659 meter ini pun sedikit di atas titik nol absolut. Partikel yang begitu kecil dan bahkan tidak terlihat walau menggunakan mikroskop elektron, bergerak hampir dalam kecepatan cahaya. Siapa yang dapat membayangkannya?
Eksperimen ini benar-benar nyata. Per­tama-tama, proton dalam LHC dipacu hampir dalam kecepatan cahaya dengan medan listrik. Kemudian, proton menarik sekeliling yang berlawanan arah dalam dua jet tube. Pipa kuat berukuran 5,5 cm ini terbuat dari baja dan dengan vakum su­perfine. Proton ditahan dalam jalurnya dengan sebuah medan magnet yang berke­kuatan 180.000 kali daripada magnet bu­mi. Magnet ini dihasilkan dari magnet su­perkonduksi. Untuk mempertahankan kemampuan superkonduksinya, magnet ini harus didinginkan pada suhu 1,9 kelvin (minus 271,25 derajat celsius). Suhu ini se­dikit di atas titik nol absolut dan bahkan lebih dingin daripada angkasa luar. Diper­lukan waktu selama 16 bulan untuk men­dinginkan 8000 magnet yang terpasang di sekeliling ring sampai pada suhu operasio­nalnya. Ring dengan panjang kilometer ini dirampingkan menjadi sekitar 10 meter.
Bit raksasa: Cern hasilkan 90 petabyte dalam setahun
Walaupun semua proton dalam accelera­tor memiliki massa yang sangat-sangat ke­cil, tetap saja diperlukan usaha. Lantaran kecepatannya, pada energi kinetis yang sa­ma, proton ini setara sebuah bobot 40 ton pada kecepatan 150 kilometer per jam. Apa yang terjadi bila paket proton bergerak di luar kendali? Para peneliti CERN masih harus melakukan ujicoba. Proton memo­tong sebagian dari sisi panjang pipa jet. Normalnya, beam saling bersilangan dalam detektor dan proton bertabrakan satu sa­ma lain. Bila percobaan ini berhasil, parti­kel yang berkolisi akan meledak dan mem­bentuk partikel-partikel baru.
Apakah eksperimen ini benar-benar sukses, para peneliti baru akan mengeta­huinya setelah beberapa bulan evaluasi. Dari data yang disaring, komputer akan merekonstruksi proses percobaan ini. Sei­ring dengan waktu, detektor akan disesu­aikan dan dikalibrasi secara lebih akurat lagi dan memungkinkan untuk melakukan perubahan yang sesuai pada rekonstruksi eksperimen di komputer. Eksperimen akan diulangi secara virtual sampai tiga kali dalam setahun. Pekerjaan ini melibatkan 20.000 prosesor. Tidak heran, ini menjadi­kan CERN sebagai produsen data terbesar di dunia. Raw data, backup copy, dan si­mulasi besar yang dihasilkan oleh CERN di Genewa mencapai sekitar 90 petabyte, hanya dalam setahun saja.
“Jumlah data ini sangat besarm” ucap Gonzalo Merino dari Pusat Informatika Pic Spanyol. Ia kemudian menjelaskan masalahnya. “Datanya begitu besar diban­dingkan dengan yang dapat diproses oleh komputer di CERN”. Ini sudah disadari oleh institut yang terlibat pada proyek LHC di tahun 90-an dan kemudian menginvestasikan sebuah infrastruktur kompu­ter desentral yang disebut Grid. “World Wide Web memungkinkan kita untuk mengakses informasi yang tersebut di se­luruh dunia,” jelas Merino. “Grid merupa­kan sebuah infrastruktur baru yang me­mungkinkan kita mengakses resource komputer yang ada di seluruh dunia”.
Teka-teki Grid: mainan bagi peneliti atau Internet baru?
Grid LHC terdiri atas sebuah sistem yang hierarkis dengan berbagai layer yang dise­but Tier. Layer pertama merupakan pusat komputer CERN itu sendiri. Layer perta­ma ini menyimpan semua raw data yang dihasilkan dari eksperimen dan mem­proses rekonstruksi pertama. Sebelas pusat komputer pada layer Tier 1, antara lain, menyimpan backup dari eksperimen dan memproses rekonstruksi yang lebih di­sempurnakan. Masing-masing pusat kom­puter ini terhubung melalui sebuah ja­ringan fiber optic dengan kapasitas sebesar 10 gigabit per detik. Level Tier-2 menghu­bungkan 120 pusat komputer yang terse­bar di 35 negara. Di sini, resource CPU di­gunakan untuk memproses simulasi. Hal yang penting bagi peneliti bahwa Grid LH­Cd dibangun agar ilmuwan yang terlibat pada proyek ini dapat mengakses data ek­sperimen dari komputer miliknya sendiri. Tidak masalah di mana data tersebut ter­simpan dan diproses.
Apakah infrastruktur seperti ini bakal memegang peranan yang penting bagi pengguna di luar institut, Gonzalo Meri­no tidak mengatakannya demikian. Saat ini, aplikasinya hanya cocok untuk dunia penelitian. Misalnya, untuk memproses gambar-gambar dari pengamatan anta­riksa atau database gambar untuk dunia kedokteran. Namun, satu hal yang ia rasa­kan pasti. “Dalam tiga tahun mendatang, teknologi Grid ini bakal berkembang jauh daripada yang sekarang.” Tim Berners-Lee pun pasti memiliki gambaran yang berbe­da tentang World Wide Web pada awal tahun 90-an, jauh dari yang dihasilkan oleh penemuannya. Apa yang saat ini pa­ling mengejutkannya tentang WWW, mungkin dijawab oleh nenek moyang Web: Google!

Tidak ada komentar:

Posting Komentar