Ilmuwan di CERN, Jenewa menghasilkan jutaan gigabyte data setiap harinya dengan Particle Accelerator baru mereka. Eksperimen baru ini menjadi ujian pertama terhadap Grid, Internet generasi selanjutnya.
Cikal bakal World Wide Web merupakan sebuah kubus hitam yang ditempeli tulisan “Jangan dimatikan! Ini sebuah server!” Tanda ini merupakan peringatan bagi petugas kebersihan agar tidak mematikan komputer tersebut. Web server pertama ini dibangun oleh ahli fisika Tim Berners-Lee pada tahun 1990 di Pusat Penelitian Inti Atom Eropa CERN, Jenewa. Dahulu, para ilmuwan ingin berbagi data dengan kolega mereka di institut lain dan di situlah mereka menemukan teknologi yang disebut World Wide Web. Saat ini, jaringan Internet ini tidak dapat dipisahkan dari kehidupan sehari-hari kita.
Sekarang, para peneliti di CERN pun bakal meletakkan dasar untuk generasi Internet yang baru. Motivasinya, mereka juga ingin bertukar data dengan kolega di seluruh penjuru dunia. Namun, kali ini tidak hanya sekadar bertukar dokumen yang berukuran kilobyte atau megabyte, melainkan data dari eksperimen-eksperimen yang besar. Eksperimen ini bisa menghasilkan data sampai 90 juta gigabyte per tahun, atau sekitar 90 petabyte. Data ini nantinya diakses oleh ahli-ahli fisika di seluruh dunia. Namun, pembuat sejarah di masa depan ini masih menghadapi masalah untuk menggambarkan generasi Web baru ini.
Data dalam jumlah besar ini dihasilkan dari sebuah mesin terbesar yang pernah dibuat oleh tangan manusia, yang disebut Large adron Collider (LHC). Mesin ini terdiri atas sebuah particle accelerator ring dengan panjang sekitar 26,7 km yang terbentang dalam beberapa ratus meter tunnel system, tidak jauh dari Jenewa. Dalam tunnel ini, sejak 10 September lalu, para peneliti CERN menabrakkan proton satu sama lain setara kecepatan cahaya.
Sekitar 5000 ilmuwan melakukan penelitian di CERN. Mereka berasal dari 300 institut di 50 negara dengan empat eksperimen yang berbeda. Para ahli fisika ingin membuktikan eksistensi dari partikel, yang sampai saat ini hanya merupakan hitungan di atas kertas, misalnya tentang Higgs Boson. Selain itu, eksperimen ini akan mencari tahu bagaimana kondisi setelah terjadinya big bang alam semesta, yang akan dapat meneliti materi yang disebut Plasma Quark Gluon. Pada beberapa eksperimen, ahli-ahli fisika yakin tidak akan terjadi lubang hitam kecil atau materi gelap yang sampai saat ini belum terbukti di bumi.
Tsunami data: 600 terabyte data per detik
Eksperimen seperti ini memang memberikan daya tarik bagi semua orang walaupun mereka tidak menyukai pelajaran fisika di sekolah. Menariknya, selama bertahun-tahun, ilmuwan membangun sebuah unit research untuk melakukan eksperimen yang hasilnya hanya berlangsung selama piko detik saja. Berkat teknologi komputer yang berkinerja tinggi, eksperimen ini bukanlah masalah bagi ahli-ahli fisika. Partikel yang terbentuk dari kolisi proton ini dipantau oleh sebuah detektor raksasa, praktisnya direkam sebagai film. Trak ini kemudian disimpan sebagai digital raw data dan digunakan sebagai basis untuk rekonstruksi eksperimen yang beberapa kali diulangi di komputer.
Masing-masing dari keempat eksperimen di CERN ini menggunakan detektor tersendiri. Paling besar berukuran tinggi 25 meter dan panjang 46 meter. Ini hampir setengah dari ukuran katedral Notre-Dame di Paris. Sensor-sensor di berbagai lapisan pada alat ukur raksasa ini merekam particle chaos setelah proton-proton berkolisi. Di sini ada banyak tugas yang harus dilakukan. Tergantung pada intensitas pancaran partikel, setiap detiknya terjadi sampai sekitar 1 miliar tabrakan. Dalam particle detector CMS (Compact Muon Solenoid) yang akan digunakan, antara lain untuk membuktikan Higgs particles, terdapat 15 juta detector channel yang merekam informasi dengan sebuah frekuensi sebesar 40 MHz. Outputnya mencapai 600 terabyte per detik.
“Ini benar-benar merupakan tsunami data,” jelas ilmuwan CERN, Pere Mató, di ajang Euroscience Open Forum Barcelona.
Tidak ada pusat komputer yang dapat memproses data sejumlah ini. Walaupun demikian, sebenarnya kondisi tersebut tidak diperlukan karena bagian terbesar dari data raksasa ini hanya berupa sampah data. Ia menggambarkan partikel-partikel yang salah arah atau yang sudah diketahui sebelumnya. Dari 10 juta tabrakan, peneliti memperkirakan hanya ada dua atau tiga tabrakan yang menarik diamati, yang masing-masing membentuk ratusan partikel-partikel baru. Partikel yang sering disebut sebagai Higgs Particle, malah diperkirakan hanya terjadi satu kali dalam satu miliar tabrakan.
Digital filter: libatkan 60.000 prosesor
Lebih dari 99 persen data yang terekam hanyalah data sampah. Untuk itu, pada langkah pertama, digunakan prosesor dan logic module dengan aplikasi khusus yang langsung bekerja dalam detektor. Pere Mató menyebutnya sebagai Trigger Level 1. Komponen ini menganalisis data yang tidak rumit, misalnya kecepatan sebuah partikel, karakteristik elektromagnetisnya, atau level energinya. Berdasarkan informasi-informasi tersebut, komponen ini menghasilkan banyak data yang tidak penting. Dalam tiga sampai empat mikrodetik, chip ini memproses sebanyak 9.999 sampai 10.000 event.
Pada langkah kedua, yaitu Trigger Level 2, hasil-hasil yang tertinggal masih harus disaring sekali lagi. Di sini chip khusus akan membandingkan hasil pengukuran dari berbagai sensor satu sama lain dan kemungkinan sekali lagi menyaring sembilan dari sepuluh event dalam satu milidetik. Selanjutnya, data yang sudah tersaring dianalisis dalam Trigger High Level, sebuah tahap kontrol yang terakhir. Di sini, prosesor menganalisis data dengan algoritma yang kompleks selama sampai satu detik dan menyusun masing-masing data ke dalam satu keseluruhan event. Pusat komputer ini dilengkapi dengan 2.500 PC untuk setiap eksperimennya. Terakhir, 99 persen data yang sudah tersaring akan dibuang. Sebanyak 60.000 prosesor akan memilih salah satu dari 10 juta event. Event inilah yang disimpan. Walaupun demikian, tetap ada sejumlah data yang tertinggal. Per tahun, eksperimen dalam particle accelerator menyimpan sampai 15 petabyte data pada hard disk CERN.
Eksperimen ini tidak hanya melibatkan data dalam jumlah yang sangat besar. Seluruh instalasinya sangat mengagumkan. Sejak perencanaan instalasi ini yang pertama, diperlukan waktu selama 24 tahun dengan biaya seluruhnya mencapai 3 miliar Euro. Materi yang sudah dibangun mencapai 80.000 ton, 34.000 ton di antaranya ada di dalam empat detektor. Suhu di dalam pipa sepanjang 26.659 meter ini pun sedikit di atas titik nol absolut. Partikel yang begitu kecil dan bahkan tidak terlihat walau menggunakan mikroskop elektron, bergerak hampir dalam kecepatan cahaya. Siapa yang dapat membayangkannya?
Eksperimen ini benar-benar nyata. Pertama-tama, proton dalam LHC dipacu hampir dalam kecepatan cahaya dengan medan listrik. Kemudian, proton menarik sekeliling yang berlawanan arah dalam dua jet tube. Pipa kuat berukuran 5,5 cm ini terbuat dari baja dan dengan vakum superfine. Proton ditahan dalam jalurnya dengan sebuah medan magnet yang berkekuatan 180.000 kali daripada magnet bumi. Magnet ini dihasilkan dari magnet superkonduksi. Untuk mempertahankan kemampuan superkonduksinya, magnet ini harus didinginkan pada suhu 1,9 kelvin (minus 271,25 derajat celsius). Suhu ini sedikit di atas titik nol absolut dan bahkan lebih dingin daripada angkasa luar. Diperlukan waktu selama 16 bulan untuk mendinginkan 8000 magnet yang terpasang di sekeliling ring sampai pada suhu operasionalnya. Ring dengan panjang kilometer ini dirampingkan menjadi sekitar 10 meter.
Bit raksasa: Cern hasilkan 90 petabyte dalam setahun
Walaupun semua proton dalam accelerator memiliki massa yang sangat-sangat kecil, tetap saja diperlukan usaha. Lantaran kecepatannya, pada energi kinetis yang sama, proton ini setara sebuah bobot 40 ton pada kecepatan 150 kilometer per jam. Apa yang terjadi bila paket proton bergerak di luar kendali? Para peneliti CERN masih harus melakukan ujicoba. Proton memotong sebagian dari sisi panjang pipa jet. Normalnya, beam saling bersilangan dalam detektor dan proton bertabrakan satu sama lain. Bila percobaan ini berhasil, partikel yang berkolisi akan meledak dan membentuk partikel-partikel baru.
Apakah eksperimen ini benar-benar sukses, para peneliti baru akan mengetahuinya setelah beberapa bulan evaluasi. Dari data yang disaring, komputer akan merekonstruksi proses percobaan ini. Seiring dengan waktu, detektor akan disesuaikan dan dikalibrasi secara lebih akurat lagi dan memungkinkan untuk melakukan perubahan yang sesuai pada rekonstruksi eksperimen di komputer. Eksperimen akan diulangi secara virtual sampai tiga kali dalam setahun. Pekerjaan ini melibatkan 20.000 prosesor. Tidak heran, ini menjadikan CERN sebagai produsen data terbesar di dunia. Raw data, backup copy, dan simulasi besar yang dihasilkan oleh CERN di Genewa mencapai sekitar 90 petabyte, hanya dalam setahun saja.
“Jumlah data ini sangat besarm” ucap Gonzalo Merino dari Pusat Informatika Pic Spanyol. Ia kemudian menjelaskan masalahnya. “Datanya begitu besar dibandingkan dengan yang dapat diproses oleh komputer di CERN”. Ini sudah disadari oleh institut yang terlibat pada proyek LHC di tahun 90-an dan kemudian menginvestasikan sebuah infrastruktur komputer desentral yang disebut Grid. “World Wide Web memungkinkan kita untuk mengakses informasi yang tersebut di seluruh dunia,” jelas Merino. “Grid merupakan sebuah infrastruktur baru yang memungkinkan kita mengakses resource komputer yang ada di seluruh dunia”.
Teka-teki Grid: mainan bagi peneliti atau Internet baru?
Grid LHC terdiri atas sebuah sistem yang hierarkis dengan berbagai layer yang disebut Tier. Layer pertama merupakan pusat komputer CERN itu sendiri. Layer pertama ini menyimpan semua raw data yang dihasilkan dari eksperimen dan memproses rekonstruksi pertama. Sebelas pusat komputer pada layer Tier 1, antara lain, menyimpan backup dari eksperimen dan memproses rekonstruksi yang lebih disempurnakan. Masing-masing pusat komputer ini terhubung melalui sebuah jaringan fiber optic dengan kapasitas sebesar 10 gigabit per detik. Level Tier-2 menghubungkan 120 pusat komputer yang tersebar di 35 negara. Di sini, resource CPU digunakan untuk memproses simulasi. Hal yang penting bagi peneliti bahwa Grid LHCd dibangun agar ilmuwan yang terlibat pada proyek ini dapat mengakses data eksperimen dari komputer miliknya sendiri. Tidak masalah di mana data tersebut tersimpan dan diproses.
Apakah infrastruktur seperti ini bakal memegang peranan yang penting bagi pengguna di luar institut, Gonzalo Merino tidak mengatakannya demikian. Saat ini, aplikasinya hanya cocok untuk dunia penelitian. Misalnya, untuk memproses gambar-gambar dari pengamatan antariksa atau database gambar untuk dunia kedokteran. Namun, satu hal yang ia rasakan pasti. “Dalam tiga tahun mendatang, teknologi Grid ini bakal berkembang jauh daripada yang sekarang.” Tim Berners-Lee pun pasti memiliki gambaran yang berbeda tentang World Wide Web pada awal tahun 90-an, jauh dari yang dihasilkan oleh penemuannya. Apa yang saat ini paling mengejutkannya tentang WWW, mungkin dijawab oleh nenek moyang Web: Google!
Tidak ada komentar:
Posting Komentar