Büyük Hadron Çarpıştırıcısının (LHC) insanlık tarafından şimdiye kadar yapılmış en büyük, en pahalı fizik deneyi olacağını zaten biliyoruz. Göreceli olmayan partiküllerin daha önce hayal bile edilemeyen enerjilerde (on yılın sonuna kadar 14 TeV işaretine kadar) çarpışması, büyük partikül dedektörleri tarafından izlenmesi ve karakterize edilmesi gereken milyonlarca partikül üretecektir (henüz keşfedilmemiştir ve henüz keşfedilmemiştir). Bu tarihi deney, veri işleme kurallarını yeniden yazarak büyük bir veri toplama ve depolama çabası gerektirecektir. Her beş saniyede bir LHC çarpışmaları, DVD değerinde bir veri eşdeğeri üretecektir, bu da saniyede bir gigabaytlık bir veri üretim oranıdır. Bunu perspektife sokmak için, çok iyi bir bağlantıya sahip ortalama bir ev bilgisayarı, saniyede bir veya iki megabayt oranında veri indirebilir (eğer çok şanslıysanız! 500 kilobayt / saniye alırım). Bu nedenle, LHC mühendisleri depolayıp dağıtabilen yeni bir tür veri işleme yöntemi tasarladı petabayt (milyon gigabayt) (bir indirme için beklerken eski ve gri olmadan).
1990 yılında, Avrupa Nükleer Araştırmalar Örgütü (CERN) yaşam tarzımızda devrim yarattı. Bir önceki yıl, bir CERN fizikçisi Tim Berners-Lee, elektronik bilgi yönetimi için bir teklif yazdı. Bilgilerin İnternet üzerinden “köprü metni” adı verilen bir şey kullanılarak kolayca aktarılabileceği fikrini ortaya koydu. Zaman geçtikçe Berners-Lee ve CERN'de bir sistem mühendisi olan işbirlikçi Robert Cailliau, CERN bilim adamlarının külfetli depolama cihazlarına kaydetmeden işbirliği yapmalarına ve kişisel bilgisayarlarından bilgi paylaşmalarına yardımcı olmak için tek bir bilgi ağını birleştirdi. Köprü Metni, kullanıcıların aşağıdakileri kullanarak web sayfalarında metinlere göz atmalarını ve metinleri paylaşmalarını sağladı köprüler. Berners-Lee daha sonra bir tarayıcı editörü oluşturmaya devam etti ve kısa süre sonra bu yeni iletişim biçiminin çok sayıda insan tarafından paylaşılabileceğini fark etti. Mayıs 1990'a kadar, CERN bilim adamları bu yeni işbirliği ağını Dünya çapında Ağ. Aslında, CERN dünyanın ilk web sitesinden sorumluydu: http://info.cern.ch/ ve bu sitenin neye benzediğine dair erken bir örnek World Wide Web Konsorsiyumu web sitesinde bulunabilir.
Bu nedenle CERN, İnternet üzerinden veri yönetimine yabancı değil, ancak yeni LHC özel bir tedavi gerektirecek. Georgia Teknoloji Enstitüsü'nde yüksek performanslı bilgi işlem müdürü David Bader tarafından vurgulandığı gibi, İnternet'in izin verdiği mevcut bant genişliği büyük bir darboğazdır ve diğer veri paylaşım biçimlerini daha arzu edilir kılmaktadır. “LHC'ye ve bunun gelecek için ne yapacağına bakarsam, Web'in yapamadığı tek şey olağanüstü bir veri zenginliğini yönetmektir, ”Dedi, yani terabayt sabit disklere büyük veri kümelerini kaydetmek ve daha sonra bunları ortak çalışanlara göndermek daha kolay. Her ne kadar CERN, World Wide Web'deki veri paylaşımının ortak doğasını ele almış olsa da, LHC'nin üreteceği veriler şu anda mevcut olan küçük bant genişliklerini kolayca aşırı yükleyecektir.
Bu nedenle LHC Hesaplama Izgarası tasarlanmıştır. Izgara, ilk katmanlarda büyük LHC veri seti üretimini gerçekleştirir (Seviye 0) İsviçre'nin Cenevre yakınlarındaki CERN'de bulunmaktadır. Tier 0, LHC tarafından pompalanan ham verileri (1s ve 0s) ikili verileri depolamak ve yönetmek için ayarlanmış 100.000 gelişmiş CPU içeren büyük bir paralel bilgisayar ağından oluşur. Bu noktada, tüm parçacık çarpışmalarının sensörler tarafından tespit edilmeyeceğini, sadece çok küçük bir kısmın yakalanabileceğini belirtmek gerekir. Her ne kadar sadece nispeten az sayıda parçacık tespit edilebilse de, bu hala büyük bir çıktıya dönüşür.
Tier 0, saniyede 10 gigabit fiber optik hat üzerinden patlatılarak çıkan verilerin kısımlarını 11'e yönetir. 1. kat Kuzey Amerika, Asya ve Avrupa'daki siteler. Bu, New York'taki Brookhaven Ulusal Laboratuvarı'ndaki Relativistik Ağır İyon Çarpıştırıcısı (RHIC) gibi işbirlikçilerin, LHC kurşun iyonu çarpışmalarından elde edilen sonuçları kendi ağır iyon çarpışma sonuçlarıyla karşılaştırarak ALICE deneyinin verilerini analiz etmesini sağlar.
Seviye 1 uluslararası bilgisayarlardan veri setleri paketlenir ve 140'a gönderilir Seviye 2 dünyanın dört bir yanındaki üniversitelerde, laboratuvarlarda ve özel şirketlerde bulunan bilgisayar ağları. Bu noktada, bilim adamları ham ikili koddan parçacık enerjileri ve yörüngeler hakkında kullanılabilir bilgilere dönüşümü gerçekleştirmek için veri kümelerine erişebilecekler.
Katman sistemi iyi ve iyidir, ancak “ara katman yazılımı” adı verilen yüksek verimli bir yazılım türü olmadan çalışmaz. Verilere erişmeye çalışırken kullanıcı, farklı sunuculardaki farklı formatlardaki verilerin petabaytlarına yayılmış bilgiler isteyebilir. Açık kaynaklı bir ara katman yazılımı platformu Globus sanki bu bilgiler araştırmacının bilgisayarında oturuyormuş gibi gerekli bilgileri kesintisiz bir şekilde toplamak büyük bir sorumluluğa sahip olacak.
LHC projesinin ötesine genişletilebilen katmanlı sistem, hızlı bağlantı ve ustaca yazılımın bu kombinasyonudur. Her şeyin "talep üzerine" olduğu bir dünyada, bu tür bir teknoloji interneti şeffaf son kullanıcıya. Gezegenin diğer tarafındaki deneyler tarafından üretilen verilerden, indirme ilerleme çubuğunu beklemeden yüksek tanımlı filmleri izlemeye kadar her şeye anında erişim olacaktır. Berners-Lee’nin HTML icadı gibi LHC Bilişim Grid interneti kullanma biçimimizde devrim yapabilir.
Kaynaklar: Scientific American, CERN