Il calcolo di Belle2 Vania Boccia – INFN Napoli. Il Computing model e i flussi di dati Il Computing model di Belle II è costituito dai seguenti task:

Slides:



Advertisements
Similar presentations
5/2/2005MAGIC II Workshop – RömerTurm1 The Monte Carlo Center Presently 5 ( + 5) XEON bi-processors at 3.0 CNAF (Bologna) allocated to MAGIC. During.
Advertisements

LCG Tiziana Ferrari - SC3: INFN installation status report 1 Service Challenge Phase 3: Status report Tiziana Ferrari on behalf of the INFN SC team INFN.
FP6−2004−Infrastructures−6-SSA Data Grid Infrastructure for YBJ-ARGO Cosmic-Ray Project Gang CHEN, Hongmei ZHANG - IHEP.
I.1 ii.2 iii.3 iv.4 1+1=. i.1 ii.2 iii.3 iv.4 1+1=
ATLAS computing in Geneva 268 CPU cores (login + batch) 180 TB for data the analysis facility for Geneva group grid batch production for ATLAS special.
I.1 ii.2 iii.3 iv.4 1+1=. i.1 ii.2 iii.3 iv.4 1+1=
DPM Italian sites and EPEL testbed in Italy Alessandro De Salvo (INFN, Roma1), Alessandra Doria (INFN, Napoli), Elisabetta Vilucchi (INFN, Laboratori Nazionali.
DPM Italian sites and EPEL testbed in Italy Alessandro De Salvo (INFN, Roma1), Alessandra Doria (INFN, Napoli), Elisabetta Vilucchi (INFN, Laboratori Nazionali.
BNL Oracle database services status and future plans Carlos Fernando Gamboa RACF Facility Brookhaven National Laboratory, US Distributed Database Operations.
1 1 Hybrid Cloud Solutions (Private with Public Burst) Accelerate and Orchestrate Enterprise Applications.
INTRODUCTION The GRID Data Center at INFN Pisa hosts a big Tier2 for the CMS experiment, together with local usage from other HEP related/not related activities.
LCG Service Challenge Phase 4: Piano di attività e impatto sulla infrastruttura di rete 1 Service Challenge Phase 4: Piano di attività e impatto sulla.
Belle II Data Management System Junghyun Kim, Sunil Ahn and Kihyeon Cho * (on behalf of the Belle II Computing Group) *Presenter High Energy Physics Team.
BESIII Production with Distributed Computing Xiaomei Zhang, Tian Yan, Xianghu Zhao Institute of High Energy Physics, Chinese Academy of Sciences, Beijing.
International Workshop on HEP Data Grid Nov 9, 2002, KNU Data Storage, Network, Handling, and Clustering in CDF Korea group Intae Yu*, Junghyun Kim, Ilsung.
COMSATS Institute of Information Technology, Islamabad PK-CIIT Grid Operations in Pakistan COMSATS Dr. Saif-ur-Rehman Muhammad Waqar Asia Tier Center Forum.
KISTI-GSDC SITE REPORT Sang-Un Ahn, Jin Kim On the behalf of KISTI GSDC 24 March 2015 HEPiX Spring 2015 Workshop Oxford University, Oxford, UK.
National HEP Data Grid Project in Korea Kihyeon Cho Center for High Energy Physics (CHEP) Kyungpook National University CDF CAF & Grid Meeting July 12,
ATLAS WAN Requirements at BNL Slides Extracted From Presentation Given By Bruce G. Gibbard 13 December 2004.
A Silvio Pardi on behalf of the SuperB Collaboration a INFN-Napoli -Campus di M.S.Angelo Via Cinthia– 80126, Napoli, Italy CHEP12 – New York – USA – May.
Lofar Information System on GRID A.N.Belikov. Lofar Long Term Archive Prototypes: EGEE Astro-WISE Requirements to data storage Tiers Astro-WISE adaptation.
Summary of Software and tracking activities Tokusui Workshop December 2015 Akiya Miyamoto KEK.
NA62 computing resources update 1 Paolo Valente – INFN Roma Liverpool, Aug. 2013NA62 collaboration meeting.
January 20, 2000K. Sliwa/ Tufts University DOE/NSF ATLAS Review 1 SIMULATION OF DAILY ACTIVITITIES AT REGIONAL CENTERS MONARC Collaboration Alexander Nazarenko.
The Worldwide LHC Computing Grid Frédéric Hemmer IT Department Head Visit of INTEL ISEF CERN Special Award Winners 2012 Thursday, 21 st June 2012.
Pathway to Petaflops A vendor contribution Philippe Trautmann Business Development Manager HPC & Grid Global Education, Government & Healthcare.
LHCb Current Understanding of Italian Tier-n Centres Domenico Galli, Umberto Marconi Roma, January 23, 2001.
IT-INFN-CNAF Status Update LHC-OPN Meeting INFN CNAF, December 2009 Stefano Zani 10/11/2009Stefano Zani INFN CNAF (TIER1 Staff)1.
Belle II Computing Fabrizio Bianchi INFN and University of Torino Meeting Belle2 Italia 17/12/2014.
PADME Kick-Off Meeting – LNF, April 20-21, DAQ Data Rate - Preliminary estimate Tentative setup: all channels read with Fast ADC 1024 samples, 12.
Domenico Elia1 ALICE computing: status and perspectives Domenico Elia, INFN Bari Workshop CCR INFN / LNS Catania, Workshop Commissione Calcolo.
INTERREG IIIA ITALIA SLOVENIA INVITO A PRESENTARE PROPOSTE PROGETTUALI A VALERE SULLE AZIONI E Misura 2.3 “Cooperazione transfrontaliera nel.
Storage & Database Team Activity Report INFN CNAF,
Daniele Cesini - INFN CNAF. INFN-CNAF 20 maggio 2014 CNAF 2 CNAF hosts the Italian Tier1 computing centre for the LHC experiments ATLAS, CMS, ALICE and.
WLCG November Plan for shutdown and 2009 data-taking Kors Bos.
ITS Luca Pacioli Progetto “1x1” Un computer per ogni studente Progetto “Eppur si muove” Didattica Laboratoriale Nuvola su Google Apps - ITS Luca Pacioli.
WNoDeS – a Grid/Cloud Integration Framework Elisabetta Ronchieri (INFN-CNAF) for the WNoDeS Project
FESR Trinacria Grid Virtual Laboratory COMDO ed ISOSPIN: i progetti di CHIMERA su Grid Supporters : Marcello IaconoManno, Gaetano Lanzalone,
PRIN STOA-LHC: STATUS BARI BOLOGNA-18 GIUGNO 2014 Giorgia MINIELLO G. MAGGI, G. DONVITO, D. Elia INFN Sezione di Bari e Dipartimento Interateneo.
Scientific Computing at Fermilab Lothar Bauerdick, Deputy Head Scientific Computing Division 1 of 7 10k slot tape robots.
Laboratorio II, modulo Matteo Duranti
Web and mobile access to digital repositories Mario Torrisi National Institute of Nuclear Physics – Division of
M.MaseraT2 di TORINO1 ALICE IL CALCOLO DI ALICE IN ITALIA ED IL TIER-2 DI TORINO Massimo Masera Torino, 28 Novembre 2005.
1 M. Paganoni, 17/1/08 Modello di calcolo di CMS M. Paganoni Workshop Storage T2 - 17/01/08.
SEPARAZIONE DI MISCELE DI PROTEINE NEI LORO COMPONENTI Un metodo molto utilizzato è la elettroforesi sul gel bidimensionale dove in un primo tempo si eluisce.
SuperB – Naples Site Dr. Silvio Pardi. Right now the Napoli Group is employed in 3 main tasks relate the computing in SuperB Fast Simulation Electron.
GSDC: A Unique Data Center in Korea for Fundamental Research Global Science experimental Data hub Center Korea Institute of Science and Technology Information.
Confcooperative Verona – Via Sommacampagna, 63/H – VERONA (VR) – – Incontro.
KEK CC - present and future - Mitsuaki NOZAKi (KEK)
Assemblee Olimpiche – Quadriennio Ritorno al futuro III.
Facile da usare Un'interfaccia amministrativa completamente rinnovata, iniziare con Drupal è più facile!
ATLAS CNAF in 2010  ATLAS data distribution: o import from T0, import/export from/to Atlas tier1s and It tiers2 o data disk crisis in May.
Università degli Studi di Napoli “Federico II” Facoltà di Scienze MM. FF. NN. – Sez. Informatica Sistemi per l’Elaborazione dell’Informazione: RETI a.a.
Fate clic per aggiungere testo SIA: FOCUS COMUNI USSL N.9 a cura del Comune di Treviso.
Dynamic Extension of the INFN Tier-1 on external resources
DPM at ATLAS sites and testbeds in Italy
Dr. Silvio Pardi INFN-Napoli Belle II Italia 21 December 2015
Overview of the Belle II computing
Belle II Physics Analysis Center at TIFR
Corporate CNAF.
Yaodong CHENG Computing Center, IHEP, CAS 2016 Fall HEPiX Workshop
Future challenges for the BELLE II experiment
INFN – GRID status and activities
LHCb Computing Model and Data Handling Angelo Carbone 5° workshop italiano sulla fisica p-p ad LHC 31st January 2008.
UTFSM computer cluster
Universita’ di Torino and INFN – Torino
Xiaomei Zhang On behalf of CEPC software & computing group Nov 6, 2017
 YongPyong-High Jan We appreciate that you give an opportunity to have this talk. Our Belle II computing group would like to report on.
Solving Equations 3x+7 –7 13 –7 =.
Presentation transcript:

Il calcolo di Belle2 Vania Boccia – INFN Napoli

Il Computing model e i flussi di dati Il Computing model di Belle II è costituito dai seguenti task: Processing dei dati RAW Produzione Montecarlo Physics analysis Archiviazione di tutti i dati provenienti da ciascun processo In relazione ai task elencati si devono considerare i seguenti 5 flussi di dati: RAW Data mDST prodotti appena dopo la presa dati mDST prodotti durante le attività di data reprocessing mDST Monte Carlo relativi alla presa dati mDST Monte Carlo relativi alle attività di reprocessing Workshop della Commissione Calcolo e Reti dell'INFN, Frascati Maggio

Il computing model Si basa su un’infrastruttura distribuita costituita da: Raw Data Centers in cui l’attività principale è la registrazione, il primo processamento e il reporcessing dei dati raw Regional Data Centers in cui vengono conservate copie dei dati mDST MonteCarlo Production Sites dove viene eseguita una percentuale della produzione Monte Carlo Local resources che sono utilizzate per l’analisi da parte dei Fisici. Workshop della Commissione Calcolo e Reti dell'INFN, Frascati Maggio

I Raw Data Centers Raw Data Centers in cui l’attività principale è la registrazione ed il primo processamento dei dati raw: KEK (100%) PNNL (Pacific Northwest National Laboratory) (100% fino al III anno e 30% dal IV anno) Raw Data Center a partire dal IV anno: Germania (20%) Italia (20%) Corea del Sud (10%) Canada (10%) India (10%) Workshop della Commissione Calcolo e Reti dell'INFN, Frascati Maggio

I Regional Data Centers Regional Data Centers in cui vengono conservate le copie dei dati mDST. Si prevede di conservare 4 copie complete, una per area geografica: KEK (100%) PNNL (100%) EUROPA (100%) Germania (40%) Italia (40%) Slovenia (20%) Corea del Sud (100%) Workshop della Commissione Calcolo e Reti dell'INFN, Frascati Maggio

I Monte Carlo Production Sites MonteCarlo Production Sites dove viene eseguita una percentuale della produzione Monte Carlo. Sono di tre tipologie: GRID: basati su UMD/OSG Cloud: basati su protocolli standard Cluster che forniscono accesso diretto alle risorse via ssh Workshop della Commissione Calcolo e Reti dell'INFN, Frascati Maggio

Evoluzione del computing model Fino all’anno III Dall’anno IV Workshop della Commissione Calcolo e Reti dell'INFN, Frascati Maggio

La replica dei dati raw distribuita Trasferendo i dati non direttamente da KEK ma tramite PNNL si divide la latenza del collegamento diretto KEK/Europa in due parti almeno fino a quando avrà luogo il trasferimento dati da KEK all’ Europa via USA. Workshop della Commissione Calcolo e Reti dell'INFN, Frascati Maggio

Il modello per i dati (scenario distribuito) Due copie dei raw data: la prima al KEK, la seconda distribuita (30% PNNL, 20% Italia e 20% Germania, 20% Asia, 10% Canada) 4 copie dei mDST relative ai dati (KEK, America, Europa ed Asia) 3 copie dei mDST MC (Asia, Europa, America) Data Processing: 60% al KEK, 40% distribuito Reprocessing: 100% presso i Raw Data Center (KEK escluso) I raw data di un anno devono essere processati entro 11 mesi dalla presa dati. Workshop della Commissione Calcolo e Reti dell'INFN, Frascati Maggio

Il modello per la produzione MC I dati MC sono generati nei MC Production Sites I dati MC relativi ad un anno: devono essere prodotti in un periodo compreso tra 5 e 11 mesi vengono conservati nei siti GRID dove sono stati prodotti (oppure spostati nei siti GRID se prodotti in siti Cloud o Cluster) sono replicati in almeno un altro sito GRID (geograficamente “vicino”) Almeno una precedente versione dei dati MC deve essere conservata in caso di reprocessing Workshop della Commissione Calcolo e Reti dell'INFN, Frascati Maggio

L’infrastruttura italiana per Belle2 Secondo il computing model di Belle2: Il Raw Data Center è al CNAF I Regional Data Center sono il CNAF + una federazione di Tier2 I MC Production Sites sono il CNAF + una federazione Tier2 + altre risorse disponibili in modo “opportunistico” in altri siti. La federazione di Tier2 è attualmente costituita dai siti di Napoli, Pisa e Torino. Hanno partecipato all’ultima campagna MC anche i siti di Frascati, Legnaro-Padova, Roma3 e Cosenza. Workshop della Commissione Calcolo e Reti dell'INFN, Frascati Maggio

Belle2 quarta campagna MC (ottobre-novembre 2014) 12 Pisa 7.0% Napoli 4.7% CNAF 3.1% Frascati 2.6% Legnaro 0.5% Torino 0.5 % Workshop della Commissione Calcolo e Reti dell'INFN, Frascati Maggio 2015

Belle2 quarta campagna MC (ottobre-novembre 2014) Workshop della Commissione Calcolo e Reti dell'INFN, Frascati Maggio

Belle2: campagna MC4’ (aprile-maggio 2015) Workshop della Commissione Calcolo e Reti dell'INFN, Frascati Maggio rd Italian Belle II Collaboration Meeting, may 2015 Contributo italiano L’Italia è riuscita, nell’ultima campagna, a fare molto più di quanto concordato (il 28.2% invece del 12%) Workshop della Commissione Calcolo e Reti dell'INFN Frascati Maggio

Belle2: campagna MC4’ (aprile-maggio 2015) Workshop della Commissione Calcolo e Reti dell'INFN, Frascati Maggio

L’infrastruttura ReCaS Vania Boccia on behalf of ReCaS collaboration

Velocità programmata della rete: fino a 40Gbps Potenza di calcolo: 128 server, 8192 core, cluster HPC di 20 nodi con GPU per complessivi ulteriori 800 core Capacità di memorizzazione: 3552 TB su disco e 2500 TB su nastro (Tape library) Datacenter di Bari Velocità programmata della rete: fino a 40Gbps Potenza di calcolo: 132 server, 4628 core core pre-esistenti (Datacenter SCoPE) Capacità di memorizzazione: 4957 TB TB pre-esistenti (Datacenter SCoPE) Datacenter di Napoli Datacenter di Catania Velocità programmata della rete: fino a 40Gbps Potenza di calcolo: 54 server, 2562 core core pre-esistenti Capacità di memorizzazione: 1000 TB TB pre-esistenti Datacenter di Cosenza Velocità programmatadella rete: fino a 40Gbps Potenza di calcolo: 90 server, 3500 core Capacità di memorizzazione: 900 TB “core”; 11 PB su disco, 2.5 PB su nastro L’infrastruttura ReCaS 17 26/05/2015 Workshop della Commissione Calcolo e Reti dell'INFN Frascati Maggio 2015 Circa 110 kHS solo RECAS

18 I paradigmi di calcolo distribuito ReCaS supporta i seguenti paradigmi di aggregazione ed accesso alle risorse: GRID (UMD/EMI) Cloud (OpenStack/OpenNebula) Accesso diretto (Cluster basati su LRMS LSF/PBS) Ibridi (Grid/Cloud) Workshop della Commissione Calcolo e Reti dell'INFN, Frascati Maggio 2015

19 Gli utenti di ReCaS Workshop della Commissione Calcolo e Reti dell'INFN, Frascati Maggio 2015

20 Il software applicativo Workshop della Commissione Calcolo e Reti dell'INFN, Frascati Maggio 2015

21 Le Virtual Organization di ReCaS Workshop della Commissione Calcolo e Reti dell'INFN, Frascati Maggio 2015

22 I «Grandi Utenti» di Fisica su ReCaS Workshop della Commissione Calcolo e Reti dell'INFN, Frascati Maggio 2015

Grazie

Backup Slides Workshop della Commissione Calcolo e Reti dell'INFN, Frascati Maggio

F. Bianchi Third Belle II Italian Collaboration Meeting (21-22 May 2015)25

Esigenze storage Anno 1 presa dati: 2018 Alla fine del 2024: saranno stati prodotti circa 100PB di dati raw di cui 25PB/anno negli ultimi 3 anni (75PB) cui il 20 % (circa 20PB) dovranno essere ospitati in Italia gli mDST saranno 3PB di cui l’Italia deve mantenere il 40% (circa 1 PB) Workshop della Commissione Calcolo e Reti dell'INFN, Frascati Maggio

Il modello per i dati Tutti i raw data sono memorizzati al KEK ed una copia completa viene trasferita al PNNL (fino al III anno) I raw data vegono parzialmente processati al KEK per produrre gli mDST. Il PNNL può prendere parte al processamento dei dati raw per ridurre il carico del KEK Tutti gli mDST vengono conservati al KEK. Una copia completa dei mDST è conservata al PNNL ed in ogni Regional Data Center I raw data di un anno devono essere processati entro 11 mesi dalla presa dati. Almeno una copia del precedente dataset mDST deve essere conservata per eventuali reprocessing. Workshop della Commissione Calcolo e Reti dell'INFN, Frascati Maggio