НИВЦ МГУ 05.05.2005 Enabling Grids for E-sciencE EGEE – технологический рывок к построению Грид инфраструктуры для науки В.А. Ильин.

Slides:



Advertisements
Similar presentations
Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Torsten Antoni – LCG Operations Workshop, CERN 02-04/11/04 Global Grid User Support - GGUS -
Advertisements

FP7-INFRA Enabling Grids for E-sciencE EGEE Induction Grid training for users, Institute of Physics Belgrade, Serbia Sep. 19, 2008.
 Contributing >30% of throughput to ATLAS and CMS in Worldwide LHC Computing Grid  Reliant on production and advanced networking from ESNET, LHCNET and.
Plateforme de Calcul pour les Sciences du Vivant SRB & gLite V. Breton.
1 Software & Grid Middleware for Tier 2 Centers Rob Gardner Indiana University DOE/NSF Review of U.S. ATLAS and CMS Computing Projects Brookhaven National.
INFSO-RI Enabling Grids for E-sciencE Status of EGEE Operations Ian Bird, CERN SA1 Activity Leader EGEE 3 rd Conference Athens,
GLite, the next generation middleware for Grid computing Oxana Smirnova (Lund/CERN) Nordic Grid Neighborhood Meeting Linköping, October 20, 2004 Uses material.
LCG Milestones for Deployment, Fabric, & Grid Technology Ian Bird LCG Deployment Area Manager PEB 3-Dec-2002.
CMS Report – GridPP Collaboration Meeting VI Peter Hobson, Brunel University30/1/2003 CMS Status and Plans Progress towards GridPP milestones Workload.
INFSO-RI Enabling Grids for E-sciencE Comparison of LCG-2 and gLite Author E.Slabospitskaya Location IHEP.
Andrew McNab - Manchester HEP - 5 July 2001 WP6/Testbed Status Status by partner –CNRS, Czech R., INFN, NIKHEF, NorduGrid, LIP, Russia, UK Security Integration.
OSG Middleware Roadmap Rob Gardner University of Chicago OSG / EGEE Operations Workshop CERN June 19-20, 2006.
Dave Kant Grid Monitoring and Accounting Dave Kant CCLRC e-Science Centre, UK HEPiX at Brookhaven 18 th – 22 nd Oct 2004.
INFSO-RI Enabling Grids for E-sciencE The US Federation Miron Livny Computer Sciences Department University of Wisconsin – Madison.
EGEE-II INFSO-RI Enabling Grids for E-sciencE EGEE and gLite are registered trademarks Simply monitor a grid site with Nagios J.
INFSO-RI Enabling Grids for E-sciencE SA1: Cookbook (DSA1.7) Ian Bird CERN 18 January 2006.
LCG and HEPiX Ian Bird LCG Project - CERN HEPiX - FNAL 25-Oct-2002.
GGF12 – 20 Sept LCG Incident Response Ian Neilson LCG Security Officer Grid Deployment Group CERN.
L ABORATÓRIO DE INSTRUMENTAÇÃO EM FÍSICA EXPERIMENTAL DE PARTÍCULAS Enabling Grids for E-sciencE Grid Computing: Running your Jobs around the World.
INFSO-RI Enabling Grids for E-sciencE Status of EGEE Production Service Ian Bird, CERN SA1 Activity Leader EGEE 1 st EU Review 9-11/02/2005.
INFSO-RI Enabling Grids for E-sciencE Status and Plans of gLite Middleware Erwin Laure 4 th ARDA Workshop 7-8 March 2005.
Responsibilities of ROC and CIC in EGEE infrastructure A.Kryukov, SINP MSU, CIC Manager Yu.Lazin, IHEP, ROC Manager
Enabling Grids for E-sciencE System Analysis Working Group and Experiment Dashboard Julia Andreeva CERN Grid Operations Workshop – June, Stockholm.
Steve Traylen PPD Rutherford Lab Grid Operations PPD Christmas Lectures Steve Traylen RAL Tier1 Grid Deployment
INFSO-RI Enabling Grids for E-sciencE SA1 and gLite: Test, Certification and Pre-production Nick Thackray SA1, CERN.
GLite – An Outsider’s View Stephen Burke RAL. January 31 st 2005gLite overview Introduction A personal view of the current situation –Asked to be provocative!
EGEE-II INFSO-RI Enabling Grids for E-sciencE EGEE and gLite are registered trademarks EGEE II: an eInfrastructure for Europe and.
LCG EGEE is a project funded by the European Union under contract IST LCG PEB, 7 th June 2004 Prototype Middleware Status Update Frédéric Hemmer.
Ian Bird LCG Deployment Area Manager & EGEE Operations Manager IT Department, CERN Presentation to HEPiX 22 nd October 2004 LCG Operations.
Grid User Interface for ATLAS & LHCb A more recent UK mini production used input data stored on RAL’s tape server, the requirements in JDL and the IC Resource.
US LHC OSG Technology Roadmap May 4-5th, 2005 Welcome. Thank you to Deirdre for the arrangements.
EGEE-III INFSO-RI Enabling Grids for E-sciencE EGEE and gLite are registered trademarks SA1: Grid Operations Maite Barroso (CERN)
INFSO-RI Enabling Grids for E-sciencE EGEE SA1 in EGEE-II – Overview Ian Bird IT Department CERN, Switzerland EGEE.
6/23/2005 R. GARDNER OSG Baseline Services 1 OSG Baseline Services In my talk I’d like to discuss two questions:  What capabilities are we aiming for.
EGEE-II INFSO-RI Enabling Grids for E-sciencE EGEE Site Architecture Resource Center Deployment Considerations MIMOS EGEE Tutorial.
Enabling Grids for E-sciencE gLite for ATLAS Production Simone Campana, CERN/INFN ATLAS production meeting May 2, 2005.
Функции и роль Российского Базового Центра Grid- инфраструктуры в рамках проекта EGEE. А.П.Крюков, А.П.Демичев, Л.В.Шамардин, НИИЯФ МГУ А.Крюков, А.Демичев,
INFSO-RI Enabling Grids for E-sciencE An overview of EGEE operations & support procedures Jules Wolfrat SARA.
Certification and test activity ROC/CIC Deployment Team EGEE-SA1 Conference, CNAF – Bologna 05 Oct
Testing and integrating the WLCG/EGEE middleware in the LHC computing Simone Campana, Alessandro Di Girolamo, Elisa Lanciotti, Nicolò Magini, Patricia.
Data Transfer Service Challenge Infrastructure Ian Bird GDB 12 th January 2005.
INFSO-RI Enabling Grids for E-sciencE RDIG - Russia in EGEE Viatcheslav Ilyin RDIG Consortium Director, EGEE PMB SINP MSU (48),
CERN LCG Deployment Overview Ian Bird CERN IT/GD LCG Internal Review November 2003.
INFSO-RI Enabling Grids for E-sciencE The EGEE Project Owen Appleton EGEE Dissemination Officer CERN, Switzerland Danish Grid Forum.
EGEE is a project funded by the European Union under contract IST Roles & Responsibilities Ian Bird SA1 Manager Cork Meeting, April 2004.
V. Ilyin, Russia – EU, Russia participation in EGEE stable core infrastructure - new applications/new resources/new.
DataGrid is a project funded by the European Commission under contract IST rd EU Review – 19-20/02/2004 The EU DataGrid Project Three years.
Accounting in LCG/EGEE Can We Gauge Grid Usage via RBs? Dave Kant CCLRC, e-Science Centre.
INFSO-RI Enabling Grids for E-sciencE gLite Certification and Deployment Process Markus Schulz, SA1, CERN EGEE 1 st EU Review 9-11/02/2005.
INFSO-RI Enabling Grids for E-sciencE gLite Test and Certification Effort Nick Thackray CERN.
Operations model Maite Barroso, CERN On behalf of EGEE operations WLCG Service Workshop 11/02/2006.
INFN GRID Production Infrastructure Status and operation organization Cristina Vistoli Cnaf GDB Bologna, 11/10/2005.
INFSO-RI Enabling Grids for E-sciencE Upcoming Releases Markus Schulz CERN SA1 15 th June 2005.
CERN Certification & Testing LCG Certification & Testing Team (C&T Team) Marco Serra - CERN / INFN Zdenek Sekera - CERN.
EGEE-II INFSO-RI Enabling Grids for E-sciencE EGEE and gLite are registered trademarks EGEE Operations: Evolution of the Role of.
INFSO-RI Enabling Grids for E-sciencE Status and evolution of the EGEE Project and its Grid Middleware By Frédéric Hemmer Middleware.
II EGEE conference Den Haag November, ROC-CIC status in Italy
1/3/2006 Grid operations: structure and organization Cristina Vistoli INFN CNAF – Bologna - Italy.
OSG Status and Rob Gardner University of Chicago US ATLAS Tier2 Meeting Harvard University, August 17-18, 2006.
INFSO-RI Enabling Grids for E-sciencE EGEE general project update Fotis Karayannis EGEE South East Europe Project Management Board.
Bob Jones EGEE Technical Director
Grid Computing: Running your Jobs around the World
Regional Operations Centres Core infrastructure Centres
Operations Status Report
SA1 Execution Plan Status and Issues
Ian Bird GDB Meeting CERN 9 September 2003
Comparison of LCG-2 and gLite v1.0
OMII evaluation: Preliminary results Current status of T6
Operating the World’s largest grid infrastructure
gLite The EGEE Middleware Distribution
Presentation transcript:

НИВЦ МГУ Enabling Grids for E-sciencE EGEE – технологический рывок к построению Грид инфраструктуры для науки В.А. Ильин (НИИЯФ МГУ), В.В. Кореньков (ОИЯИ), А.А. Солдатов (РНЦ КИ) От имени РДИГ – консорциума «Российский грид для интенсивных операций с данными» НИВЦ МГУ, 5 апреля 2005

Enabling Grids for E-sciencE НИВЦ МГУ В.А. Ильин, В.В. Кореньков, А.А. Солдатов 2 О проекте EGEE EGEE – Enabling Grids for E-sciencE создание глобальной инфраструктуры типа грид для распределенных вычислений и интенсивных операций с данными в научных исследованиях EGEE – проект EC FP6 с бюджетом 31 M€, апрель 2004 – апрель 2006 (  2009), 70 партнеров (контракторов) из 30 стран (Европа, США, Россия), более 30 ассоциированных партнеров EGEE сейчас – более 1000 членов коллаборации, более 100 сайтов, ~10 прикладных областей, в инфраструктуре более CPU и более 5 Pbyte данных EGEE – создание грид инфраструктуры (SA1), Grid vs Networking (SA2), разработка/развитие MW (JRA): Globus2+Condor+EDG+…, создание грид-приложений (NA4), обучение (NA3), dissemination (NA2) 50% 25%

Enabling Grids for E-sciencE НИВЦ МГУ В.А. Ильин, В.В. Кореньков, А.А. Солдатов 3 РДИГ РДИГ – Российский грид для интенсивных операций с данными 8 институтов-участников инфраструктурного проекта EGEE: ИФВЭ (В.Петухов), ИТЭФ (В.Гаврилов), РНЦ КИ (А.Солдатов), ИПМ РАН (Д.Корягин), ИМПБ РАН (В.Лахно), ПИЯФ РАН (Ю.Рябов), НИИЯФ МГУ (А.Крюков), ОИЯИ (В.Кореньков) РДИГ – национальная федерация в проекте EGEE (всего 12 федераций): В.Ильин – член EGEE Project Management Board, годовой бюджет 0.5 M€ + российское паритетное финансирование (ФЦНТП+Росатом) РДИГ – создание российского сегмента глобальной инфраструктуры EGEE: участие в SA1 (все 8 институтов), SA2 (РНЦ КИ), NA2-NA4 РДИГ - полнофункциональная грид инфраструктура – российский грид для науки, также и как полигон для российских разработок в этой области. РДИГ сейчас – более 100 членов коллаборации, (~) 10 сайтов, 3 (+3) прикладных областей, в инфраструктуре более 300 CPU и ~ 50 Tbyte данных Грид – ОК Ресурсы - проблема

Enabling Grids for E-sciencE НИВЦ МГУ В.А. Ильин, В.В. Кореньков, А.А. Солдатов 4 Мониторинг EGEE

Enabling Grids for E-sciencE НИВЦ МГУ В.А. Ильин, В.В. Кореньков, А.А. Солдатов 5 Operations (SA1, SA2) Management

Enabling Grids for E-sciencE НИВЦ МГУ В.А. Ильин, В.В. Кореньков, А.А. Солдатов 6 Структурные элементы CIC – Core Infrastructure Center – Обеспечение функционирования базовых грид сервисов 24х7 НИИЯФ МГУ – Мониторинг и реагирование на черезвычайные ситуации ОИЯИ – Ведение учета ресурсов и выполненных работ (accounting) НИИЯФ МГУ, ОИЯИ – Управление и поддержка виртуальных организаций НИИЯФ МГУ – Поддержка безопасности инфраструктуры, CA РНЦ КИ – Сертификация (валидация) грид ПО ИПМ РАН ROC – Regional Operations Center –ИФВЭ, ИТЭФ (user support), ИПМБ РАН, ПИЯФ RC – Resource Center (8++) VO – Virtual Organization –физика высоких энергий: LHC – ATLAS, ALICE, CMS, LHCb; PHOTON, … –биомед (ИМПБ РАН ++ EGEE) –российские VOs: e-Earth (геофизика - ИФЗ и ГЦ РАН), fusion (РНЦ КИ ++), химфизика (Черноголовка, МГУ ++), МГУгрид (НИВЦ, НИИЯФ, ин-т Белозерского, ++), ++

Enabling Grids for E-sciencE НИВЦ МГУ В.А. Ильин, В.В. Кореньков, А.А. Солдатов 7 РДИГ инфраструктура ЦБГС (CIC) РОЦ (ROC) Регистрация ВО Регистрация пользователей Мониторинг Группа дежурных по EGEE Базовые сервисы RB BDII MyP RLS... CA Поддержка пользователей Поддержка РЦ Регистрация новых РЦ Ресурсные центры IHEP ITEP JINR SINP...

Enabling Grids for E-sciencE НИВЦ МГУ В.А. Ильин, В.В. Кореньков, А.А. Солдатов 8 РДИГ SA1 Distributed ROC IHEP, plus some functions provided by ITEP (user support), JINR (operational monitoring), IMPB RAS and PNPI: - serve 8 RCs, 5 new RCs to appear in next 3 months and next 5 to the end of support RDIG SA1 managers - MW repository - user support - GridIce server Distributed CIC - preparing to start in April 2005 (TA) Now some core servces are 8x5 supported (preparing to 24x7): - RB, IS, RC, MyProxy, (regional) VO management (SINP MSU) - Grid monitoring and accounting (JINR) - CA (SINP MSU -> RRC KI), today about 300 (active) certificates, - MW validation and documentation localization (KIAM RAS),

Enabling Grids for E-sciencE НИВЦ МГУ В.А. Ильин, В.В. Кореньков, А.А. Солдатов 9 CIC-on-duty

Enabling Grids for E-sciencE НИВЦ МГУ В.А. Ильин, В.В. Кореньков, А.А. Солдатов 10 CIC-on-duty (прод.) Оперативная группа дежурных постоянно наблюдает за определенными параметрами. Наблюдение за списком рассылки LCG-ROLLOUT и реагирование на оперативные проблемы. Список должен проверяться каждый час. Окно браузера должно быть открыто на странице монитора GIIS (GIIS Monitor), и дежурные должны наблюдать за сайтами, выпадающими из информационной системы. В случае появления подобного сайта проверка файла истории (history of published values) может показать является ли проблема временной или имеет место нарушение работоспособности сайта. При необходимости связь с администраторами сайта. Эта проверка не реже, чем каждые 2 часа. Один раз в день проверка протокола монитора GIIS (GIIS Monitor reports) с точки зрения противоречий и отсутствующих сервисов.

Enabling Grids for E-sciencE НИВЦ МГУ В.А. Ильин, В.В. Кореньков, А.А. Солдатов 11 CIC-on-duty (прод.) Окно браузера должно быть открыто на странице монитора выполняемых заданий (Live Job Monitor). Обнаружение симптомов подозрительного поведения (группы незавершенных задач, большое количество задач в очереди на каком-то отдельном сайте и т.п.). Просматривать этот дисплей каждые 30 минут. Приблизительно в 10:30 просмотреть отчеты о работе сайтов (Site Test Reports) и сравнить их с задачами в системе слежения "Саванна" (Savannah tracking system). В случае получения результата, следует повторить тесты для определенных сайтов. Утром проверка монитора истечения сертификатов (Certificate Lifetime Monitor) и принятие мер, если видны сайты с сертификатом, истекающим в течение недели. Наблюдение за монитором задач Главного оперативного центра (GOC Job Monitor) (проверка несколько раз в день). Приняв дежурство от предыдущей оперативной группы, просмотр сборников часто задаваемых вопросов и руководства по устранению неисправностей (FAQs and Troubleshooting Guides). В начале дежурства ознакомление со списком задач, к которым должна быть применена процедура эскалации. Действия в начале и конце дежурства должны быть основаны на ежедневных отчетах, получаемых с сайта Главного оперативного центра (

Enabling Grids for E-sciencE НИВЦ МГУ В.А. Ильин, В.В. Кореньков, А.А. Солдатов 12 ЦБГС (CIC): ИПМ РАН Сертификация (валидация) грид ПО Локализация документации на русский язык.

Enabling Grids for E-sciencE НИВЦ МГУ В.А. Ильин, В.В. Кореньков, А.А. Солдатов 13 Site Запуск заданий в грид UI RB CE SE WN DBII RLS FS CE SE WN FS UI – Интерфейс пользователя RB – Брокер ресурсов BDII – Информационная база данных по ресурсам RLS – Сервер реплик файлов CE – Компьютерный элемент SE – Элемент хранения данных WN – рабочая нода FS – файловый сервер MyProxy – сервер продление действия сертификата пользователя

Enabling Grids for E-sciencE НИВЦ МГУ В.А. Ильин, В.В. Кореньков, А.А. Солдатов 14 Site Запуск заданий в грид UI RB CE SE WN DBII RLS FS Site CE SE WN FS UI – Интерфейс пользователя RB – Брокер ресурсов BDII – Информационная база данных по ресурсам RLS – Сервер реплик файлов CE – Компьютерный элемент SE – Элемент хранения данных WN – рабочая нода FS – файловый сервер

Enabling Grids for E-sciencE НИВЦ МГУ В.А. Ильин, В.В. Кореньков, А.А. Солдатов 15 Site Запуск заданий в грид UI RB CE SE WN DBII RLS FS Site CE SE WN FS UI – Интерфейс пользователя RB – Брокер ресурсов BDII – Информационная база данных по ресурсам RLS – Сервер реплик файлов CE – Компьютерный элемент SE – Элемент хранения данных WN – рабочая нода FS – файловый сервер

Enabling Grids for E-sciencE НИВЦ МГУ В.А. Ильин, В.В. Кореньков, А.А. Солдатов 16 Site Запуск заданий в грид UI RB CE SE WN DBII RLS FS Site CE SE WN FS UI – Интерфейс пользователя RB – Брокер ресурсов BDII – Информационная база данных по ресурсам RLS – Сервер реплик файлов CE – Компьютерный элемент SE – Элемент хранения данных WN – рабочая нода FS – файловый сервер

Enabling Grids for E-sciencE НИВЦ МГУ В.А. Ильин, В.В. Кореньков, А.А. Солдатов 17 Site Запуск заданий в грид UI RB CE SE WN DBII RLS FS Site CE SE WN FS UI – Интерфейс пользователя RB – Брокер ресурсов BDII – Информационная база данных по ресурсам RLS – Сервер реплик файлов CE – Компьютерный элемент SE – Элемент хранения данных WN – рабочая нода FS – файловый сервер

Enabling Grids for E-sciencE НИВЦ МГУ В.А. Ильин, В.В. Кореньков, А.А. Солдатов 18 Site UI RB CE SE WN BDII RLS FS Site CE SE WN FS UI – Интерфейс пользователя RB – Брокер ресурсов BDII – Информационная база данных по ресурсам RLS – Сервер реплик файлов CE – Компьютерный элемент SE – Элемент хранения данных WN – рабочая нода FS – файловый сервер Запуск заданий в грид

Enabling Grids for E-sciencE НИВЦ МГУ В.А. Ильин, В.В. Кореньков, А.А. Солдатов 19 Country providing resources Country anticipating joining In LCG-2:  113 sites, 30 countries  >10,000 cpu  ~5 PB storage Includes non-EGEE sites: 9 countries 18 sites Computing Resources: Feb 2005

Enabling Grids for E-sciencE НИВЦ МГУ В.А. Ильин, В.В. Кореньков, А.А. Солдатов 20 Infrastructure metrics Countries, sites, and CPU available in EGEE production service Countries, sites, and CPU available in EGEE production service Regioncoun- tries sitescpu M6 (TA) cpu M15 (TA) cpu actual CERN UK/Ireland France Italy South East South West Central Europe Northern Europe Germany/Switzerland Russia EGEE-total USA Canada Asia-Pacific Hewlett-Packard Total other Grand Total EGEE partner regions Other collaborating sites

Enabling Grids for E-sciencE НИВЦ МГУ В.А. Ильин, В.В. Кореньков, А.А. Солдатов 21 Service Usage VOs and users on the production service –Active HEP experiments:  4 LHC, D0, CDF, Zeus, Babar –Active other VO:  Biomed, ESR (Earth Sciences), Compchem, Magic (Astronomy), EGEODE (Geo-Physics) –6 disciplines –Registered users in these VO: 500 –In addition to these there are many VO that are local to a region, supported by their ROCs, but not yet visible across EGEE Scale of work performed: –LHC Data challenges 2004:  >1 M SI2K years of cpu time (~1000 cpu years)  400 TB of data generated, moved and stored  1 VO achieved ~4000 simultaneous jobs (~4 times CERN grid capacity) Number of jobs processed/month

Enabling Grids for E-sciencE НИВЦ МГУ В.А. Ильин, В.В. Кореньков, А.А. Солдатов 22 Current production software (LCG-2) Evolution through 2003/2004 –Focus has been on making these reliable and robust  rather than additional functionality –Respond to needs of users, admins, operators The software stack is the following: –Virtual Data Toolkit  Globus (2.4.x), Condor, etc –EU DataGrid project developed higher-level components  Workload management (RB, L&B, etc)  Replica Location Service (single central catalog), replica management tools  R-GMA as accounting and monitoring framework  VOMS being deployed now –Operations team re-worked components:  Information system: MDS GRIS/GIIS  LCG-BDII  edg-rm tools replaced and augmented as lcg-utils  Developments on: Disk pool managers (dCache, DPM) oNot addressed by JRA1 –Other tools as required:  e.g. GridIce – EU DataTag project

Enabling Grids for E-sciencE НИВЦ МГУ В.А. Ильин, В.В. Кореньков, А.А. Солдатов 23 The deployment process Key point – a certification process is essential –However, it is expensive (people, resources, time) –But, this is the only way to deliver production quality services –LCG-2 was built from a wide variety of “research” quality code  Lots of good ideas, but little attention to the “mundane” needs of production … –Building a reliable distributed system is hard –  Must plan for failure, must provide fail-over of services, etc –Integrating components from different projects is also difficult  Lack of common standards for logging, error recovery, etc

Enabling Grids for E-sciencE НИВЦ МГУ В.А. Ильин, В.В. Кореньков, А.А. Солдатов 24 SA1 – Operations Structure Operations Management Centre (OMC): –At CERN – coordination etc Core Infrastructure Centres (CIC) –Manage daily grid operations – oversight, troubleshooting –Run essential infrastructure services –Provide 2 nd level support to ROCs –UK/I, Fr, It, CERN, + Russia (M12) –Taipei also run a CIC Regional Operations Centres (ROC) –Act as front-line support for user and operations issues –Provide local knowledge and adaptations –One in each region – many distributed User Support Centre (GGUS) –In FZK – manage PTS – provide single point of contact (service desk) –Not foreseen as such in TA, but need is clear

Enabling Grids for E-sciencE НИВЦ МГУ В.А. Ильин, В.В. Кореньков, А.А. Солдатов 25 Grid Operations The grid is flat, but Hierarchy of responsibility –Essential to scale the operation CICs act as a single Operations Centre –Operational oversight (grid operator) responsibility –rotates weekly between CICs –Report problems to ROC/RC –ROC is responsible for ensuring problem is resolved –ROC oversees regional RCs ROCs responsible for organising the operations in a region –Coordinate deployment of middleware, etc CERN coordinates sites not associated with a ROC CIC RC ROC RC ROC RC ROC RC ROC OMC RC = Resource Centre

Enabling Grids for E-sciencE НИВЦ МГУ В.А. Ильин, В.В. Кореньков, А.А. Солдатов 26 Web form to apply selection criteria on the data Aggregate data across an organisation structure (Default= All ROCs) Select VOs (Default = All) Select date range Summed CPU (Seconds) consumed by resources in selected Region Accounting menu may be used to select different views of the data Accounting views

Enabling Grids for E-sciencE НИВЦ МГУ В.А. Ильин, В.В. Кореньков, А.А. Солдатов 27 Policy – Joint Security Group Security & Availability Policy Usage Rules Certification Authorities Audit Requirements Best practice Guides Incident Response User Registration Application Development & Network Admin Guide

Enabling Grids for E-sciencE НИВЦ МГУ В.А. Ильин, В.В. Кореньков, А.А. Солдатов 28 gLite Services for Release 1 Software stack and origin (simplified) Computing Element –Gatekeeper (Globus) –Condor-C (Condor) –CE Monitor (EGEE) –Local batch system (PBS, LSF, Condor) Workload Management –WMS (EDG) –Logging and bookkeeping (EDG) –Condor-C (Condor) Storage Element –File Transfer/Placement (EGEE) –glite-I/O (AliEn) –GridFTP (Globus) –SRM: Castor (CERN), dCache (FNAL, DESY), other SRMs Catalog –File and Replica Catalog (EGEE) –Metadata Catalog (EGEE) Information and Monitoring –R-GMA (EDG) Security –VOMS (DataTAG, EDG) –GSI (Globus) –Authentication for C and Java based (web) services (EDG)

Enabling Grids for E-sciencE НИВЦ МГУ В.А. Ильин, В.В. Кореньков, А.А. Солдатов 29 Main Differences to LCG-2 Workload Management System works in push and pull mode Computing Element moving towards a VO based scheduler guarding the jobs of the VO (reduces load on GRAM) Distributed and re-factored file & replica catalogs Secure catalogs (based on user DN; VOMS certificates being integrated) Scheduled data transfers SRM based storage Information Services: R-GMA with improved API and registry replication Prototypes of additional services –Grid Access Service (GAS) –Package manager –DGAS based accounting system –Job provenance service Move towards Web Services

Enabling Grids for E-sciencE НИВЦ МГУ В.А. Ильин, В.В. Кореньков, А.А. Солдатов 30 Standards Web Services Fast moving area –Follow WSRF and related standards but are not early adopters –WS-I compatibility is a target  Challenging to write WSDL which is WS-I compatible AND can be processed by all the tools –Industry strength tooling not always available –Trying to keep back from the bleeding edge Work on standards bodies –Active contributions to  GGF OGSA-WG GMA in OGSA Data Design team  GGF INFOD-WG  OASIS WS-N  GGF GSM-WG (SRM) Co-chairing WG  Replica Registration Service –And following many, many others –Adopting mature standards is a goal

Enabling Grids for E-sciencE НИВЦ МГУ В.А. Ильин, В.В. Кореньков, А.А. Солдатов 31 Release Timeline May 2004 Prototype Available to ARDA users Builds June 2004 July 2004 Aug 2004 Sep 2004 Oct 2004 Nov 2004 Dec 2004 Jan 2005 Feb 2005 March 2005 First public nightly build (B 39) Functionality First automated build (B 1) First Integration build (I B 80) RC1 (I B 151) I/O Client I/O Server CE, LB, WMS, WN AliEn, R-GMA Data Local Transfer Service, Single Catalog VOMS, Site Configuration RC1 (I B 206) Today Release 1.0 April 2005

Enabling Grids for E-sciencE НИВЦ МГУ В.А. Ильин, В.В. Кореньков, А.А. Солдатов 32 RDIG in MW evaluation and testing Testing/adaptation MW components (SA1): IHEP, PNPI, JINR IHEP will participate in the pre-production testing/adaptation of gLite (SA1) Testing new MW components (NA4 ARDA): - Metadata catalog, Fireman catalog, gridFTP,... (JINR, SINP MSU) - testing gLite for ATLAS and CMS (PNPI, SINP MSU) EGEE work plan : January-March 2005: evaluation OMII (JINR, KIAM RAS) April-October 2005: evaluation GT4 (SINP MSU, JINR, KIAM RAS)

Enabling Grids for E-sciencE НИВЦ МГУ В.А. Ильин, В.В. Кореньков, А.А. Солдатов 33 SINP MSU+ INFN (Padua) new mw - improved job flow CERN-INTAS meeting, 14 March 2005, CERN

Enabling Grids for E-sciencE НИВЦ МГУ В.А. Ильин, В.В. Кореньков, А.А. Солдатов 34 SINP MSU: new mw - monitoring of application jobs  No LCG MW modification required (wrappers + additional server);  Access to the intermediate job output via Web-interface;  Authorization is based on the standard GSI certificates and proxy certificates  Starting Web-page for interested users (with instructions): CERN-INTAS meeting, 14 March 2005, CERN

Enabling Grids for E-sciencE НИВЦ МГУ В.А. Ильин, В.В. Кореньков, А.А. Солдатов 35 New MW: JINR, KIAM RAS, SINP MSU OGSA/Globus evaluation for data intensive applications Based on the experience with OGSA/GT3 evaluation in (T. Chen et al. “OGSA Globus Tolkit Evaluation Activity at CERN”, in Proc. of ACAT03, NIMA 534 (2004) 80) Release of the Globus Toolkit 4 is currently scheduled for April 29, 2005 www-unix.globus.org/toolkit/docs/development/4.0-drafts/GT4Facts Therefore: testing/evaluation of other OGSA/WS systems potentially interesting for LCG/EGEE CERN-INTAS meeting, 14 March 2005, CERN

Enabling Grids for E-sciencE НИВЦ МГУ В.А. Ильин, В.В. Кореньков, А.А. Солдатов 36 Testing the OMII basic functionality (KIAM RAS+JINR):  Applications must be pre-installed on the (Job Service) server; an execution of programs prepared on client side is impossible.  No such core services like RB, IS, RC  Management of (grid) accounts is not well scalable, not well suitable for management of large dynamic VOs  Clients must be installed for each user separately (e.g., not under root)  Failed to deploy a new custom service into the OMII container  Report was submitted to JRA1 and OMII Support  The OMII Job service was found to be robust in a test with 20 concurrent clients  The maximal job submission rate ~ 6 jobs/min  no bulk batch mode for job submission --> problem for submitting large number of jobs  The Data Service was found to work stable with up to 5 concurrent clients and a file size of up to 10MB (no tests beyond this limits yet). CERN-INTAS meeting, 14 March 2005, CERN

Enabling Grids for E-sciencE НИВЦ МГУ В.А. Ильин, В.В. Кореньков, А.А. Солдатов 37 New Deployment – new CIC/ROC Release(s) Certification is run daily Update User Guides EIS Update Release Notes GIS Release Notes Installation Guides User Guides Re-Certify CIC Every Month 11 Release Client Release Deploy Client Releases (User Space) GIS Deploy Service Releases (Optional) CICs RCs CICs RCs Deploy Major Releases (Mandatory) ROCs RCs ROCs RCs YAIM Every Month Every 3 months on fixed dates ! at own pace

Enabling Grids for E-sciencE НИВЦ МГУ В.А. Ильин, В.В. Кореньков, А.А. Солдатов 38 gLite Differences –Unit and functional testing already performed by JRA1 –Releases have to be synchronized between JRA1, SA1 based on NA4’s priorities New Sequence –Certification Testbed (CERN)  Installation/config tests  Rerun functional tests (to validate configuration)  Synthetic stress tests –Preproduction Service  Sites Krakow, FZK, IN2P3, CNAF, Padua, Bari, NIKHEF, SNIC, Protvino-IHEP, UOM, LIP, PIC, RAL sites test installation and configuration  Applications test by using their production software and give feedback on reliability and functionality Status –Documentation of process is in draft state –Certification Testbed  gLite pre-release installed –Preproduction Service  Sites are installing current LCG2 release as a platform for the gLite components –Porting of tests and collection of existing tests (JRA1, NA4, ARDA) started

Enabling Grids for E-sciencE НИВЦ МГУ В.А. Ильин, В.В. Кореньков, А.А. Солдатов 39 SA2 (РНЦ КИ): Проблемы организации интерфейса взаимодействия EGEE-NRENs Ограничения «типичного» НОКа: –Разрешение проблем внутри собственного административного домена –Собственная схема взаимодействия с пользователями Сложность сетевой инфраструктуры –Большое количество ресурсных центров, подключенных к разным сетям –Большое количество НОКов со своими схемами взаимодействия –Новые сетевые сервисы Необходимо создать службу для решения сетевых проблем, связанных с деятельностью EGEE – ENOC

Enabling Grids for E-sciencE НИВЦ МГУ В.А. Ильин, В.В. Кореньков, А.А. Солдатов 40 SA2 (РНЦ КИ): Схема решения сетевых проблем

Enabling Grids for E-sciencE НИВЦ МГУ В.А. Ильин, В.В. Кореньков, А.А. Солдатов 41 Участники процесса интеграции VO Совет по развитию РДИГ –В.А. Ильин - координатор проекта РДИГ –Е.А. Тихоненко (NA4) - ответственная за взаимодействие прикладных областей с инфраструктурой РДИГ –А.П. Демичев - ответственный за технические аспекты регистрации и поддержки работы ВО Центр базовых грид-сервсов (ЦБГС, А.П.Крюков): –Настройка базовых сервисов (Шамардин) –Поддержка сайта регистрации пользователей и БД ВО (Демичев) Региональный операционный центр (РОЦ, Ю.А.Лазин): –помощь в инсталляции и поддержка UI –поддержка пользователей новой VO Менеджер создаваемой VO. Ресурсные центры РДИГ

Enabling Grids for E-sciencE НИВЦ МГУ В.А. Ильин, В.В. Кореньков, А.А. Солдатов 42 Процесс создания с точки зрения VO Инструкция на rdig-registrar.sinp.msu.ru/newVO.html : –Выбор имени VO. –Регистрация VO в Совете по вопросам развития РДИГ:  Меморандум о взаимопонимании;  Ответы на вопросник (информация о кандидате в VO) –Формирование первоначального состава VO  регистрации пользователей - членов VO на rdig-registrar.sinp.msu.ru –Интеграция новой VO в грид-инфраструктуру РДИГ  переговоры с менеджерами ресурсных центров (РЦ) о допуске новой организации к использованию их ресурсов

Enabling Grids for E-sciencE НИВЦ МГУ В.А. Ильин, В.В. Кореньков, А.А. Солдатов 43 Меморандум о взаимопонимании между СР-РДИГ и VO Представители VO –ФИО руководителя новой VO –для текущих орг. и технических контактов с РДИГ  В частности, вопросы включения новых пользователей в члены в VO –получающие право установки программного обеспечения VO в РЦ (software managers group) VO обязуется строго следовать «Правилам использования … РДИГ», … содействовать предупреждению и ликвидации последствий случаев, представляющих угрозу безопасности … РДИГ: максимальное предоставление ресурсов в рамках возможностей и локальной политики РЦ

Enabling Grids for E-sciencE НИВЦ МГУ В.А. Ильин, В.В. Кореньков, А.А. Солдатов 44 (первая новая) VO в РДИГ RGStest – для тестирования РДИГ eEarth – задачи геофизики и космических исследований, –в частности, интерактивная картография и визуализация научных данных в Интернет = задачи хранения геофизической информации на параллельном кластере баз данных, интерактивного поиска событий в окружающей среде, и совместной интерактивной визуализации карт (есть более подробное описание задачи – кто будет анализировать?) –В рамках международных проектов  Space Physics Interactive Data Resource (SPIDR) и  Integrated Distributed Environmental Archive System (IDEAS),  входящих в программу Президиума РАН «Электронная Земля»  на базе Геофизического центра и Института физики Земли РАН –Руководитель VO eEarth - зав. лаб. ИФЗ и ГЦ РАН М.Н. Жижин. –Численность VO в течение ближайшего года ~ 10

Enabling Grids for E-sciencE НИВЦ МГУ В.А. Ильин, В.В. Кореньков, А.А. Солдатов 45 Регистрация новой VO От - каз На основе решения СР- РДИГ + ЦБГС + РОЦ Демичев готовит мотивиро-ванный отказ и направляет заявителям Полож ительно е решени е Намерение организации, проекта и т.п. создать VO для использования ресурсов РДИГ Веб-страница rdig-registrar.sinp.msu.ru/newVO.html, документ « Создание и регистрация ВО в рамках инфраструктуры РДИГ: правила и процедура», образец «Меморандума о взаимопонимании» и «Вопросник для кандидата на создание ВО РДИГ» Подготовка менеджером VO Меморандума и информации о VO по пунктам Вопросника Тихоненко, Демичев знакомятся с информацией о кандидате в VO РДИГ, представляют информацию Ильину; Ильин одобряет/отклоняет/редактирует Меморандум На основе информации + Меморандума СР-РДИГ совместно с Крюковым (ЦБГС) и Лазиным (РОЦ) принимают решение о начале процедуры регистрации или отклонении заявки

Enabling Grids for E-sciencE НИВЦ МГУ В.А. Ильин, В.В. Кореньков, А.А. Солдатов 46 Интеграция новой ВО ЦБГС (Крюков): - конфиг. базовых сервисов (Шамардин); - конфиг. сервера ВО (Демичев); - тех. поддержка менеджмента VO = база VO, регистрация членов VO (Демичев) РОЦ (Лазин) - помощь в инсталляции и поддержка UI - поддержка пользователей новой VO NA4 (Тихоненко): - на основании информации от VO (ответы на Вопросник) подбирает список РЦ, удовлетворяющих требованиям VO - предоставляет этот список (с координатами менеджеров РЦ) и образец Соглашения VO↔РЦ менеджеру новой VO Менеджер новой VO и менеджеры РЦ ведут переговоры и заключает соглашения между РЦ РДИГ и VO об обслуживании VO

Enabling Grids for E-sciencE НИВЦ МГУ В.А. Ильин, В.В. Кореньков, А.А. Солдатов 47 Вместо заключения: РДИГ (+EGEE) – грид инфраструктура для научных исследований  приглашаем новые прикладные области (VO) РДИГ (+EGEE) – технологический полигон для – изучения существующего MW – тестирования/развития нового MW – новых архитектурных и инфраструктурных разработок  приглашаем российских разработчиков MW