270 likes | 514 Views
Параллельные и распределенные вычисления на кафедре вычислительной физики Физического факультета СПбГУ С.А.Немнюгин Санкт-Петербургский государственный университет 2005. О чем пойдет речь. Генератор событий PSM Расчеты с использованием GEANT Моделирование процессов в микроканальных пластинах
E N D
Параллельные и распределенные вычисления на кафедре вычислительной физики Физического факультета СПбГУС.А.НемнюгинСанкт-Петербургский государственный университет2005
О чем пойдет речь • Генератор событий PSM • Расчеты с использованием GEANT • Моделирование процессов в микроканальных пластинах • LCG
Параллельная версия генератора событий на основе партонно-струнной моделиС.А.Немнюгин, В.М.Солодков, Г.А.Феофилов, А.Асрян
О проекте Работа выполняется в рамках сотрудничества с Европейским центром ядерных исследований (ЦЕРН) и связана с подготовкой к проведению исследований на Большом Адронном Коллайдере (LHC) на детекторе ALICE. Цель исследований – изучение фундаментальных свойств материи при сверхвысоких энергиях
Генератор событий PSM Программный монте-карловский генератор событий (последовательная версия) разработан Н.Амелиным на основе партонно-струнной модели, модификация которой предложена: М.А.Брауном (СПбГУ) и К.Пахаресом (Университет Сантьяго де Компостелла) [N. S. Amelin, H. Stocker, W. Greiner, N. Armesto, M. A. Braun and C. Pajares, Phys. Rev. C52 (1995) 362]
Вычислительные проблемы Для получения физически значимых результатов требуется большая статистика (104 – 106 событий) Трудоемкость моделирования велика (>13 сек/событие на 600МГц процессоре), если учтены: • слияние (перколяция) струн • жесткое перерассеяние глюонов • резонансные распады • перерассеяние вторичных частиц
Вычислительные проблемы Большой объем файлов с результатами расчетов: • 1 Гбайт для 25 000 событий • 20 Гбайт для 500 000 событий
Решение вычислительных проблем Разработано несколько параллельных версий генератора PSM с использованием библиотеки MPICH 1.2.4: • для кластера без файлового сервера • для кластера с файловым сервером
Параллельный кластер Расчеты проводились на кластере ALICE (Петродворцовый Телекоммуникационный Центр СПбГУ): 7 двухпроцессорных вычислительных узлов (2х600 МГц, 512 МбайтОЗУ,2х4,5 Гбайт жесткие диски) + 1 сервер(1,2 ГГц,256 Мбайт ОЗУ, 40 Гбайтжесткие диски + 300 Гбайт)
Ускорение A) HARD PART: True/False; B) STRING FUSION; C) RESONANCE DECAY; D) RESCATTERING
Ускорение • 1000 событий • TTTT • ---- • - 02 - 224m21.353s • - 02 03 - 114m13.243s • - 02 03 04 - 87m59.043s • - 02 03 04 05 - 62m.83.205s • - 02 03 04 05 06 - 54m67.012s • - 02 03 04 05 06 07 - 48m71.642s • - 02 03 04 05 06 07 08 - 44m32.502s
Генератор событий PSM BEAM: N,P,PBAR,D,HE,BE,B,C,O,AL,SI,S,AR,CA,CU,AG,XE,W,AU,PB,U TARGET: N,P,PBAR,D,HE,BE,B,C,O,AL,SI,S,AR,CA,CU,AG,XE,W,AU,PB,U Ecm/NUCLEON: 10. < Ecm/NUCLEON (GeV) < 15000. IMPACT PARAMETER: FIXB or RANB bmin: added by PAB B: 0 <= b <= B (fm), in case of IMPACT=FIXB NEVENT: 1,... HARD PART: T (D: ONLY ACTIVE FOR Ecm/NUCLEON >= 25. GeV) or F STRING FUSION: T (D) or F RESONANCE DECAY: T (D) or F RESCATTERING: T (D) or F (WARNING!!!!: EXTREMELY TIME CONSUMING, BETTER NOT TO BE USED FOR Ecm/NUCLEON > 200 GeV WITHOUT CARE) NUCLEON PDF SET: PDFLIB NUMBERING SCHEME AS NPTYPE*1000+NGROUP*100+NSET (D: 1505, GRV 94 LO), in case of HARD PART=T NUCLEAR SF CORRECTIONS: 0=NO CORRECTION, 1=EKS98 CORRECTIONS (D), 2=ESKOLA-QIU-CZYZEWSKI CORRECTION AS F2, in case of HARD PART=T
Генератор событий PSM PB PB 17.3 FIXB 0.0 8.0 1000 T T T T 1505 1
Расчеты с использованием GEANT В.Галицын, Ф.Ф.Валиев, С.А.Немнюгин,
О проекте Данная работа составляет часть исследований процессов формирования импульсов микроскопического тока, формируемых при поглощении гамма-излучения средой Актуальность обусловлена возросшим вниманием к детекторам элементарных частиц, создаваемым на основе излучения вторичных электронов
GEANT GEANT – свободно-распространяемая библиотека, предназначенная для моделирования процессов взаимодействия излучения с веществом
Расчеты Расчеты проводились на кластере кафедры вычислительной физики (20 вычислительных узлов, 1,7 ГГц каждый)
Расчеты процессов формирования электронной лавины в микроканальных пластинах К.Зуев, Ф.Ф.Валиев, С.А.Немнюгин,
LCGNorduGrid М.М.Степанова, С.Лодыгин, С.А.Немнюгин,
На физическом факультете СПбГУ создается учебный центр технологий GRID. Базой учебного центра является ресурсный центр GRID. В настоящее время ресурсный центр имеет следующую конфигурацию: • серверы служб CE (Computing Element) и SE (StorageElement) • узел с пользовательским интерфейсом (UI, User Interface) • два рабочих узла (WN, WorkNode). • Узлы объединены через коммутируемый FastEthernet 100Mbps и расположены в выделенном сегменте локальной сети. Комплекс имеет подключение к внешнему каналу. • Планируется увеличение числа рабочих узлов за счет двух вычислительных кластеров физического факультета СПбГУ. Каждый кластер содержит 10 узлов на основе Pentium с тактовой частотой 1.7 Ггц.
Установлено программное обеспечение промежуточного уровня (middleware) для GRID-систем LCG-2 v.2.4.0. Базовая операционная система Linux RedHat 7.3, тестируется вариант на ScientificLinux3. Интеграция ресурсного центра в GRID EGEE осуществляется подключением к брокеру ресурсов в Институте Ядерной физики (ПИЯФ РАН, Гатчина).