Пионеры концепции GRID - BioinforMatix.ru - портал по биоинформатике, имейджингу и биософту

Пионеры концепции GRID

Печать E-mail
Автор Игорь Макаров   
18.11.2008 г.
Подключая компьютер к сети GRID, пользователь скорого будущего перестанет задумываться о том, где и кем производятся необходимые ему вычисления, как мы сегодня не думаем о том, откуда в розетке электричество.

Большинство штучных специалистов по GRID-технологиям сегодня – это аспиранты. Участие целых институтов в крупных GRID-проектах зависит именно от них.

В центре небольшой комнаты, заполненной ровным гулом работающих компьютеров, стоит массивный стеллаж с разнообразными серверами. Системный администратор Андрей Зароченцев склоняется над четырьмя старенькими машинами: «Пентиум три, шестьсот мегагерц – машины 1999 года, – разводит руками он. – Не ахти, конечно! Раз в месяц приходится перебирать какую-нибудь из них. Но свою работу делают, наша точка на европейском мониторе горит не мигая».

Неприметные машины – кластер Санкт-Петербургского университета, участвующий в проекте «АЛИСА», – в этом году ждет нелегкое испытание. В конце 2007 года в Европейском центре ядерных исследований стартует масштабный эксперимент по ядерным столкновениям. Каждую секунду на большом адронном коллайдере (БАК – см. статью «Создать Вселенную заново» в «Эксперте С-З» №17(270) от 8 мая 2006 года) будут происходить миллионы столкновений элементарных частиц. Объем данных, передающихся с детектора вычислительным центрам по всему миру, составит примерно 1 Гбайт в секунду – приблизительно 10 Пбайт ежегодно. Для передачи, хранения и обработки информации ЦЕРН специально создал распределенную GRID-инфраструктуру, объединившую 70 институтов в 27 странах.

Мечты об общей розетке
Бурно развивающимся сегодня GRID-технологиям прочат славу нового этапа информационной революции, следующего после появления интернета. В отличие от мировой паутины World Wide Web, которая является средством для совместного использования информации, GRID – это средство для совместного использования вычислительных мощностей и хранилищ данных посредством интернета. Таким образом, GRID позволяет выйти за рамки простого обмена данными между компьютерами и в конце концов превратить глобальную сеть компьютеров в единый и практически неограниченный вычислительный ресурс.

Как многие термины, родившиеся в среде физиков, своим названием GRID (GRID) обязан остроумной метафоре. Еще в 1969 году Лен Клейнрок, заглядывая в туманное будущее, писал: «Вероятно, скоро мы увидим распространение „компьютерных коммунальных услуг“, которые, подобно электричеству и телефону, придут в дома и офисы по всей стране». Спустя 30 лет идея использования глобальных вычислительных ресурсов и ресурсов памяти по аналогии с электросетью (powergrid) уже не кажется такой безумной. Пройдет еще какое-то время, и пользователь, подключая компьютер к сети GRID, действительно перестанет задумываться о том, где и как производятся необходимые ему вычисления, подобно тому как мы сегодня не думаем, откуда в бытовых розетках берется электричество. Впрочем, для этого GRID-сообществу предстоит пройти через этап консолидации и стандартизации.

Потребность в объединении вычислительных ресурсов для научных целей возникла в конце 1980−х годов. Такие крупные проекты, как эксперименты по столкновению элементарных частиц на суперускорителях или расшифровка генома человека, предъявляли повышенные требования к вычислительным мощностям. Объединяя компьютеры и рабочие станции в локальные сети, а сети различных лабораторий – друг с другом, ученые пытались использовать свободные процессоры для сокращения времени обработки массивов данных. Идея состояла в том, чтобы занять простаивающие мощности и объединить ресурсы разных организаций в своего рода гигантский мультипроцессор.

В 1998 году Ян Фостер из Арагонской национальной лаборатории Чикагского университета и Карл Кессельман из Института информатики Университета Южной Калифорнии предложили классическое определение такой распределенной программно-аппаратной инфраструктуры, которую они назвали «GRID». С тех пор под термином «GRID» подразумевается «согласованная, открытая и стандартизованная среда, обеспечивающая гибкое, безопасное, скоординированное раздельное использование разнообразных компьютерных ресурсов виртуальными организациями», то есть свободными сообществами пользователей, объединенных едиными научными или инженерными задачами и действующими в соответствии с заданными правилами.

Классическое определение было столь широко, что его трактовали весьма свободно. Фостер попытался его сузить, сформулировав три основных критерия GRID: он должен координировать использование ресурсов при отсутствии централизованного управления; применять стандартные, открытые, универсальные протоколы и интерфейсы; обеспечивать высококачественное обслуживание.

Предложенные критерии выражают скорее пожелания, каким GRID должен стать в перспективе. На данный момент ни в одном из существующих GRID-сегментов не обеспечивается выполнение всех этих требований в полной мере. Пока GRID – это еще «незавершенный продукт», базовые технологии которого находятся на стадии прототипов и разрабатываются сотнями исследователей и специалистов по программному обеспечению во всем мире.

Сети науки
Проектов, в той или иной степени связанных с GRID, в мире очень много. Одни из них направлены на развитие GRID-инфраструктур, другие – на разработку программного обеспечения и разнообразных средств для управления приложениями, третьи – на адаптацию к работе GRID-приложений. Впрочем, наряду с экспериментальным сегментом, в котором все эти элементы тестируются (например, такие проекты, как CrossGrid или RiDGrid), в мире постоянно растет число эксплуатационных GRID-сетей (Open Science Grid и TeraGrid в США, NorduGrid, EGEE и DEISA в Европе). Эти сети работают с реальной вычислительной нагрузкой семь дней в неделю 24 часа в сутки и включают в себя несколько тысяч процессоров. В отличие от экспериментальных сегментов, здесь предъявляются жесткие требования к поддержке работоспособности локальных GRID-сайтов, выше и требования к качеству программного обеспечения.

Истоки развития эксплуатационных GRID лежат в области физики высоких энергий. В течение лета 2003 года в отделе информационных технологий CERN (Европейский центр ядерных исследований) множество молодых специалистов активно работали над программным обеспечением для запуска первого этапа проекта LHC Computing Grid (LCG). Задача этого проекта, стартовавшего в 2002 году, заключалась в интеграции тысяч компьютеров, размещенных в разных точках мира, с целью образования единого глобального вычислительного ресурса. Технология опиралась на новый тип промежуточного программного обеспечения, специально создаваемого для GRID и нового поколения аппаратных средств.

После старта в 2007 году самого большого в мире ускорителя БАК тысячам физиков потребуется доступ к огромным массивам данных проводимых на нем экспериментов. Объем таких данных составит приблизительно 10 Пбайт ежегодно, что более чем в тысячу раз превышает количество информации, содержащейся во всех книгах, издающихся каждый год во всем мире, и почти 10% всей информации, которую человечество производит за год. Единственный разумный способ получить доступ к такому количеству информации – это GRID. Но проект LCG должен решить не только проблему хранения и доступа к данным – необходимы еще вычислительные ресурсы для их анализа (а это около 100 тыс. современных персональных компьютеров). За большими числами стоит и новая философия – данные и вычислительные мощности должны быть доступны тысячам ученых, участвующим в экспериментах с LHC, без всяких затруднений, независимо от того, где они находятся.

В целом GRID-технологии способны решить две значительные проблемы ученых – необходимость одновременной работы с огромным количеством данных, хранящихся в разных организациях (как правило, в разных частях мира), и потребность оперативно выполнять большие объемы вычислений. Например, ученые, следящие за уровнем атмосферного озона, используют для этого снимки из космоса: каждый день только для этой задачи на землю со спутников пересылается около 100 Гбайт необработанных изображений. Без эффективных сетевых ресурсов ученым пришлось бы проводить исследования там, где данные хранятся физически. С другой стороны, даже современные суперкомпьютеры и кластеры компьютеров будут веками обсчитывать многие из задач современной биологии и фармацевтики, например влияние на белки, связанные с определенной болезнью, тысяч молекул – потенциальных лекарственных препаратов.

На смену проекту LCG сегодня пришел EGEE, в котором ставится задача создания постоянно действующей общеевропейской инфраструктуры. Проект «GRID для электронной науки» – Enabling Grids for E-sciencE (EGEE), финансируемый Европейской комиссией, объединяет более 90 институтов в 32 странах мира для создания и эксплуатации гибкой GRID-инфраструктуры, работающей в режиме постоянной нагрузки. На данный момент в EGEE интегрированы приложения из следующих областей, определяемых общим термином e-science: биомедицина, астрофизика, вычислительная химия, наука о Земле, финансы, мультимедиа. Сегодня EGEE поддерживает более 20 тыс. процессоров, а также обеспечивает доступ к 5 Пбайт дискового пространства на серверах хранения. Ежедневная загрузка EGEE достигает до 20 тыс. заданий в день.

Вычисления за деньги
«Создающиеся сегодня огромные GRID-инфраструктуры должны иметь экономическую целесообразность, – рассуждает эксперт в области GRID-технологий из Института высокопроизводительных вычислений и информационных систем Ирина Шошмина. – Поэтому GRID-сообщество все больше начинает задумываться о том, чтобы запускать коммерческие, индустриальные приложения».

«Ключевыми требованиями для начала коммерческой эксплуатации GRID-систем являются простота использования этих технологий и обеспечение безопасного хранения, передачи и использования данных, – продолжает эту мысль Пьер Гвиссе, директор европейского центра Cetic (CoreGRID), проводящего исследования в области эффективности GRID-технологий. – Чтобы бизнес освоил GRID, очень важны будут истории успеха, для умножения которых Европейская комиссия специально поддерживает сеть индустриального GRID BEinGRID». Сегодня потребность в GRID-ресурсах в коммерческом секторе очень высока. Предприятиям приходится обрабатывать все больше данных. Это характерно не только для промышленности, но и для бизнеса. GRID-технологии могут быть полезны там, где требуется производить значительные объемы вычислений (например, при финансовом моделировании, анализе рисков, инженерных разработках) или распределенно использовать обширные массивы данных. Главные секторы, которые могут выиграть от использования GRID-технологий, – это телекоммуникации, финансы, промышленность и инжиниринг (например, авиа— и автомобилестроение), коммунальные службы, а также компании, связанные с аутсорсингом.

Аналитический центр IDC, делая обзор того, как будут развиваться GRID-технологии в ближайшие четыре года, приходит к выводу, что 2007 год может стать переломным для начала повсеместного использования GRID-технологий в коммерческих целях. Уже сегодня за этим сектором внимательно наблюдают все гиганты ИТ-индустрии. Свои проекты в области GRID-технологий развивают AMD, IBM, SUN, Oracle и Google.

«По прогнозам IDC, в 2008 году более 25% от общего количества всех серверов будут использованы в GRID, – говорит менеджер компании Intel по GRID-проектам Игорь Одинцов. – Так как компания Intel в первую очередь специализируется на производстве процессоров, она пристально следит за тем, как они будут использоваться в инфраструктуре GRID. Поэтому компания уже сегодня разрабатывает свое программное обеспечение – среду GPE (Grid Programming Environment – программное окружение GRID), основная часть разработчиков которой находится в Центре Intel по разработке и исследованиям в Санкт-Петербурге».

Чтоб не пропасть поодиночке
Сегодня на карте российского GRID горит всего несколько огоньков вокруг Москвы и Петербурга. При этом российским его можно назвать только условно. Основной сегмент реально работающей сети GRID представлен объединенными ресурсами восьми отечественных институтов, входящих в европейский проект EGEE.

Консорциум РДИГ (Российский GRID для интенсивных операций с данными) представляет собой региональную федерацию в рамках проекта EGEE. Участниками РДИГ являются РНЦ «Курчатовский институт» (Москва), Институт физики высоких энергий (Протвино), Институт математических проблем биологии РАН (Пущино), Институт теоретической и экспериментальной физики (Москва), Объединенный институт ядерных исследований (Дубна), Институт прикладной математики им. М.В. Келдыша РАН (Москва), НИИ ядерной физики им. Д.В. Скобельцына МГУ (Москва). На Северо-Западе помимо Института ядерной физики РАН в Гатчине с ЦЕРНом и его GRID-проектом связана также лаборатория сверхвысоких энергий Санкт-Петербургского государственного университета.

Сегодняшнее участие этих институтов в проекте по созданию общеевропейской сети GRID имеет свою героическую предысторию. В предшествующие годы несколько институтов ядерной физики без какого-либо финансирования участвовали в проекте DataGrid и построили первый российский полигон GRID, успешно справились с установкой программной инфраструктуры и проведением экспериментальных расчетов. В результате в июле 2003 года Российский региональный GRID был включен в GRID LCG.

По условиям проекта EGEE, пришедшего на смену LCG, расходы на участие в европейском GRID-проекте делятся пополам между Европейским союзом и страной-участницей. Россия свою часть до сих пор полностью не внесла. «Российский консорциум РДИГ обеспечивает 3−4% общеевропейской работы, что примерно соответствует участию России в проекте, – говорит Александр Крюков из НИИ ядерной физики имени Д.В. Скобельцына МГУ. – Однако для того чтобы выполнить свои обязательства по обработке экспериментальных данных, которые будут поступать с нового ускорителя в ЦЕРНе, большинству наших институтов придется в 10−15 раз увеличить существующие вычислительные мощности. Если это не будет сделано, мы можем потерять доступ к непосредственным результатам эксперимента, т.  е . обесценим всю работу, которую Россия выполняла с 1994 года».

Формально РДИГ открыт для присоединения новых участников. Проект нацелен на обсчет приложений из разных областей наук: не только физики высоких энергий, но и биологии, математики, наук о Земле. Часть таких задач действительно обрабатывается. Впрочем, далеко не все институты и научные центры страны спешат войти в уже существующую сеть. Объединяться стихийным образом у российских институтов пока получается плохо. Если один директор в 1990− е  стоптал ноги, чтобы выбить деньги на компьютеры для своего института, то он по понятным причинам не хочет делиться этой техникой просто так. Кроме того, попытки создать инфраструктуру «на вырост», а не для решения конкретных задач, обречены на провал.

«Часто ко мне на электронный адрес приходят предложения присоединиться к той или иной виртуальной организации, – рассказывает Андрей Зароченцев. – Я задаю всего один вопрос, на который почему-то никто не может ответить: „Для решения каких задач вам нужны наши ресурсы?“ Большинство наших энтузиастов хотят создать „GRID ради GRIDа“. Но ведь GRID – это средство, а не цель. Как показывает практика, создание GRID-инфраструктуры всегда шло за необходимостью решать конкретные задачи».

В том, что в России есть конкретные приложения, для которых необходимы GRID-ресурсы, никто не сомневается. Нет игрока, который взял бы на себя инициативу по построению национального проекта.

«GRID-инфраструктура в России сегодня практически не развита. Все, что есть, создано благодаря проекту EGEE, – продолжает Ирина Шошмина. – Основная идея GRID-технологий – задействовать простаивающие вычислительные ресурсы. Если в стране простаивают вычислительные ресурсы – это огромный экономический убыток. Поэтому ресурсы принято отдавать сразу для нескольких приложений из разных научных областей. Так происходит во всем мире. Чтобы это развивалось в России, нужна государственная программа».

Национальной программы по развитию GRID в России нет. При этом подобные программы разработаны всеми хоть сколько-нибудь технологически развитыми странами – не только США, ЕС, Китаем или Индией, но и гораздо более мелкими игроками, такими как Югославия, Венгрия, Румыния. Большинство из них решили проблему в течение одного-двух лет при достаточно скромных затратах государства. Главная роль, которую государство брало на себя, была организационной.

Самым слабым звеном российской GRID-инфраструктуры, как замечают все участники сообщества, является даже не столько недостаток каналов связи или незначительные вычислительные мощности научных центров, а критическое отсутствие специалистов, способных поддерживать эти технологии. «В российском сообществе программистов пока очень немного профессионалов, которые специализируются на разработке приложений для высокопроизводительных вычислений, – говорит Игорь Одинцов. — Для эффективной работы приложения в среде GRID задачи нужно правильно подготовить. Для одной и той же задачи можно написать программу, которая будет решать ее и за минуты, и за часы. Многое зависит от мастерства программиста. Поэтому для развития GRID-технологий в стране важно большое внимание уделять целенаправленной подготовке студентов».

GRID – это довольно новые технологии, завязанные на новую архитектуру компьютеров. Многие исследователи, которым нужны мощные вычислительные инструменты, выросли на технике 1970−1980−х годов, использующей идеологию крупных рабочих станций, мейнфреймов. «Сегодня необходимо убеждать ученых и исследователей в полезности GRID-ресурсов, – рассказывает Шошмина. – Свои задачи они по многу дней считают на кластерах. Многие и вовсе не имеют доступа к вычислительным ресурсам. Должно пройти время, чтобы люди оценили возможности новых технологий и адаптировали свои приложения. Надо активизировать просветительскую деятельность на конференциях для ученых, практиков, молодежи, разрабатывать учебные курсы для студентов вузов. Но сейчас просто не хватает специалистов, имеющих практический опыт вычислений в GRID-средах и способных справиться со значительным объемом работы в образовании».

Большинство редких специалистов в области GRID-технологий сегодня – аспиранты, и риск того, что по окончании учебы они уйдут из науки, реально велик. С их уходом в каждом отдельно взятом институте технологии могут быть потеряны. Поэтому каждый раз, когда Андрей Зароченцев заново перебирает старенький компьютер, может оказаться последним.

Последнее обновление ( 08.04.2009 г. )
 
« Пред.   След. »