Смиру понитке: суперкомпьютер

Смиру понитке: суперкомпьютер

Существует множество научных задач, для ответа которых необходимы весьма замечательные компьютеры. К примеру, моделирование ядерных опробований — как раз этим занимается самый замечательный в мире суперкомпьютер Roadrunner. Огромного ресурса вычислительных мощностей требует прогноз погоды — именно для данной цели Гидрометереологический России сравнительно не так давно обзавелся новым 30-тонным суперкомпьютером с производительностью вычислений 27 терафлоп.

И это лишь два примера из огромного количества аналогичных задач. До недавнего времени их в большинстве случаев решали посредством суперкомпьютеров.

кластеры и Суперкомпьютеры

Суперкомпьютерами принято именовать вычислительные совокупности огромной производительности, каковые складываются из громадного количества вычислительных узлов, объединенных в единый ресурс. Менее производительные вычислительные совокупности — кластеры, в них функция вычислительных узлов возложена на независимые компьютеры, подключенные к скоростной сети обмена данными.

Компьютеры, входящие в кластер, смогут пребывать в различных помещениях а также строениях — везде, куда возможно протянуть сетевой кабель. Многие научно-крупные университеты и исследовательские центры отдают предпочтение как раз кластерам как недорогой альтернативе суперкомпьютерам, применяя для этих целей парк собственной компьютерной техники.

кластеры и Суперкомпьютеры различаются лишь снаружи, по сути же они трудятся схожим образом и относятся к совокупностям параллельных сетевых вычислений — grid-сетям (англ. grid — решетка, сетка). Данный тип вычислений отличается скоростным сотрудничеством между собой вычислительных узлов, что разрешает моделировать протекание сложных природных процессов.

Любой час работы суперкомпьютеров расписан на месяцы вперед. Исследовательские группы чуть ли не дерутся между собой, для получения доступа к консолям вычислительных гигантов. И одновременно с этим в мире простаивают без дела технические средства с совокупной мощностью, талантливой заткнуть за пояс целый TOP500 самых производительных суперкомпьютеров мира.

Малой кровью

Данный малоосвоенный резерв — рабочие и домашние персональные компьютеры. Их центральные процессоры солидную часть времени трудятся «вхолостую», кроме того в то время, когда пользователь набирает текст, наблюдает видео либо слушает музыку.

Предоставив пропадающее бесплатно процессорное время на потребности науки посредством глобальной сети распределенных вычислений (distributed computing), обладатель ПК не ощущает неудобств, не считая разве что шума от вентиляторов из-за повышенного тепловыделения процессора — вычисления выполняются с минимальным приоритетом, не сказываясь на работе вторых программ. Соединение с интернетом нужно только для отправки результатов на получения и сервер новых заданий — затраты на трафик вырастут незначительно.

Распределенные вычисления замечательно справляются с задачами перебора — к примеру, при поиске несложных чисел либо совпадения конфигурации молекул потенциальных лекарственных веществ и белков-мишеней, с обработкой данных прямых наблюдений в астрофизике и радиоастрономии, с широкомасштабным моделированием природных процессов, и с разработкой математического аппарата научных изучений. Специализация разъясняется трудностями налаживания действенного сотрудничества между разбросанными в мире персоналками. Исходя из этого неспециализированная вычислительная задача не «заглатывается» полностью, а разбивается на отдельные блоки, обсчитываемые на различных компьютерах в произвольном порядке и независимо друг от друга.

Уступая опытным кластерным совокупностям в удельной производительности на единичный процессор, ПК, серверы и ноутбуки участников распределенных вычислений берут числом: их армия растет стремительными темпами, в то время как запуск новых суперкомпьютеров — событие редкое, попадающее в выпуски новостей.

От математики до внеземного разума

Мысль совместного применения вычислительных ресурсов нескольких автомобилей появилась еще на заре компьютерной эры. В первой половине 70-ых годов XX века Джон Шох и Жон Хапп из известного калифорнийского НИИ Xerox PARC (Palo Alto Research Center) разработали программу, которая по ночам запускалась в локальную сеть PARC, расползалась по трудящимся компьютерам и заставляла их делать вычисления.

Качественный скачок в обеспечении совместной работы многих компьютеров над единой задачей случился с возникновением первых электронной почты и персональных компьютеров. Во второй половине 80-ых годов двадцатого века Арьен Ленстра и Марк Менес разработали программу для факторизации (разбиения на множители) долгих чисел. Для ускорения процесса программа имела возможность запускаться на нескольких не связанных между собой автомобилях, любая из которых обрабатывала собственный маленький фрагмент.

Новые блоки заданий рассылались на компьютеры участников с центрального сервера проекта по простой email. Для успешного разложения на множители числа длиной в сто знаков этому сообществу потребовалось два года и пара сотен персональных компьютеров. С успешным завершением проекта Ленстра-Менеса на древе эволюции вычислительных совокупностей выросла новая жизнеспособная ветвь — распределенные вычисления.

28 января 1997 года распределенные вычисления сделали очередной шажок — стартовал конкурс RSA Data Security на решение задачи взлома способом несложного перебора 56-битного ключа шифрования информации RC5−32/12/7. Благодаря хорошей технической и организационной подготовке проект, организованный некоммерческим сообществом distributed.net, скоро стал широко известен.

17 мая 1999 года Дэвид Геди и Крейг Кеснов из Лаборатории космических изучений Калифорнийского университета в Беркли запустили распределенный проект поиска сигналов внеземных цивилизаций SETI@home (SETI — Search for Extraterrestrial Intelligence at Home), что до сих пор остается одним из самые массовых проектов. Огромной популярности содействовало то, что в первый раз была переведена на рельсы распределенных вычислений интригующая научная задача, далекая от неинтересной факторизации либо взлома очередного ключа.

Заслуга организаторов SETI@home не только в постановке занимательной задачи, но и в разработке универсальной платформы BOINC (Berkeley Open Infrastructure for Network Computing) для запуска новых проектов. Сейчас количество проектов на данной платформе уже перевалило за сотню. Клиентская часть BOINC разрешает подключаться к нескольким проектам, вести статистику участия в них и следить за протеканием вычислений.

Фактически любой, кто владеет базисными навыками программирования и у кого найдется хорошая помощи научная мысль, может организовать личный проект распределенных вычислений на базе BOINC. Так сделал, к примеру, физик Константин Метлов из Донецкого физтех университета (ДонФТИ). Фактически в одиночку он запустил проект Magnetism@home по расчету магнитных конфигураций цилиндрических наноэлементов.

Распределенная мощь

хороший пример того, как действенным может стать вовлечение пользователей персоналок в научные изучения, — проект Folding@home, организованный Виджаем Панде из Стэнфордского университета для моделирования фолдинга (сворачивания) молекул белков людской организма. Более 400 000 лишь неизменно подключенных процессоров «разогнали» проект до 5000 терафлоп.

Никакой суперкомпьютер не выдержит борьбе с распределенной сетью таковой производительности, каждый день увеличивающей вычислительный потенциал за счет новых участников. Кроме того рекордсмен Roadrunner может похвалиться всего 1105 терафлоп при 129 600 процессорных ядрах.

Известный SETI@home — проект поиска радиосигналов из далекого космоса — располагает лишь 315 000 активных процессоров с неспециализированной скоростью исполнения операций 500 терафлоп. Не смотря на то, что это и не самые высокие показатели в мире распределенных вычислений, но кроме того их хватает, дабы занять почетное третье место в TOP500, оттеснив на четвертую строке суперкомпьютер NASA — Pleiades (487 терафлоп).

Большая часть проектов распределенных вычислений носят некоммерческий характер, не смотря на то, что кое-какие предлагают своим участникам финансовое вознаграждение за искомое событие. К примеру, организаторы GIMPS (Great Internet Mersenne Prime Search) — проекта поиска несложных чисел Мерсенна (числа вида 2n-1, где n — натуральное число; на сегодня известно 45 таких чисел, самое громадное из которых 243 112 609−1), имеющих громадное значение в криптографии и теории чисел, — обещают поделиться призом в $150 000 за нахождение несложного числа, складывающегося из 100 млн цифр. Но это скорее исключение, чем правило: большая часть организаторов несобираются обогащения за счет применения компьютеров добровольцев и все полученные научные результаты размещают в открытом виде.

Развитие распределенных вычислений длится. Под ружье научного прогресса поставлены кроме того видеоплаты и игровые приставки. Видеть в качестве вычислительного ресурса такие устройства непривычно, но на практике они смогут дать фору самому замечательному компьютеру. К примеру, в проекте Folding@home уже с лета 2006 года применяют потенциал 8-ядерных процессоров Cell игровых приставок PlayStation 3, талантливых выдать приблизительно 20 гигафлоп, что многократно превосходят у простого офисного компьютера.

Благодаря соглашению с компанией Сони программа для моделирования динамики фолдинга белков встроена в приставки изначально, но обладатель устройства сам вправе решать — подключаться ему к проекту либо нет. В осеннюю пору того же года в Folding@home смогли освоить вычислительные возможности графических процессоров видеокарт компании ATI (сейчас AMD), а в 2008 году очередь дошла и до видеокарт nVIDIA.

Многоядерные графические процессоры оправдали все надежды, показывая замечательную производительность в 100 гигафлоп. Данный технологический прорыв сделал Folding@home самый мощным вычислительным проектом на планете.

На любой вкус

Кто угодно может сейчас оказать помощь науке, приняв участие в одном из проектов распределенных вычислений. Причем, очевидно, список наук не исчерпывается лишь математикой, биологией и астрономией. Возможно оказать помощь физикам в планировании опытов на Громадном адронном коллайдере либо проектировании Neutrino Factory — будущего ускорителя, талантливого порождать потоки нейтрино.

Широкий выбор у любителей астрономии — от поиска сигналов обнаружения и внеземного разума гравитационных волн посредством гравитационно-волновых обсерваторий LIGO и GEO 600 до расчета конфигурации поглощения отечественной галактикой одного из звездных скоплений созвездия Стрельца, нахождения «оптимальной» космологической модели расчёта и Вселенной орбит астероидов, воображающих угрозу для Почвы.

В медицины и области биологии запущено множество проектов по изучению структуры белков, новых средств профилактики СПИД, изучения раковых борьбы и заболеваний с вирусами семейства Flaviviridae, важными за происхождение вспышек лихорадки Деньге, лихорадки и жёлтой лихорадки Западного Нила. Химикам смогут оказать помощь ответ задач квантовой химии способами Монте-Карло и моделирование межатомного сотрудничества в жёстких телах.

Математики традиционно применяют распределенные вычисления для поиска разных чисел: мельчайшего числа Серпинского, несложных чисел нескольких видов, несложных чисел Вифериха, новых делителей чисел Ферма — либо доказательства догадки Гольдбаха. Криптографы занимаются проверкой метода шифрования RC5, поиском оптимальных линеек Голомба и дешифровкой последней из нерасшифрованных германских радиограмм, датируемой 1942 годом.

Кибернетики изучают возможность создания глобальной нейронной сети и воссоздают поведение человека на базе компьютерного моделирования лингвистического метода познания мира. А климатологи моделируют разные варианты трансформации климата: в ходе проекта ClimatePrediction с 2002 года установлено более 400 000 климатических моделей с неспециализированным модельным временем 40 млн лет.

Подробную данные о проектах возможно обнаружить сайте www.distributed.ru

Эти ответственные кирпичики судьбы

Тяжело переоценить значения белков для организма человека: ферменты участвуют в обмене веществ, тромбины оказывают помощь сворачивать кровь, иммуноглобулин защищает от вирусов и болезнетворных бактерий, гемоглобин транспортирует кислород к тканям и т. д.

Неправильно свернувшиеся белки

Собственные функции белки начинают делать по окончании сворачивания (фолдинга) молекул из начальной линейной цепочки аминокислот в строго определенную трехмерную молекулярную структуру. Отклонения от заданной формы ведут к нарушениям особенностей белка либо полной его неработоспособности, а накопление неправильно свернувшихся белков в организме приводит к тяжёлым заболеваниям: многие формы рака, болезни Альцгеймера, Паркинсона и Хантингтона, склероз, коровье неистовство, диабет II типа и многие другие.

Много тысяч для здоровья

За девятилетнюю историю развития проекту Folding@home удалось пролить свет на многие неприятности молекулярной биологии и близко приблизиться к давешней мечте биофизиков — разгадке тайны фолдинга молекул белков. Для этих целей к проекту привлечены много тысяч добровольцев, процессоры, видеокарты и игровые приставки которых разрешили создать самая мощную вычислительную совокупность в мире. Эта совокупность помогла смоделировать структуру первого в истории неестественного белка, изучить мутации генов, вызывающих генетические болезни, и изучать влияние множества внешних и внутренних факторов на сворачивание протеиновых молекул людской организма.

На зависть суперкомпьютерам

Folding@home стал самым замечательным вычислительным проектом в мире только благодаря упрочнениям добровольцев

Голиафы вычислительного мира

Вычислительную производительность суперкомпьютера принято определять по скорости исполнения особой задачи Linpack Benchmark (ответ совокупности из тысяч линейных уравнений способом Гаусса). В качестве единицы измерения производительности помогает FLOP/s (англ. FLoating point OPerations per second) — количество арифметических операций, делаемых за секунду. Суперкомпьютеры способны создавать триллионы операций в секунду (TFLOP/s, терафлоп).

В соответствии с рейтингу суперкомпьютеров (www.top500.org) по состоянию на ноябрь 2008 года лидирует суперкомпьютер Roadrunner из Аламосской национальной лаборатории в Нью-Мексико (США) с производительностью, равной 1105 терафлоп. Он используется для моделирования подземных ядерных испытания , за что был окрещен прессой Military Supercomputer.

Самый замечательный суперкомпьютер в Российской Федерации — МВС-100К из Межведомственного суперкомпьютерного центра РАН — занимает 35-ю строке мирового рейтинга (производительность 71 терафлоп). Второй по мощности российский суперкомпьютер СКИФ МГУ (47 терафлоп) расположился на 54-м месте. МВС-100К входит в европейскую совокупность DEISA — Distributed European Infrastructure for Supercomputing Applications, Распределенную европейскую инфраструктуру для суперкомпьютерных приложений (www.deisa.eu), объединяющую 11 ведущих национальных европейских суперкомпьютерных центров.

Задолго до компьютеров

Вычислительная мануфактура

В конце XVIII века правительство Франции решило значительно улучшить логарифмические и тригонометрические таблицы в канун введения метрической совокупности. Работа была связана с огромным по тем временам числом расчетов, а потому ее поручили начальнику бюро переписи населения — барону Гаспару де Прони. Он свел сложные математические вычисления к рутинным операциям, не требующим от большинства исполнителей творческого подхода.

В следствии показалась его известная «вычислительная мануфактура». Барон смело взял на вооружение идею о разделении труда и перенес ее правила на вычислительный процесс. Исполнители проекта были распределены на три уровня.

Иерархия процесса

Низший уровень в совокупности занимали обычные люди-вычислители, от которых требовалось создавать аккуратные арифметические действия. На первых порах «компьютерами» трудились девушки вызывающего большие сомнения поведения, которым Французская революция настоятельно рекомендовала поменять профессию. На втором уровне находились грамотные счетоводы («серверы»), каковые организовывали рутинный процесс, распределяя задания и обрабатывая полученные вычислителями эти.

Высшую ступень занимали выдающиеся французские математики, среди которых были Адриен Лежандр и Лазар Карно, они готовили математическое обеспечение для вычислительной мануфактуры и обобщали полученные результаты. В итоге барону де Прони удалось организовать процесс так, дабы свести сверхсложные задачи к комплекту рутинных операций благодаря четкой совокупности контроля и прекрасно отлаженной совокупности распределения работы между вычислителями. К сожалению, работа не была закончена из-за революционных событий 1799 года во Франции.

Математика для атомной бомбы

Идеи де Прони подтолкнули Чарльза Бэббиджа к созданию его «вычислительной автомобили» — первого в истории прототипа ЭВМ. Компьютер на паровой тяге так и не получил, а «вычислительные мануфактуры» использовались в исследовательских проектах впредь до середины ХХ века. В частности, их применяли при разработке первых ядерных бомб в Соединенных Штатах и Советском Альянсе.

Статья размещена в издании «Популярная механика» (№80, июнь 2009).

<

h4>

Bitlendcoin ICO — с миру по нитке

Статьи, которые будут Вам интересны: