'

Лекция № 4

Понравилась презентация – покажи это...





Слайд 0

Лекция № 4 Высокопроизводительные вычисления.


Слайд 1

Для чего требуются HPC? Нефтяная, газовая, химическая промышленность Автомобильная промышленность Аэрокосмическая промышленность Фармакология Парфюмерия Киноиндустрия Нанотехнологии


Слайд 2

FLOPS FLOPS (или flops или flop/s)(акроним от англ. Floating point Operations Per Second, произносится как флопс) — величина, используемая для измерения производительности компьютеров, показывающая, сколько операций с плавающей запятой в секунду выполняет данная вычислительная система. Как и большинство других показателей производительности, данная величина определяется путём запуска на испытуемом компьютере тестовой программы, которая решает задачу с известным количеством операций и подсчитывает время, за которое она была решена. Наиболее популярным тестом производительности на сегодняшний день является программа LINPACK, используемая, в том числе, при составлении рейтинга суперкомпьютеров TOP500


Слайд 3

Для подсчета максимального количества FLOPS для процессора нужно учитывать, что современные процессоры в каждом своём ядре содержат несколько исполнительных блоков каждого типа (в том числе и для операций с плавающей точкой) работающих параллельно и могут выполнять более одной инструкции за такт. Данная особенность архитектуры называется суперскалярность и впервые появилась ещё в самом первом процессоре Pentium в 1993 году. Современное ядро Intel Core 2 так же является суперскалярным и содержит 4 декодера команд, теоретически позволяющих достичь пиковой производительности до 4-х операций за 1 такт в каждом ядре. Таким образом, для процессора, имеющего в своём составе 4 ядра (Core 2 Quad) и работающего на частоте 3.5ГГц теоретический предел производительности составляет 4х4х3.5=56 гигафлопс. Типичная производительность теста LINPACK составляет 80-95 % от теоретического максимума.


Слайд 4

Обзор производительности реальных систем IBM PC/XT (1983) — 6,9 кфлопс ПК на основе процессора Intel 80386 (1985) с тактовой частотой 40 МГц — 0,6 Мфлопс Intel Pentium 75 МГц (1993) — 7,5 Мфлопс Intel Pentium II 300 МГц (1997) — 50 Мфлопс Intel Pentium III 1 ГГц (1999) — 2 Гфлопс AMD Athlon 64 2,211 ГГц (2003) — 8 Гфлопс Intel Core 2 Duo 2,4 ГГц (2006) — 19,2 Гфлопс


Слайд 5

Обзор производительности реальных систем Компьютер ЭНИАК, построенный в 1946 году, при массе 27 т и энергопотреблении 150 кВт, обеспечивал производительность в 300 флопс IBM 709 (1957) — 5 кфлопс БЭСМ-6 (1968) — 1 Мфлопс (операций деления) Cray-1 (1974) — 160 Мфлопс БЭСМ-6 на базе Эльбрус-1К2 (1980-х) — 6 Мфлопс (операций деления) Эльбрус-2 (1984) — 125 Мфлопс Cray Y-MP (1988) — 2,3 Гфлопс Электроника СС БИС (1991) — 500 Мфлопс


Слайд 6

Обзор производительности реальных систем ASCI Red (1993) — 1 Тфлопс Blue Gene/L (2006) — 478,2 Тфлопс Jaguar (суперкомпьютер) (2008) — 1,059 Пфлопс IBM Roadrunner (2008) — 1,105 Пфлопс IBM Sequoia (2012) — 20 Пфлопс


Слайд 7

Weta digital «Небесные создания» (1994) «Контакт» (1997) «Властелин Колец: Братство Кольца» (2001) - премия «Оскар» «Властелин Колец: Две Крепости»(2002) - премия «Оскар» «Властелин Колец: Возвращение Короля» (2003)- премия «Оскар» «Я, робот» (2004) – номинация на премию «Оскар» «Ван Хельсинг» (2004) «Кинг Конг» (2005) «День, когда Земля остановилась » (2008) «Аватар» (2009)


Слайд 8

Weta digital 3300 процессоров Архив данных компании занимает 500 терабайт и насчитывает более 220 миллионов файлов ПО:Maya, 3dsMax, Houdini, Z-Brush, Shake, Adobe Photoshop ОС: Linux, Windows


Слайд 9

Создание «Властелина колец» Когда начинали делать первую часть фильма, она состояла из двух сотен компьютеров (каждый с 700-мегагерцевым процессором, гигабайтом оперативной памяти и девятигигабайтным SCSI-винчестером). В качестве операционной системы на них использовалась Linux. Всё необходимое программное обеспечение - Alias|Wavefront Maya, Apple Shake, Pixar RenderMan и Alfred - прекрасно работает в этой операционной системе.


Слайд 10

Авианосцы типа «Джерард Р. Форд» Страна: США. Ориентировочная стоимость: 8,1 млрд долларов Авианосцы типа «Джерард Р. Форд» должны стать новым – и самым крупным – поколением этого типа судов, основой морского могущества США в первой половине XXI века. Работа над проектом началась в 2007 г., первое судно уже заложено и должно встать в строй в 2015 г. Кстати, в нашем журнале уже публиковался репортаж о том, как идет работа по проектированию и постройке этих авианосцев будущего.


Слайд 11

Ferrari В 2002 году компания Advanced Micro Devices стала официальным спонсором и технологическим партнером гоночной конюшни Scuderia Ferrari. Построенный в 2004 году вычислительный центр Ferrai Data Center команда нередко упоминает в качестве одного из важнейших условий побед в кубке конструкторов последних лет. Вычислительный центр состоит более чем из четырехсот узлов, в каждом из которых трудятся процессоры AMD Opteron. Это надежные процессоры с 64-разрядной архитектурой, специально предназначенные для серверов и рабочих станций, оптимизированные для параллельных вычислений и многопроцессорных систем.


Слайд 12

Ferrari Физическое состояние, работоспособность и степень загрузки каждого модуля контролируется дистанционно. Управлять колоссальной вычислительной мощностью можно с единственного компьютера. Вычислительный центр работает под управлением операционной системы Linux. Для чего именно гоночной команде так необходим суперкомпьютер? Специалисты Ferrari могут припомнить массу ситуаций, когда суперкомпьютер воплощает в виртуальной реальности проекты конструкторов, помогает принимать оперативные тактические решения прямо во время гонки, анализирует телеметрическую информацию после заездов. Однако практически в каждом примере прозвучит одно заветное слово – аэродинамика.


Слайд 13

Ferrari Аэродинамика – это не только пресловутый коэффициент лобового сопротивления воздуха на скорости. Это и прижимная сила, определяющая надежность сцепления шин с покрытием трассы, и движение топливной смеси во впускном коллекторе, от скорости, качества смешения и формы которой напрямую зависит мощность двигателя. Движение выхлопных газов в выпускном пауке, тепловые потоки в системах охлаждения двигателя, тормозов и амортизаторов – все это изучается с помощью моделирования гидродинамических процессов одной из самых ресурсоемких отраслей компьютерного моделирования.


Слайд 14

В основе моделирования гидродинамических процессов, или CFD (Computational Fluid Dynamics), лежат уравнения Навье-Стокса, описывающие движение вязких жидкостей (в данном случае воздух приравнивается к ним). Первые вычислительные методы такого моделирования появились в 30-х годах прошлого века. Для моделирования аэродинамики в Ferrari Data Center используется программа Fluent. Преимущество программных продуктов от Fluent кроется в том, что компания проводит множество реальных тестов в аэродинамической трубе, чтобы на практике контролировать точность математических моделей.


Слайд 15

Моделирование в Fluent На первом этапе создается точная трехмерная модель детали автомобиля, которую нужно подвергнуть тестированию. В трехмерной модели сложная, плавно изгибающаяся поверхность детали представляется в виде множества простейших элементов – треугольников (полигонов).


Слайд 16

Моделирование в Fluent Второй этап – собственно расчет аэродинамики. Программа рассчитывает движение воздушных потоков, разделяя эту сложную задачу на множество простых. Чем меньше будет каждая пространственная ячейка, чем точнее получится результат и тем больше мощности потребуется от компьютера. От количества полигонов опять же зависят точность и загрузка мощностей.


Слайд 17

Моделирование в Fluent Третий этап работы с Fluent– это визуализация результатов. Форма представления материала зависит от того, кто им будет пользоваться. К примеру, для конструкторов важна подробная цифровая информация. Для принятия тактических решений по ходу гонки необходима быстро считываемая графика. А чтобы убедить финансовых менеджеров команды вложиться в очередной дорогостоящий проект по улучшению аэродинамических свойств болида, не помешает яркий иллюстративный материал.


Слайд 18

Моделирования гидродинамических процессов Компьютерное моделирование гидродинамических процессов сегодня применяется в самых разных сферах жизни. К примеру, эмуляция потоков физиологических жидкостей в организме помогает лучше узнать анатомию человека, способствует скорейшей разработке фармацевтических средств. Проектирование медицинского оборудования, в частности аппаратов искусственной вентиляции легких, переливания крови, искусственного сердца, немыслимо без CFD.


Слайд 19

Моделирования гидродинамических процессов Нефтедобывающие и нефтеперерабатывающие производства используют CFD при проектировании насосов и трубопроводов. В авиации и судостроении программы применяются для расчета обтекаемых обводов фюзеляжей и крыльев самолетов, корпусов судов. В пищевой и легкой промышленности, микроэлектронике, химической и металлургической отраслях – везде используются программы для расчета аэро- и гидродинамики.


Слайд 20

Парфюмерия Знаменитые парфюмерные дома, за редким исключением, не занимаются разработкой собственно ароматов. Исключение составляют не очень известные широкой публике парфюмерные компании, а также Chanel, Hermes и Guerlain.


Слайд 21

Парфюмерия парфюмер повторяет тот же процесс, что и химики, однако он работает не с отдельным химическим соединением, а с палитрой ингредиентов, из которых будет составлен финальный аромат. В задачу парфюмера входит создать некий черновой вариант, который более-менее подходит по цене, а затем максимально удешевить формулу, подбирая более экономичные заменители. Каждая удачная попытка снова и снова просчитывается на компьютере.


Слайд 22

Вычислительная мануфактура  В конце XVIII века правительство Франции решило существенно улучшить логарифмические и тригонометрические таблицы в преддверии введения метрической системы. Работа была связана с огромным по тем временам количеством расчетов, а потому ее поручили руководителю бюро переписи населения – барону Гаспару де Прони. Он свел сложные математические вычисления к рутинным операциям, не требующим от большинства исполнителей творческого подхода. В результате появилась его знаменитая «вычислительная мануфактура». Барон смело взял на вооружение идею о разделении труда и перенес ее принципы на вычислительный процесс. Исполнители проекта были распределены на три уровня. 


Слайд 23

TOP 500/Operating system Family share for 06/2009 Linux 443 88.60 % Windows 5 1.00 % Unix 22 4.40 % BSD Based 1 0.20% Mixed 29 5.80 % Totals 500 100% 11/2010 Linux 459 91.80 % Windows 5 1.00 % Unix 19 3.80 % BSD Based 1 0.20 % Mixed 16 3.20 % Totals 500 100%


Слайд 24

IBM Roadrunner Roadrunner — суперкомпьютер в Лос-Аламосской национальной лаборатории в Нью-Мексико, США. Разработан в расчёте на пиковую производительность в 1,026 петафлопа (достигнута в июне 2008 года) и 1,105 петафлопа (ноябрь 2008 года). Был самым производительным суперкомпьютером в мире и в 2009 году. IBM построила этот компьютер для Министерства энергетики США по гибридной схеме из 6480 двухъядерных процессоров AMD Opteron и 12 960 процессоров IBM Cell 8i в специальных стойках TriBlade, соединённых с помощью Infiniband.


Слайд 25

                Roadrunner работает под управлением Red Hat Enterprise Linux совместно с Fedora и управляется по xCAT. Он занимает приблизительно 12 000 кв.футов (1100 м?) и весит 226 тонн. Энергопотребление — 3,9 МВт. Вступил в строй в июне 2008 года. Стоимость IBM Roadrunner составила 133 миллиона долларов. Министерство энергетики планирует использовать RoadRunner для расчёта старения ядерных материалов и анализа безопасности и надёжности ядерного арсенала США. Также планируется использование для научных, финансовых, транспортных и аэрокосмических расчётов. IBM Roadrunner


Слайд 26

Site RIKEN Advanced Institute for Computational Science (AICS) Site RIKEN Advanced Institute for Computational Science System Family Fujitsu Cluster System Model K computer Computer K computer, SPARC64 VIIIfx 2.0GHz, Tofu interconnect Vendor Fujitsu Application area Research Installation Year 2011 Operating System Linux Interconnect Custom Processor SPARC64 VIIIfx 2000 MHz (16 GFlops)


Слайд 27

Cуперкомпьютеры в России Самый мощный суперкомпьютер в России - МВС-100К из Межведомственного суперкомпьютерного центра РАН - занимает 35-ю строчку мирового рейтинга (производительность 71 терафлоп). Второй по мощности российский суперкомпьютер СКИФ МГУ (47 терафлоп) расположился на 54-м месте. МВС-100К входит в европейскую систему DEISA - Distributed European Infrastructure for Supercomputing Applications, Распределенную европейскую инфраструктуру для суперкомпьютерных приложений (www.deisa.eu), объединяющую 11 ведущих национальных европейских суперкомпьютерных центров.


Слайд 28

СНГ Москва. Межведомственный суперкомпьютерный центр РАН . 2008 г. Количество процессоров/ядер:1980/7920 Производительность : 71,280 терафлопс (Linpack) Разработчик: Hewlett-Packard 2011 г. Московский государственный университет имени М.В.Ломоносова Производительность : 674.11 терафлопс (Linpack) Разработчик: Т-Платформы


Слайд 29

Прогноз погоды Огромного ресурса вычислительных мощностей требует прогноз погоды – как раз для этой цели Гидрометцентр России обзавелся новым 30-тонным суперкомпьютером с производительностью вычислений 27 терафлоп.


Слайд 30

Уфимский кластер. 20 терафлопс Его вычислительный кластер состоит из 532 четырехъядерных процессоров Intel Xeon 5345, располагает 2,16 Тб оперативной и 26,7 дисковой памяти, которые работают под управлением Red Hat Enterprise Linux 4 и специализированного ПО IBM для кластерных систем. Он потребляет 105 кВт и охлаждается двумя холодильными установками на этиленгликоле. Весит он пять с половиной тонн.


Слайд 31

Распределенные вычисления Идея совместного использования вычислительных ресурсов нескольких машин возникла еще на заре компьютерной эпохи. В 1973 году Джон Шох и Жон Хапп из знаменитого калифорнийского научно-исследовательского центра Xerox PARC (Palo Alto Research Center) написали программу, которая по ночам запускалась в локальную сеть PARC, расползалась по работающим компьютерам и заставляла их выполнять вычисления.


Слайд 32

FoldIt - Solve Puzzles for Science Разработана она в Университете Вашингтона под руководством профессора биохимии Дэвида Бейкера (David Baker) и профессоров Зорана Поповица и Дэвида Салесина (Zoran Popovic, David Salesin). За три прошедших года игроки смогли сложить несколько удачных молекул, но их последняя находка не идёт ни в какое сравнение с предыдущими: была обнаружена и подтверждена точная модель фермента протеазы, который играет ключевую роль в заражении организма обезьян ретровирусом ВИЧ. Модель этого белка не удавалось получить в течение уже 15-ти лет.


Слайд 33

SETI@home 17 мая 1999 года Дэвид Геди и Крейг Кеснов из Лаборатории космических исследований Калифорнийского университета в Беркли запустили распределенный проект поиска сигналов внеземных цивилизаций SETI@home (SETI - Search for Extraterrestrial Intelligence at Home), который до сих пор остается одним из наиболее массовых проектов. Разработка универсальной платформы BOINC (Berkeley Open Infrastructure for Network Computing) для запуска новых проектов.


Слайд 34

Знаменитый SETI@home – располагает 315 000 активных процессоров с общей скоростью выполнения операций 500 терафлоп. Хотя это и не самые высокие показатели в мире распределенных вычислений, но даже их хватает, чтобы занять почетное третье место в TOP500, оттеснив на четвертую строчку суперкомпьютер NASA - Pleiades (487 терафлоп). SETI@home                       


Слайд 35

Проект Folding@home Организован Виджаем Панде из Стэнфордского университета для моделирования фолдинга (сворачивания) молекул белков человеческого организма. Более 400 000 только постоянно подключенных процессоров «разогнали» проект до 5000 терафлоп. Никакой суперкомпьютер не выдержит конкуренции с распределенной сетью такой производительности, ежедневно увеличивающей вычислительный потенциал за счет новых участников. Даже рекордсмен Roadrunner может похвастаться всего 1105 терафлоп при 129 600 процессорных ядрах.


Слайд 36


Слайд 37

Используемые устройства В проекте Folding@home уже с лета 2006 года используют потенциал 8-ядерных процессоров Cell игровых приставок PlayStation 3, способных выдать примерно 20 гигафлоп, что на порядок больше, чем у обычного офисного компьютера. Осенью того же года в Folding@home смогли освоить вычислительные возможности графических процессоров видеокарт компании ATI (ныне AMD), а в 2008 году очередь дошла и до видеокарт nVIDIA. Многоядерные графические процессоры оправдали все надежды, показывая феноменальную производительность в 100 гигафлоп. Этот технологический прорыв сделал Folding@home наиболее мощным вычислительным проектом на планете.


Слайд 38

Folding@home Folding@home стал самым мощным вычислительным проектом в мире исключительно благодаря усилиям добровольцев.


Слайд 39

Einstein@Home  Einstein@Home — проект распределённых вычислений по проверке гипотезы Эйнштейна о существовании гравитационных волн. Для того, чтобы проверить эту гипотезу, проводится составление атласа излучаемых звёздами-пульсарами гравитационных волн для всего неба. Данные для анализа поступают с Лазерно-интерферометрической гравитационно-волновой обсерватории (LIGO).


Слайд 40

Литература Popmech.ru - cайт журнала «Популярная механика» Computerra.ru - cайт журнала «Компьютерра» Wikipedia.ru


×

HTML:





Ссылка: