'

Процессор Cell

Понравилась презентация – покажи это...





Слайд 0

Процессор Cell Киреев Сергей ИВМиМГ


Слайд 1

План Общая информация о процессоре Cell Архитектура процессора Cell Реализации систем на базе Cell Программирование процессора Cell


Слайд 2

История IBM, SCEI/Sony, Toshiba Alliance formed in 2000 Austin-based Design Center opened in March 2001 Single CellBE operational Spring 2004 2-way SMP operational Summer 2004 February 7, 2005: First technical disclosures October 6, 2005: Mercury announces Cell Blade November 9, 2005: Open source SDK & simulator published November 14, 2005: Mercury announces Turismo Cell offering February 8, 2006: IBM announced Cell Blade


Слайд 3

Время Punch Cards Green Screen/ Teletype Spreadsheet WWW Gaming Main Frame Multitasking Main Frame Batch Client/Server Internet Mini-Computer WYSIWYG Stand Alone PC Windows Word Processing Уровень взаимодействия Immersive Interaction Online Gaming Source: J.A. Kahle Предпосылки архитектуры Cell Эволюция пользовательского интерфейса Cell


Слайд 4

Преодоление барьеров производительности Power Wall – барьер мощности, Memory Wall – барьер памяти, Frequency Wall – барьер частоты. Предпосылки архитектуры Cell


Слайд 5

Характеристики процессора Cell Cell – многоядерный микропроцессор, содержащий ядра различных типов: 1 PPE – Power Processor Element 8 SPE – Synergistic Processor Element Cell – это не набор различных процессоров, а согласованное целое: Согласованные принципы функционирования, форматы и семантика данных, Используется общая модель памяти. Cell – специально создавался для работы на высоких частотах (более 4 ГГц) Фиксированная частота: 3.2 ГГц


Слайд 6

Структура процессора Cell SPE – Synergistic Processor Element PPE – Power Processor Element


Слайд 7

Существующие реализации процессора Cell Cell Broadband Engine 25.6 GFLOPS single на SPE PowerXcell 8i 25.6 GFLOPS single на SPE 12.8 GFLOFS double на SPE


Слайд 8

План Общая информация о процессоре Cell Архитектура процессора Cell Реализации систем на базе Cell Программирование процессора Cell


Слайд 9


Слайд 10

Power Processor Element PPE исполняет код операционной системы и управляет заданиями 64-битная архитектура Power с расширением VMX Упорядоченное исполнение (in-order) Аппаратная поддержка 2-х параллельных потоков Кэш-память: 32 KB L1 code, 32 KB L1 data, 512 KB L2 общий


Слайд 11


Слайд 12

Стадии конвейера PPE


Слайд 13

Synergistic Processor Element SPE обеспечивает вычислительную мощность До 2-х 128-битных SIMD команд за такт Большие ресурсы памяти: 128 128-битных регистров, 256 KB локальной памяти DMA – асинхронный доступ в общую память: до 16 одновременных запросов


Слайд 14

Характеристики SPE Организация по типу RISC Фиксированные 32-битные инструкции Простая структура – общий регистровый файл Нет поддержки системных функций SIMD-архитектура: большой набор векторных операций 8,16,32-битные целочисленные 32,64-битные вещественные Два исполнительных конвейера Общий регистровый файл 128 регистров по 128 бит (16 байт) 256 KB локальной памяти Общая для кода и данных 16 B/такт для чтения/записи регистров 128 B/такт для передач DMA


Слайд 15


Слайд 16

Стадии конвейера SPE


Слайд 17

Инструкции SPE Все инструкции являются параллельными по данным и работают с векторами Скалярные операции выполняются путем соответствующего использования векторных команд Скалярные аргументы, необходимые некоторым инструкциям, располагаются в «предпочтительных» позициях вектора:


Слайд 18

Инструкции SPE Процессор имеет 2 конвейера Инструкции каждого типа исполняются только на «своем» конвейере Не все инструкции реализованы для всех типов данных Отсутствуют инструкции деления Для всех типов Отсутствуют инструкции 32-битного целочисленного умножения Реализуется программно с помощью 16-битного умножения …


Слайд 19

Предсказание ветвлений в SPE Аппаратное предсказание отсутствует Используется упрощенное предсказание: Подсказка компилятора: адрес инструкции ветвления и адрес перехода Таблица ветвлений (BTB – Branch Target Buffer)


Слайд 20

Element Interconnect Bus Обмен данными для внутренних коммуникаций Четыре 16-байтных кольцевых канала с поддержкой нескольких одновременных передач 96 B/такт пиковая пропускная способность До 100 одновременных запросов


Слайд 21

Пример восьми одновременных передач по Element Interconnect Bus


Слайд 22

Интерфейсы памяти и ввода-вывода Двойной контроллер памяти XDR (25.6 GB/s) Два конфигурируемых интерфейса Конфигурируемое число байт на канал Когерентность Позволяет создавать системы различных конфигураций


Слайд 23

Сравнение подсистем памяти Кэш-память Обычное ядро Ядро SPE Нельзя узнать, когда данные пришли Неявный запрос при использовании данных (или предвыборка) Можно проверить, когда данные пришли Явный запрос до использования данных Память SPE Оперативная память Оперативная память Наличие данных можно только предполагать Фиксированное время доступа Наличие данных гарантировано Фиксированное время доступа мало регистров много регистров


Слайд 24

Предпосылки архитектуры Cell Преодоление барьеров производительности Power Wall. Увеличение эффективности затрачиваемой энергии за счет разделения функций: Процессор, оптимизированный для работы операционной системы и кода со сложным управлением. Процессор, оптимизированный для выполнения приложений с интенсивными вычислениями. Memory Wall. Уменьшение влияния задержек памяти за счет: 3-х уровневая структура памяти (основная память, локальная память SPE, большой регистровый файл SPE). Асинхронная передача между основной и локальной памятью. Frequency Wall. Достижение высоких частот благодаря специализации процессоров под решение конкретных задач.


Слайд 25

Пиковая производительность


Слайд 26

План Общая информация о процессоре Cell Архитектура процессора Cell Реализации систем на базе Cell Программирование процессора Cell


Слайд 27

Реализации систем на базе Cell Серверы, карты расширения Суперкомпьютер Roadrunner Sony PlayStation 3


Слайд 28

Реализации систем на базе Cell Продукты IBM IBM BladeCenter QS 21 2 ? Cell B.E. 3.2 GHz IBM BladeCenter QS 22 2 ? PowerXCell 8i 3.2 GHz Продукты Mercury Computer Systems Mercury Dual Cell Based System 2 2 ? Cell B.E. 3.2 GHz Mercury Dual Cell Based Blade 2 2 ? Cell B.E. 3.2 GHz Mercury PCI Express Cell Accelerator Board 2 1 ? Cell B.E. 2.8 GHz


Слайд 29

Реализации систем на базе Cell Roadrunner – самый мощный суперкомпьютер


Слайд 30

Реализации систем на базе Cell Roadrunner – самый «зелёный» суперкомпьютер


Слайд 31


Слайд 32

Roadrunner


Слайд 33


Слайд 34

Sony PlayStation3 в ИВМиМГ в отделе МО ВВС 1 процессор CELL B.E. 3.2 GHz 1 ядро PPE 6 ядер SPE 256 MB оперативной памяти


Слайд 35

План Общая информация о процессоре Cell Архитектура процессора Cell Реализации систем на базе Cell Программирование процессора Cell


Слайд 36

Программирование процессоров Cell Виды параллелизма: Многоядерность: независимые задачи, которые могут быть выполнены параллельно: 2 аппаратных потока PPE 8 программ SPE Регулярные векторные данные, обработка которых может быть векторизована: SPE SIMD PPE VMX Асинхронная передача данных


Слайд 37

Программирование процессоров Cell Многоядерность (8 SPE + 1 PPE) Данные и вычисления необходимо разрезать на фрагменты и распределять между ядрами SPE SPE SPE SPE SPE SPE SPE SPE PPE


Слайд 38

Программирование процессоров Cell Векторные операции на SPE и PPE Позволяют выполнять операции над несколькими данными одновременно Требуют выравнивания данных


Слайд 39

Программирование процессоров Cell Асинхронные передачи данных Позволяют совместить вычисления с обменами между ядрами Обмены между ядрами произвольные


Слайд 40

Средства программирования процессоров Cell Средства от IBM (IBM Cell SDK) Библиотека libspe 2.0 Библиотеки: SIMD Math Library, MASS Library, BLAS, FFT, Monte-Carlo, Image Processing, Game math, Vector operation, Matrix operation, Multi-precision math, … Software managed cache Распараллеливающие векторизующие компиляторы (OpenMP): xlc, xlf DaCS – Data Communication and Synchronization library ALF – Accelerated Library Framework Другие средства IBM DAC – Dynamic Application Virtualisation Mercury Computer Systems: MultiCore Framework PeakStream Platform RapidMind Gedae


Слайд 41

Библиотека libspe 2.0 LibSPE предоставляет интерфейс к базовым средствам программирования процессора Cell, реализованным аппаратно. Разработка программы: Создается отдельная программа для PPE, Создается отдельная программа для SPE, PPE-программа запускает SPE-программу, SPE-программа может вызвать callback-функцию вызвавшей ее PPE-программы.


Слайд 42

Библиотека libspe 2.0 Программа «Hello, World!» Программа для PPE (ppu_prog.c) #include <libspe2.h> extern spe_program_handle_t spu_hello; int main () { unsigned int entry = SPE_DEFAULT_ENTRY; spe_context_ptr_t spe; spe = spe_context_create (0, NULL); spe_program_load (spe, &spu_hello); spe_context_run (spe, &entry, 0, (void *)10, (void *)20, NULL); spe_context_destroy (spe); return 0; } Программа для SPE (spu_prog.c) #include <stdio.h> int main (unsigned long long spe, unsigned long long argp, unsigned long long envp) { printf("Hello, World! (%llu,%llu)\n", argp, envp); return 0; }


Слайд 43

Библиотека libspe 2.0 Программа «Hello, World!» main() { … } main() { … } spu_prog.c spu-gcc -o spu_prog spu_prog.c spu_prog Компиляция программы для Cell: ppu_prog.c spu_hello ppu-embedspu spu_hello spu_prog spu_prog.o ppu-gcc -o prog ppu_prog.c spu_prog.o -lspe2 spu_prog.o prog Исполняемый файл для SPE Исполняемый файл для PPE+SPE


Слайд 44

Библиотека libspe 2.0: Многопоточная программа «Hello, World!» Создание параллельной программы для Cell: В программе на PPE создать несколько параллельных потоков, В потоках запустить программы на SPE. main() { … … … … } thread_func() { … } thread_func() { … } thread_func() { … } pthread_create() main() { … } main() { … } main() { … } SPE SPE SPE run() PPE


Слайд 45

Библиотека libspe 2.0: Многопоточная программа «Hello, World!» Программа для PPE многопоточная #include <libspe2.h> #include <pthread.h> #define NTHREADS 40 extern spe_program_handle_t spu_hello; void *thread_func (void *data) { unsigned int entry = SPE_DEFAULT_ENTRY; spe_context_ptr_t spe; spe = spe_context_create (0,NULL); spe_program_load (spe, &spu_hello); spe_context_run (spe, &entry, 0, (void *)data, (void *)NTHREADS, NULL); spe_context_destroy (spe); return 0; } int main () { pthread_t tid [NTHREADS]; unsigned long i; for (i=0;i<NTHREADS;i++) pthread_create (&tid[i], NULL, &thread_func, (void *)i); // Параллельная часть for (i=0;i<NTHREADS;i++) pthread_join (tid[i], NULL); return 0; }


Слайд 46

Взаимодействие между PPE и SPE Доступ к основной памяти на PPE – с помощью обычных инструкций чтения/записи памяти: Load: память ? регистр Store: регистр ? память на SPE – с помощью команд DMA Используется для передачи команд и данных между основной памятью и локальной памятью SPE Передача осуществляется асинхронно


Слайд 47

Взаимодействие между PPE и SPE Механизмы передачи данных на SPE DMA-передача: get, put – блок данных до 16 KB Mailbox-ы – очереди 32-битных сообщений: SPE in (4), SPE out (1), SPE out interrupt (1) Сигналы – 32-битные сообщения: PPE ? SPE SPE может обмениваться данными и сообщениями с другими SPE.


Слайд 48

Взаимодействие между PPE и SPE DMA-передача данных Может запускаться и на PPE, и на SPE System memory SPE SPE SPE SPE get put get list put list


Слайд 49

Библиотека libspe 2.0: Пример передачи данных DMA Программа для SPE void get (void *dest_lsa, unsigned long long sour_ea, unsigned long size) { int tag=mfc_tag_reserve(), mask=1<<tag; mfc_get (dest_lsa, sour_ea, size, tag, 0, 0); mfc_write_tag_mask (mask); mfc_read_tag_status_any(); mfc_tag_release(tag); } void put (void *sour_lsa, unsigned long long dest_ea, unsigned long size) { int tag=mfc_tag_reserve(), mask=1<<tag; mfc_put (sour_lsa, dest_ea, size, tag, 0, 0); mfc_write_tag_mask (mask); mfc_read_tag_status_any(); mfc_tag_release(); }


Слайд 50

Mailbox: передача 4-байтовых сообщений Signal: передача 4-байтовых сообщений Взаимодействие между PPE и SPE PPE SPE spe_in_mbox_write spu_read_in_mbox spe_out_mbox_read spu_write_out_mbox spe_out_mbox_status spe_in_mbox_status spu_stat_in_mbox spu_stat_out_mbox PPE SPE spe_signal_write spu_read_signal1 spu_stat_signal1 spu_stat_signal2 spe_signal_write spu_read_signal2 блокированные передачи не блокированные передачи


Слайд 51

Библиотека libspe 2.0: Программа «Ping-pong» Фрагмент программы для PPE … while ( spe_out_mbox_status(spe) == 0 ); // ожидание данных в очереди spe_out_mbox_read(spe ,&data ,1); // чтение одного элемента из очереди data++; // изменение данных spe_signal_write(spe, SPE_SIG_NOTIFY_REG_1, data); // запись в регистр сигнала 1 … Фрагмент программы для SPE … spu_write_out_mbox(data); // запись элемента данных в очередь data=spu_read_signal1(); // чтение данных из регистра сигнала 1 …


Слайд 52

Передача данных между SPE Локальная память SPE отображается в общее адресное пространство. Обращение SPE к заданному участку адресного пространства позволяет обращаться к памяти другого SPE. Адресное пространство SPE SPE put spe_ls_area_get


Слайд 53

ALF – Accelerated Library Framework ALF позволяет автоматизировать раздачу заданий акселераторам. Программа для ALF состоит из двух частей: Управляющая часть работает на хост-системе (PPE, x86-64) Вычислительные ядра работают на акселераторах (SPE) Управляющая часть формирует задачи, разбивает задачи на блоки работ и помещает их в очередь на обработку.


Слайд 54

ALF – Accelerated Library Framework Программист должен: Work Blocks Data 1 Data 2 Data 3 Data 4 Data 5 Схема программы на ALF Task 1 Task 2 Task 3


Слайд 55

ALF – Accelerated Library Framework Run-Time система ALF Распределяет задачи по акселераторам Оптимизирует передачи данных между хостом и акселератором Управляет очередями блоков работ Балансирует нагрузку акселераторов Учитывает зависимости между задачами Схема выполнения задачи: Data 1 Data 2 Host memory Host memory Акселераторы (SPE)


Слайд 56

ALF – Accelerated Library Framework Run-Time система ALF Распределяет задачи по акселераторам Оптимизирует передачи данных между хостом и акселератором Управляет очередями блоков работ Балансирует нагрузку акселераторов Учитывает зависимости между задачами Схема распределения задач: Task 1 Host memory SPE SPE SPE SPE SPE SPE SPE SPE Task 2 Task 3


Слайд 57

DaCS – Data Communication and Synchronization library Набор функций для коммуникации и синхронизации между задачами параллельного приложения. Используется модель Host/Accelerator, которая определяет иерархию вычислителей. MPI + DaCS Иерархическая система DaCS


Слайд 58

DaCS – Data Communication and Synchronization library DaCS предоставляет общие механизмы параллельного программирования: Доступ к акселераторов к разделяемой памяти хоста (put/get), Передача сообщений через функции send/recv и mailbox, Синхронизация с помощью мьютексов, Барьерная синхронизация внутри групп акселераторов. AE Shared memory block AE AE AE put get recv send AE группа акселераторов AE Shared mutex lock Host memory


Слайд 59

Mercury Computer Systems: MultiCore Framework MultiCore FrameWork (MCF) – это API для программирования гетерогенных многоядерных процессоров, ориентированная на вычисления на N-мерных матрицах. Программа MCF состоит из менеджера (на PPE) и одного или более рабочих (на SPE). MCF позволяет: Определить команды рабочих процессов, Назначить задачи команде рабочих, Загружать и выгружать рабочими функции обработки данных, Синхронизировать менеджера с командами рабочих, Определять организацию и распределение N-мерных наборов данных, Передавать блоки данных через каналы.


Слайд 60

Mercury Computer Systems: MultiCore Framework


Слайд 61

RapidMind Development Platform Позволяет создавать на С++ программы, параллельные по данным, и эффективно исполнять их на многоядерных процессорах и спецпроцессорах. Использует SPMD-модель параллелизма. В коде явно определяются программы, работающие над массовыми данными. В ходе исполнения массовые вычисления в выделенных участках программы не выполняются, а автоматически преобразуются в код для доступных в системе вычислителей (многоядерные процессоры, GPU, Cell), который и выполняет все вычисления.


Слайд 62

RapidMind Development Platform Обычная программа на С++ может быть преобразована для запуска на RapidMind. Для этого требуется: Стандартные типы данных заменить эквивалентными типами RapidMind (Value1i, Value2f, Array, …), Cформировать элементарные программы, выделив блоки вычислений ключевыми словами BEGIN и END. У программ задать имя и явно выделить входные и выходные переменные. Управляющие конструкции внутри программ заменить на эквивалентные: FOR, IF, WHILE, DO. Применить программу для вычислений над массивами.


Слайд 63

PeakStream Platform Предлагает модель поточного программирования для многоядерных и спецпроцессоров (GPU, Cell). Использует массивы данных в качестве основного объекта. API использует идеологию C++. Пример: #include <peakstream.h> using namespace SP; Arrayf32 dot_product_cxx (const Arrayf32& a, const Arrayf32& b) { return sum(a * b, SP_ALL_DIMS); } Распределяет работу по доступным вычислителям. Динамически генерирует код для доступных вычислителей (обычные ядра, GPU, Cell SPE). Предоставляет библиотеку математических операций.


Слайд 64

IBM DAV – Dynamic Application Virtualization DAV реализует function offload model – функция отдается для вычисления на другую систему. DAV используется для ускорения Windows-приложений с помощью систем на базе Cell. Используя DAV, программист подменяет обычную DLL-библиотеку заглушкой, которая передает запрос на Cell-систему под управлением Linux. На Cell-системе запускается аналогичная функция. Ее результат передается обратно на Windows-систему.


Слайд 65

IBM DAV – Dynamic Application Virtualization


Слайд 66

Gedae Gedae – система программирования потоковых приложений для запуска на обычных системах и спецпроцессорах (FPGA, Cell): Язык программирования потоков данных, расширенный для создания программ общего назначения. Многопоточный компилятор. Планировщик потоков. Набор средств разработки: отладчики, визуализаторы, … Используется визуальный язык, описывающий диаграмму блоков обработки потоков данных.


Слайд 67

Программирование SPE Все регистры SPE векторные. Все инструкции являются параллельными по данным и работают с векторами. Скалярные операции выполняются путем соответствующего использования векторных команд. Скалярные аргументы, необходимые некоторым инструкциям, располагаются в «предпочтительных» позициях вектора:


Слайд 68

Векторные типы данных


Слайд 69

Векторизация вычислений Для манипуляции векторными данными используются intrinsics – встроенные в компилятор команды: Специальные – отображаются в одну инструкцию процессора, Например: d = si_to_int(a); Обобщенные – отображаются в одну или несколько инструкций процессора в зависимости от входных параметров, Например: c = spu_add (a, b); Составные – последовательности обобщенных и специальных intrinsics (объединенные для удобства). Например, команды DMA-передачи.


Слайд 70

Предсказание ветвлений в SPE Аппаратное предсказание ветвлений отсутствует Для эффективного исполнения ветвлений процессору требуется подсказка компилятора Пример подсказки результата ветвления в программе:


Слайд 71

Пример: векторное умножение матриц Программа для SPE void mulv (float *a, float *b, float *c, int n) { int i, j, k; vector float *bv = (vector float *) b; vector float *cv = (vector float *) c; vector float s, t; s = spu_splats(0.0); for (i=0; i<n*n/4; i++) cv[i] = s; for (i=0; i<n; i++) for (k=0; k<n; k++) { s = spu_splats (a[i*n+k]); for (j=0; j<n/4; j++) { t = spu_mul (s, bv[k*n/4+j] ); cv[i*n/4+j] = spu_add ( cv[i*n/4+j], t ); } }


Слайд 72

Типичный порядок разработки программы для Cell Изучение алгоритма Изучение размещения и потоков данных Экспериментальное разбиение и отображение алгоритма и структуры программы на архитектуру Разработка PPE-управления, PPE-скалярного кода Разработка PPE-управления, распределенного SPE-скалярного кода Коммуникации, синхронизация, задержки при пересылках Преобразование SPE-скалярного кода в SPE SIMD код Перебалансировка вычислений / пересылок данных Другие оптимизации PPE SIMD, узкие места системы, балансировка загрузки


Слайд 73


×

HTML:





Ссылка: