Параллельное и распределительное программирование Курсовая теория Информатика

Курсовая теория на тему Принципы построения параллельных вычислительных систем.

  • Оформление работы
  • Список литературы по ГОСТу
  • Соответствие методическим рекомендациям
  • И еще 16 требований ГОСТа,
    которые мы проверили
Нажимая на кнопку, я даю согласие
на обработку персональных данных
Фрагмент работы для ознакомления
 

Содержание:

 

ВВЕДЕНИЕ. 2

РАЗДЕЛ 1. ОСОБЕННОСТИ КОМПОНЕНТОВ ПАРАЛЛЕЛЬНЫХ СИСТЕМ   4

1.1 Понятие и структура
микропроцессора для параллельных систем. 4

1.2 Особенности архитектуры параллельных систем. 8

РАЗДЕЛ 2.
ОСОБЕННОСТИ ТИПОВ И МОДЕЛЕЙ ПАРАЛЛЕЛИЗМА.. 13

2.1 Особенности основных моделей
параллелизма. 13

2.2 Особенности основных видов
параллелизма. 15

2.3 Особенности программного обеспечения. 17

ЗАКЛЮЧЕНИЕ  20

  

Введение:

 

Актуальность. До появления микропроцессоров небольшие
компьютеры строились с использованием стоек печатных плат со многими средними и
малыми интегральными схемами, как правило, типа TTL. Микропроцессоры объединили
это в одну или несколько крупных ИС. Первым микропроцессором был Intel 4004.

Продолжающееся увеличение мощности микропроцессоров с
тех пор сделало другие виды компьютеров почти полностью устаревшими (см.
Историю вычислительного оборудования), при этом один или несколько
микропроцессоров используются во всем, от самых маленьких встроенных систем и
портативных устройств до самых больших мэйнфреймов и суперкомпьютеров.

Недавние разработки в области крупномасштабной
интеграции полупроводниковых устройств и, как следствие, доступности недорогих
микропроцессоров, микросхем памяти и аналого-цифровых преобразователей сделали
возможным использование компьютеров в качестве неотъемлемых частей систем
управления без какого-либо значительного увеличения стоимости. Следовательно,
теперь вполне практично реализовывать сложные стратегии управления и принятия
решений, которые требуются в теории оптимального и адаптивного управления, в
реальном времени.

Это привело к большой активности как в теории, так и в
применении цифрового управления. Можно без всякого преувеличения сказать, что
влияние микропроцессоров на индустрию управления технологическими процессами
будет не чем иным, как революционным.

Параллельные вычисления — это форма вычислений, при
которой одновременно выполняется множество инструкций. Эта форма обработки
данных использовалась в течение многих лет, в основном с использованием
суперкомпьютеров, и в последние годы она приобрела особый интерес из-за
физических ограничений, которые препятствовали дальнейшему увеличению тактовой
частоты процессора. Параллельные вычисления стали доминирующей моделью в
компьютерной архитектуре, в основном из-за популяризации многоядерных
процессоров.

Цель курсовой работы – рассмотреть принципы построения
параллельных вычислительных систем.

Объект исследования – вычислительные системы.

Предмет исследования – принцип построения параллельных
вычислительных систем.

Степень разработанности данной темы – высокая.

В ходе исследования будут использованы научные труды
отечественных и зарубежных авторов.

Задачи работы:

1. Применяемые вычислительные компоненты;

2. Процессорные элементы для параллельных
вычислительных систем;

3. Параллелизм на микроуровне.

Не хочешь рисковать и сдавать то, что уже сдавалось?!
Закажи оригинальную работу - это недорого!

Заключение:

 

При последовательной обработке для решения вычислительной
задачи создается алгоритм, состоящий из последовательности инструкций. Эти
инструкции выполняются в фиксированном порядке на одной расчетной единице. Вы
не можете выполнять более одного оператора одновременно — после завершения
одного оператора выполняется следующий.

Параллельные вычисления используют множество
вычислительных единиц одновременно для решения данной проблемы. Это можно
сделать, разбив задачу на более мелкие, независимые части, одна из которых
может выполняться независимо от других. Если такое разделение прошло успешно,
каждая часть может быть выполнена на другом вычислительном блоке одновременно с
другими.

Изоляция этих независимых частей имеет решающее
значение при реализации параллельных алгоритмов. Ни одна программа не может выполняться
быстрее, чем самая длинная цепочка взаимозависимых вычислений (известная как
критический путь), потому что вычисления, которые зависят от предыдущих
вычислений в цепочке, должны выполняться один за другим. Однако большинство
алгоритмов не просто состоят из длинных цепочек взаимозависимых вычислений;
наиболее распространенный вариант — параллельное выполнение независимых
расчетов.

Реализация упомянутых механизмов может допускать
ситуацию, когда обновление переменных x и y доставляется в поток A в измененном
порядке, поэтому может случиться так, что результат сравнения в 3A будет
ложным. Следовательно, языки параллельного программирования и компьютеры должны
иметь модель согласованности, которая определяет правила выполнения операций с
общими переменными в памяти компьютера и способы получения результатов этих
операций.

Одной из первых моделей согласованности была модель
последовательной согласованности Лесли Лэмпорта. Согласованность
последовательности означает, что результаты каждой возможной параллельной
операции программы такие же, как результат операции для некоторого
фиксированного последовательного выполнения этих операций, с порядком
выполнения каждого отдельного процессора в соответствии с порядком выполнения,
записанным в его программе.

Распространенной моделью согласованности памяти
является STM (программная транзакционная память), в которой используется
концепция атомарных транзакций, заимствованная из теории баз данных.

Модели согласованности памяти можно формально
представить разными способами. Ранней математической моделью для дискретных
распределенных систем являются сети Петри, которые Карл Адам Петри определил в
своей докторской диссертации 1962 года.

 

Фрагмент текста работы:

 

РАЗДЕЛ 1. ОСОБЕННОСТИ КОМПОНЕНТОВ
ПАРАЛЛЕЛЬНЫХ СИСТЕМ

1.1 Понятие и структура
микропроцессора для параллельных систем Микропроцессор, также называемый просто процессором
[1] [2] или CPU [3], представляет собой компьютерный процессор, который
реализован на одной (или нескольких) интегральных схемах (IC) [4] [5]
кристаллах конструкции MOSFET в единый пакет. Микропроцессор представляет собой
многоцелевую цифровую интегральную схему на основе регистров, управляемую
часами, которая принимает двоичные данные в качестве входных, обрабатывает их в
соответствии с инструкциями, хранящимися в своей памяти, и предоставляет
результаты (также в двоичной форме) в качестве выходных. Микропроцессоры
содержат как комбинационную логику, так и последовательную цифровую логику.
Микропроцессоры работают с числами и символами, представленными в двоичной
системе счисления.

Интеграция всего ЦП в одну или несколько интегральных
схем с использованием очень крупномасштабной интеграции (СБИС) значительно
снизила стоимость вычислительной мощности. Процессоры на интегральных схемах
производятся в больших количествах с помощью высокоавтоматизированных процессов
производства металл-оксид-полупроводник (MOS), что приводит к относительно
низкой цене за единицу. Однокристальные процессоры повышают надежность, потому
что существует гораздо меньше электрических соединений, которые могут выйти из
строя. По мере совершенствования конструкции микропроцессоров стоимость
изготовления микросхемы (с меньшими компонентами, построенными на
полупроводниковой микросхеме того же размера), как правило, остается неизменной
в соответствии с законом Рока.

Сложность интегральной схемы ограничена физическими
ограничениями на количество транзисторов, которые могут быть помещены на одну
микросхему, количество оконечных элементов корпуса, которые могут подключать
процессор к другим частям системы, количество соединений, которые можно
выполнить. на микросхеме и тепло, которое микросхема может рассеивать. Развитие
технологий делает возможным производство более сложных и мощных чипов.

Минимальный гипотетический микропроцессор может
включать в себя только арифметико-логический блок (ALU) и секцию управляющей
логики. ALU выполняет сложение, вычитание и такие операции, как AND или OR.
Каждая операция ALU устанавливает один или несколько флагов в регистре
состояния, которые указывают результаты последней операции (нулевое значение,
отрицательное число, переполнение или другие). Управляющая логика извлекает
коды инструкций из памяти и инициирует последовательность операций, необходимых
ALU для выполнения инструкции. Один код операции может повлиять на многие
отдельные пути данных, регистры и другие элементы процессора.

По мере развития технологии интегральных схем стало
возможным производить все более и более сложные процессоры на одном кристалле.
Размер объектов данных стал больше; размещение большего количества транзисторов
на микросхеме позволило увеличить размер слова с 4- и 8-битных слов до
сегодняшних 64-битных слов. В архитектуру процессора добавлены дополнительные
функции; большее количество регистров на кристалле ускорило программы, а
сложные инструкции можно было использовать для создания более компактных программ.
Например, арифметика с плавающей запятой часто была недоступна на 8-битных
микропроцессорах, но ее приходилось выполнять программно. Интеграция модуля с
плавающей запятой сначала в виде отдельной интегральной схемы, а затем как
части того же микропроцессорного чипа ускорила вычисления с плавающей запятой.

Иногда физические ограничения интегральных схем
вынуждали применять такие методы, как побитовый подход. Вместо того, чтобы
обрабатывать все длинное слово на одной интегральной схеме, несколько схем параллельно
обрабатывают подмножества каждого слова. Хотя для этого требовалась
дополнительная логика для обработки, например, переноса и переполнения в каждом
слайсе, результатом была система, которая могла обрабатывать, например,
32-битные слова с использованием интегральных схем с емкостью всего четыре бита
каждая.

Возможность разместить
большое количество транзисторов на одной микросхеме позволяет интегрировать
память на одном кристалле с процессором. Кэш-память ЦП имеет преимущество более
быстрого доступа, чем внешняя память, и увеличивает скорость обработки системы
для многих приложений. Тактовая частота процессора увеличивается быстрее, чем
скорость внешней памяти, поэтому кэш-память необходима, если

Важно! Это только фрагмент работы для ознакомления
Скачайте архив со всеми файлами работы с помощью формы в начале страницы