Cтраница 2
Модель уравнений Эйлера позволяет применить явные разностные схемы, что открывает широкие возможности для распараллеливания вычислений. Более совершенный и наиболее употребительный подход состоит в дополнительном использовании блочных, подвижных расчетных сеток, позволяющий подстраивать алгоритм под особенности искомого решения. В этом случае распараллеливание вычислений несколько осложняется, но может быть и более эффективным. [16]
Таким образом, определение видимой точки для отдельного рецептора может быть установлено только после проецирования всех точек сцены, что усложняет распараллеливание вычислений между отдельными рецепторами. [17]
Использование ЭВМ нетрадиционной архитектуры совместно со специальными декомпозиционными методами может в ряде случаев обеспечить многократное повышение эффективности пакетов функционального проектирования за счет распараллеливания вычислений на этапе анализа. Такое распараллеливание, например, в подсистемах макроуровня, возможно на различных этапах решения ММ системы. Так, в программе CLASSIE, разработанной специально для суперЭВМ CRAY-1, распараллеливаются вычисления в моделях элементов и обработка повторяющихся фрагментов моделируемого объекта. Существуют методы распараллеливания процедуры решения систем алгебраических уравнений. Однако наибольшее ускорение достигается при использовании релаксационных методов решения систем ОДУ за счет минимизации времени, необходимого на синхронизацию процессов решения, выполняемых на различных процессорах многопроцессорной вычислительной системы. [18]
Из сказанного ясно, что теория СтС требует от СВТ будущих поколений резкого роста объема оперативной памяти и быстродействия как за счет повышения быстродействия самих процессоров, так и за счет распараллеливания вычислений. [19]
Это позволяет перераспределить нагрузку между МПК и специализированными БИС, оставив за МПК выполнение арифметических, логических операций, операций управления и других и возложив выполнение сложных специальных алгоритмов на БИС. Такое распараллеливание вычислений значительно повысит производительность работы системы, практически сохранив ее универсальность и возможность перестройки работы на другие алгоритмы. [20]
Хотя основная направленность материалов книги - это обоснование, исследование и выбор структурных и некоторых архитектурных решений в управляющих МВС, эти решения неизбежно накладывают отпечаток на особенности программного обеспечения МВС. В связи с этим в книге рассматриваются такие аспекты распараллеливания вычислений и управления вычислительным процессом, которые взаимосвязаны с особенностями структур управляющих МВС и в первую очередь со средствами повышения живучести систем путем их динамической перестройки. Вообще, проблема живучести является одной из центральных при создании МВС, функционирующих в системах управления, и потому различные ее аспекты затрагиваются практически во всех разделах книги. [21]
На этом примере ясно видна также польза введения дополнительных поисковых переменных для распараллеливания вычислений в случае использования многопроцессорных ЭВМ или многомашинных комплексов. Благодаря последовательной структуре схемы ( см. рис. 22) здесь может эффективно использоваться только одна ЭВМ. Введение же дополнительных поисковых переменных позволяет параллельно обрабатывать отдельные участки на нескольких ЭВМ. [22]
Многопроцессорные системы ( МПС), ориентированные на достижение сверхбольших скоростей работы, содержат десятки или сотни сравнительно простых процессоров с упрощенными блоками управления. Отказ от универсальности применения таких ВС и специализация их на определенном круге задач, допускающих эффективное распараллеливание вычислений, позволяют строить их с регулярной структурой связей между процессорами. [23]
Многопроцессорные системы, ориентированные на достижение сверхбольших скоростей работы ( сотни миллионов или миллиарды операций в секунду), содержат десятки или сотни сравнительно простых ( элементарных) процессоров с упрощенными блоками управления. Отказ от универсальности применения таких ВС и специализация их на определенном, правда, достаточно широком круге задач, допускающих эффективное распараллеливание вычислений, позволяют строить их с регулярной структурой связей между процессорами. [24]
Многопроцессорные системы, ориентированные на достижение сверхбольших скоростей работы ( сотни миллионов операций в секунду), содержат несколько десятков или сотен сравнительно простых ( элементарных) процессоров с упрощенными блоками управления. Отказ от универсальности применения таких ВС и специализация их на определенном, правда, достаточно широком круге задач, допускающих эффективное распараллеливание вычислений, позволяют строить их с регулярной структурой связей между процессорами. [25]
Решается задача построения математических моделей технических систем в условиях структурно-параметрической неопределенности, предназначенных для оперативного управления. Используется многометодный алгоритм идентификации. Предлагается распараллеливание вычислений для преодоления высокой вычислительной трудоемкости этого подхода. Обоснованы применение MPMD-модели вычислений и ее реализация с помощью системы передачи сообщений MPI. Изложены основные технологические этапы разработки программ для систем с массовым параллелизмом на примере многометодного алгоритма идентификации. [26]
Модель уравнений Эйлера позволяет применить явные разностные схемы, что открывает широкие возможности для распараллеливания вычислений. Более совершенный и наиболее употребительный подход состоит в дополнительном использовании блочных, подвижных расчетных сеток, позволяющий подстраивать алгоритм под особенности искомого решения. В этом случае распараллеливание вычислений несколько осложняется, но может быть и более эффективным. [27]
В программах систем управления и обработки информации трудно выделять исполняемые параллельно сегменты на уровне операторов. Такие участки оказываются небольшими, и велик удельный вес частей программы, не допускающих параллельности. При этом эффективность распараллеливания вычислений оказывается низкой. Более эффективным является распараллеливание на уровне программных модулей некоторой функциональной задачи. При этом снижается удельный вес операций, связанных с началом и завершением параллельности, уменьшается коэффициент вариации длительностей реализации параллельных сегментов, а также их информационные связи. Наибольшее применение находит крупноблочное распараллеливание КП на уровне функциональных групп программ, решающих автономные задачи обработки информации и управления. В этом случае уменьшаются потери, обусловленные ожиданием завершения параллельных сегментов, и относительные затраты на распараллеливание вычислений. [28]
Так как выделяемые для параллельного исполнения части программы практически всегда имеют различие в длительности, то после исполнения более короткой части программы возникает необходимость ожидания результатов параллельно идущих вычислений. Такие задержки снижают эффективность распараллеливания вычислений и требуют выявления частей программы, наименее связанных управлением или получаемыми результатами и наиболее близких по длительности исполнения. [29]
Рассмотрены особенности СОД РВ, реализованных на базе многопроцессорных ЭВМ. Рассмотрены основные направления использования многопроцессорного обслуживания при распараллеливании и дублировании вычислений. Проведено аналитическое исследование трех стратегий распараллеливания вычислений: на уровне процедур, программных модулей и заявок пользователей. [30]