Перейти к содержанию
    

Да, проверил... для небольших задач имно директ солвер побыстрее будет...

Сейчас смотрел настройки распределенного счета, какая разница между MPI Vendor: Platform computing и Intel?

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

MPI Vendor: Platform computing и Intel

 

это дополнительные библиотеки, одна из которых должна быть инсталирова, что MPI работал.

 

Опять однозначного ответа нет, но есть смутные данные, что на системах на основе Intel, родная Intel библиотека будет работать более оптимально.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Может конечно не в этот топик... Подскажите программу для расчета отражения э/м волны от некоторой поверхности.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

это дополнительные библиотеки, одна из которых должна быть инсталирова, что MPI работал.

 

Опять однозначного ответа нет, но есть смутные данные, что на системах на основе Intel, родная Intel библиотека будет работать более оптимально.

попробовал и то и то, разница есть и очень большая. под интелом оно параллелит итеративный расчет сетки директ солвером! т.е. каждый проход (а потом и все частотные точки) часть времени считаются на всех машинах. От платформа мне удалось добиться только параллельный расчет частотных точек. кстати, настройка MPI тоже не самый очевидный процесс.... почему-то на некоторых машинах мне его так и не удалось сделать.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

под интелом оно параллелит итеративный расчет сетки директ солвером! т.е. каждый проход (а потом и все частотные точки) часть времени считаются на всех машинах.

 

На основании какой информации вы сделали вывод, что использовался директ солвер? При распараллеливании итеративного солвера на задаче с большим количеством портов, после первого решения матрицы с пониженной точностью (что выполняется на основной - первой в списке машине) идет расчет данных для каждого порта. Эта часть параллелиться на том количестве машин и core которые доступны и на которые достаточно лицензии.

 

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Я в свойствах решения поставил директ солвер...

В профайле написано солвер DCA-M12.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Мы могли бы :biggrin: К сож, только в 15 версии, что вы будете с ним делать-то? PIFA_.rar

 

можете написать на мейл, или скинуть свои координаты, пожалуйста? у меня есть несколько вопросов по тому, как Вы делали проект PIF антенны

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Я в свойствах решения поставил директ солвер...

В профайле написано солвер DCA-M12.

под интелом оно параллелит итеративный расчет сетки директ солвером т.е. каждый проход (а потом и все частотные точки) часть времени считаются на всех машинах

 

Возможно это проблемы перевода на русский английской терминологии HFSS.

 

HFSS возможностей в принципе очень много, поэтому давайте четко определимся, что нет параметрического свипа, то есть считается только одна геометрия с одной частотой на которой строится сетка и после этого расчитывается discrete frequency sweep

Если в свойствах расчета задали Direct solver, то HFSS дает вам возможность делать domain decomposition or direct solver memory.

 

Iterative solver Excitation Job distribution for iterative solver only для Direct solver (который при работе только на одной машине должен быть прописан как MCSx, где x количество core задействованных в счете) это не примеримо.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Возможно это проблемы перевода на русский английской терминологии HFSS.

 

HFSS возможностей в принципе очень много, поэтому давайте четко определимся, что нет параметрического свипа, то есть считается только одна геометрия с одной частотой на которой строится сетка и после этого расчитывается discrete frequency sweep

Если в свойствах расчета задали Direct solver, то HFSS дает вам возможность делать domain decomposition or direct solver memory.

не совсем понятно... он сам дает возможность или надо указывать?

тут с 15 версии в настройках солвера поменялись...

Было:

post-20539-1387797084_thumb.png

стало:

post-20539-1387797060_thumb.png

 

т.е. имно по новой логике выбираешь что-то одно, а не как раньше "хоть все"...

 

Iterative solver Excitation Job distribution for iterative solver only для Direct solver (который при работе только на одной машине должен быть прописан как MCSx, где x количество core задействованных в счете) это не примеримо.

возможно, я чего-то не понимаю, в настройках солвера указал директ солвер, в Job Distribution выбрал Direct Solver Memory - адаптивные пассы и частотные точки считаются последовательно, но каждая на всех компах одновременно (т.е., как я ранее говорил, часть времени все доступные ядра загружены на 100%).

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

тут с 15 версии в настройках солвера поменялись

 

Поменялось, чтобы (как считают разработчики), у пользователей не было возможности задать domain decomposition при Iterative solver

 

в Job Distribution выбрал Direct Solver Memory

 

То, что вы задали не имеет никакого отношения к Iterative solver.

 

Задав Direct solver и в Job Distribution - Direct Solver Memory, вы протестировали new feature, когда расчет Direct solver не используя domain decomposition (разбивание исходной матрицы на несколько более мелких), считает единую большую матрицу используя память и core компьютеров доступных в вашей сетевой конфигурации и лицензии.

 

Изначально это новшество было адресовано для случая, когда задача не лезет в память доступную на одной рабочей станции, а domain decomposition применять не имеет смысла по причине большого количества портов.

 

Если есть возможность, то прогоните ваш расчет используя только один компьютер и используя Job Distribution - Direct Solver Memory, и выложите профайлы, чтобы сравнить, что приносит в вашем случае Job Distribution - Direct Solver Memory

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

...у Вас почти получилось доделать эту антенну

Это у вас получилось :biggrin: , я ничего не менял, кроме толщины и материала подложки на разумный 10мил 5880.

"Доделывать" эту модель дальше просто не имеет смысла - пустая трата времени. Тем более, она у вас совершенно не параметризована. На панораме и реальном железе все делается во много раз и быстрее и точнее. Важно что сам прототип способен обеспечить требования ТЗ. А дальше уже дело техники.

...это наверное фичи 15й версии

Никаких доп.возможностей 15 версии по ср. с 13 здесь не использовались.

...у меня есть несколько вопросов

Если это вопросы по HFSS, то задавайте здесь. Если нет, то настучите еще три поста - откроется доспуп к ЛС :rolleyes: .

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Если есть возможность, то прогоните ваш расчет используя только один компьютер и используя Job Distribution - Direct Solver Memory, и выложите профайлы, чтобы сравнить, что приносит в вашем случае Job Distribution - Direct Solver Memory

провел натурные эксперименты...

Итого, 2 компа i3930, соединенных гигабитом, макс размер задачи 183 225 тетраэдра.

Случай 1: Direct Solver Memory - вкл, платформа интел, т.е. используем MPI, чтобы параллелить расчет каждой частотной точки в свипе и адаптив пассов.

Случай 2: Direct Solver Memory - выкл, включен параллельный расчет дискрет свипа (всего 6 част. точек по 3 потока на каждой машине, т.е. по 2 ядра на каждую частотную точку).

Время: 1 - 18м 16с, 2 - 17м 56с ...

 

Профайлы в аттаче.

 

имно был бы толк, если бы оно считало адаптивные пассы с MPI, а частотные точки без (все сразу на всех компах), т.е. комбинацией из этих двух случаев, только как это сделать...

HFSS.RAR

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Профайлы в аттаче

 

Спасибо, что выложили профайлы, так как можно вести предметное обсуждение.

 

Если вы их посмотрите, и сравните данные для обоих случаев

 

Adaptive Pass 7 Frequency: 0.916 GHz

Mesh (volume, adaptive) 00:00:19 00:00:19 246 M 213993 tetrahedra

Solver DCA-M12 00:00:51 00:00:22 2.43 G Disk = 0 KBytes, matrix size 1221832 , matrix bandwidth 43.0

Distributed matrix solution:

- Total memory used by 6 distributed processes = 18.4 GB

- Total CPU time used by distributed processes = 00:06:37 (hours:minutes:seconds)

- Using MPI from Intel Corporation

Field Recovery 00:00:07 00:00:28 2.43 G Disk = 36199 KBytes, 4 excitations

 

 

Solver MCA6 00:01:04 00:03:31 8.26 G Disk = 0 KBytes, matrix size 1222074 , matrix bandwidth 43.0

Field Recovery 00:00:06 00:00:30 8.26 G Disk = 36214 KBytes, 4 excitations

 

 

То вы увидете, что уменьшение времени расчета самим солвером для Случай 1: Direct Solver Memory - вкл по сравнению со Случай 2 составило всего 13 секунд или 20 процентов (Случай 1 51 сек и Случай 2 64 сек) и вы заплатили за это более чем двух кратным увеличением используемой памяти (Случай 1 18.4 GB и Случай 2 8.26 G) и использованием еще одного компьютера.

 

Мне кажется, что более правильным было бы задавать по одной задаче для каждого компьютера (если можете, то сделайте такой тест)., так как гоняние нескольких задач на одном и том же компьютере только увеличивает требование к памяти.

 

был бы толк, если бы оно считало адаптивные пассы с MPI, а частотные точки без

 

Это в принципе возможно, если вы делаете адаптивные пассы используя HFSSDesign1 а частотные точки HFSSDesign2, импортируя мешь с HFSSDesign1

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Мне кажется, что более правильным было бы задавать по одной задаче для каждого компьютера (если можете, то сделайте такой тест)., так как гоняние нескольких задач на одном и том же компьютере только увеличивает требование к памяти.

в смысле "задача" - это все и адаптивные проходы вместе с дискретным свипом? если да, то это хорошо, только оптимизатор не будет так работать.. :(

в принципе ж прирост с MPI - есть, да, ценой 2х кратного потребления памяти (кстати, а если машин больше 2шт - общий расход памяти остается двойным?), но если задача уложится в этот объем (чем ближе к пределу, я так понимаю, тем выше эффективность), то почему бы и нет.

 

Это в принципе возможно, если вы делаете адаптивные пассы используя HFSSDesign1 а частотные точки HFSSDesign2, импортируя мешь с HFSSDesign1

наверно такое тоже с оптимизатором не заработает...

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

в смысле "задача" - это все и адаптивные проходы вместе с дискретным свипом?

 

Нет, под термином "одна задача" был перевод one task, что задается в новом HPC setup.

То есть задайте по one task на каждом компе и повторите, если есть возможность, ваш тест.

 

наверно такое тоже с оптимизатором не заработает...

Должно работать на двух уровневом HPC setup (как это стало возможно в версии 2014), но надо пробовать и возможно пинать саппорт.

 

Официальная лицензия, чтобы играться с оптимизацией на двух уровневом HPC setup стоит такое количество вечно зеленых, что мне не известно таких собстенников за пределами DoD and DoE и их подрядчиков (и их аналогов в других странах). А эти ребята не особо деляться своими успехами, хотя очевидно, что последние фичи сделаны в версии 2014 именно для них.

 

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Присоединяйтесь к обсуждению

Вы можете написать сейчас и зарегистрироваться позже. Если у вас есть аккаунт, авторизуйтесь, чтобы опубликовать от имени своего аккаунта.

Гость
Ответить в этой теме...

×   Вставлено с форматированием.   Вставить как обычный текст

  Разрешено использовать не более 75 эмодзи.

×   Ваша ссылка была автоматически встроена.   Отображать как обычную ссылку

×   Ваш предыдущий контент был восстановлен.   Очистить редактор

×   Вы не можете вставлять изображения напрямую. Загружайте или вставляйте изображения по ссылке.

×
×
  • Создать...