Pir0texnik 0 17 декабря, 2013 Опубликовано 17 декабря, 2013 · Жалоба Да, проверил... для небольших задач имно директ солвер побыстрее будет... Сейчас смотрел настройки распределенного счета, какая разница между MPI Vendor: Platform computing и Intel? Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
nadie 0 17 декабря, 2013 Опубликовано 17 декабря, 2013 · Жалоба MPI Vendor: Platform computing и Intel это дополнительные библиотеки, одна из которых должна быть инсталирова, что MPI работал. Опять однозначного ответа нет, но есть смутные данные, что на системах на основе Intel, родная Intel библиотека будет работать более оптимально. Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
Sergey_Shishanov 0 19 декабря, 2013 Опубликовано 19 декабря, 2013 · Жалоба Может конечно не в этот топик... Подскажите программу для расчета отражения э/м волны от некоторой поверхности. Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
Pir0texnik 0 19 декабря, 2013 Опубликовано 19 декабря, 2013 · Жалоба это дополнительные библиотеки, одна из которых должна быть инсталирова, что MPI работал. Опять однозначного ответа нет, но есть смутные данные, что на системах на основе Intel, родная Intel библиотека будет работать более оптимально. попробовал и то и то, разница есть и очень большая. под интелом оно параллелит итеративный расчет сетки директ солвером! т.е. каждый проход (а потом и все частотные точки) часть времени считаются на всех машинах. От платформа мне удалось добиться только параллельный расчет частотных точек. кстати, настройка MPI тоже не самый очевидный процесс.... почему-то на некоторых машинах мне его так и не удалось сделать. Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
nadie 0 19 декабря, 2013 Опубликовано 19 декабря, 2013 · Жалоба под интелом оно параллелит итеративный расчет сетки директ солвером! т.е. каждый проход (а потом и все частотные точки) часть времени считаются на всех машинах. На основании какой информации вы сделали вывод, что использовался директ солвер? При распараллеливании итеративного солвера на задаче с большим количеством портов, после первого решения матрицы с пониженной точностью (что выполняется на основной - первой в списке машине) идет расчет данных для каждого порта. Эта часть параллелиться на том количестве машин и core которые доступны и на которые достаточно лицензии. Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
Pir0texnik 0 20 декабря, 2013 Опубликовано 20 декабря, 2013 · Жалоба Я в свойствах решения поставил директ солвер... В профайле написано солвер DCA-M12. Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
stas317 0 20 декабря, 2013 Опубликовано 20 декабря, 2013 · Жалоба Мы могли бы К сож, только в 15 версии, что вы будете с ним делать-то? PIFA_.rar можете написать на мейл, или скинуть свои координаты, пожалуйста? у меня есть несколько вопросов по тому, как Вы делали проект PIF антенны Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
nadie 0 21 декабря, 2013 Опубликовано 21 декабря, 2013 · Жалоба Я в свойствах решения поставил директ солвер... В профайле написано солвер DCA-M12. под интелом оно параллелит итеративный расчет сетки директ солвером т.е. каждый проход (а потом и все частотные точки) часть времени считаются на всех машинах Возможно это проблемы перевода на русский английской терминологии HFSS. HFSS возможностей в принципе очень много, поэтому давайте четко определимся, что нет параметрического свипа, то есть считается только одна геометрия с одной частотой на которой строится сетка и после этого расчитывается discrete frequency sweep Если в свойствах расчета задали Direct solver, то HFSS дает вам возможность делать domain decomposition or direct solver memory. Iterative solver Excitation Job distribution for iterative solver only для Direct solver (который при работе только на одной машине должен быть прописан как MCSx, где x количество core задействованных в счете) это не примеримо. Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
Pir0texnik 0 23 декабря, 2013 Опубликовано 23 декабря, 2013 · Жалоба Возможно это проблемы перевода на русский английской терминологии HFSS. HFSS возможностей в принципе очень много, поэтому давайте четко определимся, что нет параметрического свипа, то есть считается только одна геометрия с одной частотой на которой строится сетка и после этого расчитывается discrete frequency sweep Если в свойствах расчета задали Direct solver, то HFSS дает вам возможность делать domain decomposition or direct solver memory. не совсем понятно... он сам дает возможность или надо указывать? тут с 15 версии в настройках солвера поменялись... Было: стало: т.е. имно по новой логике выбираешь что-то одно, а не как раньше "хоть все"... Iterative solver Excitation Job distribution for iterative solver only для Direct solver (который при работе только на одной машине должен быть прописан как MCSx, где x количество core задействованных в счете) это не примеримо. возможно, я чего-то не понимаю, в настройках солвера указал директ солвер, в Job Distribution выбрал Direct Solver Memory - адаптивные пассы и частотные точки считаются последовательно, но каждая на всех компах одновременно (т.е., как я ранее говорил, часть времени все доступные ядра загружены на 100%). Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
nadie 0 23 декабря, 2013 Опубликовано 23 декабря, 2013 · Жалоба тут с 15 версии в настройках солвера поменялись Поменялось, чтобы (как считают разработчики), у пользователей не было возможности задать domain decomposition при Iterative solver в Job Distribution выбрал Direct Solver Memory То, что вы задали не имеет никакого отношения к Iterative solver. Задав Direct solver и в Job Distribution - Direct Solver Memory, вы протестировали new feature, когда расчет Direct solver не используя domain decomposition (разбивание исходной матрицы на несколько более мелких), считает единую большую матрицу используя память и core компьютеров доступных в вашей сетевой конфигурации и лицензии. Изначально это новшество было адресовано для случая, когда задача не лезет в память доступную на одной рабочей станции, а domain decomposition применять не имеет смысла по причине большого количества портов. Если есть возможность, то прогоните ваш расчет используя только один компьютер и используя Job Distribution - Direct Solver Memory, и выложите профайлы, чтобы сравнить, что приносит в вашем случае Job Distribution - Direct Solver Memory Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
EVS 0 26 декабря, 2013 Опубликовано 26 декабря, 2013 · Жалоба ...у Вас почти получилось доделать эту антенну Это у вас получилось , я ничего не менял, кроме толщины и материала подложки на разумный 10мил 5880. "Доделывать" эту модель дальше просто не имеет смысла - пустая трата времени. Тем более, она у вас совершенно не параметризована. На панораме и реальном железе все делается во много раз и быстрее и точнее. Важно что сам прототип способен обеспечить требования ТЗ. А дальше уже дело техники. ...это наверное фичи 15й версии Никаких доп.возможностей 15 версии по ср. с 13 здесь не использовались. ...у меня есть несколько вопросов Если это вопросы по HFSS, то задавайте здесь. Если нет, то настучите еще три поста - откроется доспуп к ЛС :rolleyes: . Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
Pir0texnik 0 27 декабря, 2013 Опубликовано 27 декабря, 2013 · Жалоба Если есть возможность, то прогоните ваш расчет используя только один компьютер и используя Job Distribution - Direct Solver Memory, и выложите профайлы, чтобы сравнить, что приносит в вашем случае Job Distribution - Direct Solver Memory провел натурные эксперименты... Итого, 2 компа i3930, соединенных гигабитом, макс размер задачи 183 225 тетраэдра. Случай 1: Direct Solver Memory - вкл, платформа интел, т.е. используем MPI, чтобы параллелить расчет каждой частотной точки в свипе и адаптив пассов. Случай 2: Direct Solver Memory - выкл, включен параллельный расчет дискрет свипа (всего 6 част. точек по 3 потока на каждой машине, т.е. по 2 ядра на каждую частотную точку). Время: 1 - 18м 16с, 2 - 17м 56с ... Профайлы в аттаче. имно был бы толк, если бы оно считало адаптивные пассы с MPI, а частотные точки без (все сразу на всех компах), т.е. комбинацией из этих двух случаев, только как это сделать... HFSS.RAR Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
nadie 0 29 декабря, 2013 Опубликовано 29 декабря, 2013 · Жалоба Профайлы в аттаче Спасибо, что выложили профайлы, так как можно вести предметное обсуждение. Если вы их посмотрите, и сравните данные для обоих случаев Adaptive Pass 7 Frequency: 0.916 GHz Mesh (volume, adaptive) 00:00:19 00:00:19 246 M 213993 tetrahedra Solver DCA-M12 00:00:51 00:00:22 2.43 G Disk = 0 KBytes, matrix size 1221832 , matrix bandwidth 43.0 Distributed matrix solution: - Total memory used by 6 distributed processes = 18.4 GB - Total CPU time used by distributed processes = 00:06:37 (hours:minutes:seconds) - Using MPI from Intel Corporation Field Recovery 00:00:07 00:00:28 2.43 G Disk = 36199 KBytes, 4 excitations Solver MCA6 00:01:04 00:03:31 8.26 G Disk = 0 KBytes, matrix size 1222074 , matrix bandwidth 43.0 Field Recovery 00:00:06 00:00:30 8.26 G Disk = 36214 KBytes, 4 excitations То вы увидете, что уменьшение времени расчета самим солвером для Случай 1: Direct Solver Memory - вкл по сравнению со Случай 2 составило всего 13 секунд или 20 процентов (Случай 1 51 сек и Случай 2 64 сек) и вы заплатили за это более чем двух кратным увеличением используемой памяти (Случай 1 18.4 GB и Случай 2 8.26 G) и использованием еще одного компьютера. Мне кажется, что более правильным было бы задавать по одной задаче для каждого компьютера (если можете, то сделайте такой тест)., так как гоняние нескольких задач на одном и том же компьютере только увеличивает требование к памяти. был бы толк, если бы оно считало адаптивные пассы с MPI, а частотные точки без Это в принципе возможно, если вы делаете адаптивные пассы используя HFSSDesign1 а частотные точки HFSSDesign2, импортируя мешь с HFSSDesign1 Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
Pir0texnik 0 29 декабря, 2013 Опубликовано 29 декабря, 2013 · Жалоба Мне кажется, что более правильным было бы задавать по одной задаче для каждого компьютера (если можете, то сделайте такой тест)., так как гоняние нескольких задач на одном и том же компьютере только увеличивает требование к памяти. в смысле "задача" - это все и адаптивные проходы вместе с дискретным свипом? если да, то это хорошо, только оптимизатор не будет так работать.. :( в принципе ж прирост с MPI - есть, да, ценой 2х кратного потребления памяти (кстати, а если машин больше 2шт - общий расход памяти остается двойным?), но если задача уложится в этот объем (чем ближе к пределу, я так понимаю, тем выше эффективность), то почему бы и нет. Это в принципе возможно, если вы делаете адаптивные пассы используя HFSSDesign1 а частотные точки HFSSDesign2, импортируя мешь с HFSSDesign1 наверно такое тоже с оптимизатором не заработает... Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
nadie 0 30 декабря, 2013 Опубликовано 30 декабря, 2013 · Жалоба в смысле "задача" - это все и адаптивные проходы вместе с дискретным свипом? Нет, под термином "одна задача" был перевод one task, что задается в новом HPC setup. То есть задайте по one task на каждом компе и повторите, если есть возможность, ваш тест. наверно такое тоже с оптимизатором не заработает... Должно работать на двух уровневом HPC setup (как это стало возможно в версии 2014), но надо пробовать и возможно пинать саппорт. Официальная лицензия, чтобы играться с оптимизацией на двух уровневом HPC setup стоит такое количество вечно зеленых, что мне не известно таких собстенников за пределами DoD and DoE и их подрядчиков (и их аналогов в других странах). А эти ребята не особо деляться своими успехами, хотя очевидно, что последние фичи сделаны в версии 2014 именно для них. Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться