Перейти к содержанию
    

nadie

Свой
  • Постов

    651
  • Зарегистрирован

  • Посещение

Весь контент nadie


  1. HFSS 2014 это вы можете и сами посмотреть на сайте ANSYS в открытом доступе.
  2. Вы своим тестом подтвердили в принципе известный в "узких" кругах факт, что если задача помещается в оперативной памяти, то на классической sigle processor circuit (не смотря на то что много core) рабочей станции, считать надо только one task. Overhead всех остальных вариантов превосходит выигрышь.
  3. Нет, под термином "одна задача" был перевод one task, что задается в новом HPC setup. То есть задайте по one task на каждом компе и повторите, если есть возможность, ваш тест. Должно работать на двух уровневом HPC setup (как это стало возможно в версии 2014), но надо пробовать и возможно пинать саппорт. Официальная лицензия, чтобы играться с оптимизацией на двух уровневом HPC setup стоит такое количество вечно зеленых, что мне не известно таких собстенников за пределами DoD and DoE и их подрядчиков (и их аналогов в других странах). А эти ребята не особо деляться своими успехами, хотя очевидно, что последние фичи сделаны в версии 2014 именно для них.
  4. Все что ли уже празднуют? Книгу залейте, пожалуйста.
  5. Спасибо, что выложили профайлы, так как можно вести предметное обсуждение. Если вы их посмотрите, и сравните данные для обоих случаев Adaptive Pass 7 Frequency: 0.916 GHz Mesh (volume, adaptive) 00:00:19 00:00:19 246 M 213993 tetrahedra Solver DCA-M12 00:00:51 00:00:22 2.43 G Disk = 0 KBytes, matrix size 1221832 , matrix bandwidth 43.0 Distributed matrix solution: - Total memory used by 6 distributed processes = 18.4 GB - Total CPU time used by distributed processes = 00:06:37 (hours:minutes:seconds) - Using MPI from Intel Corporation Field Recovery 00:00:07 00:00:28 2.43 G Disk = 36199 KBytes, 4 excitations Solver MCA6 00:01:04 00:03:31 8.26 G Disk = 0 KBytes, matrix size 1222074 , matrix bandwidth 43.0 Field Recovery 00:00:06 00:00:30 8.26 G Disk = 36214 KBytes, 4 excitations То вы увидете, что уменьшение времени расчета самим солвером для Случай 1: Direct Solver Memory - вкл по сравнению со Случай 2 составило всего 13 секунд или 20 процентов (Случай 1 51 сек и Случай 2 64 сек) и вы заплатили за это более чем двух кратным увеличением используемой памяти (Случай 1 18.4 GB и Случай 2 8.26 G) и использованием еще одного компьютера. Мне кажется, что более правильным было бы задавать по одной задаче для каждого компьютера (если можете, то сделайте такой тест)., так как гоняние нескольких задач на одном и том же компьютере только увеличивает требование к памяти. Это в принципе возможно, если вы делаете адаптивные пассы используя HFSSDesign1 а частотные точки HFSSDesign2, импортируя мешь с HFSSDesign1
  6. Залейте, пожалуйста, энциклопедию на метный ftp. А то с файл обменников что-то не понятное (не pdf) догружается.
  7. Поменялось, чтобы (как считают разработчики), у пользователей не было возможности задать domain decomposition при Iterative solver То, что вы задали не имеет никакого отношения к Iterative solver. Задав Direct solver и в Job Distribution - Direct Solver Memory, вы протестировали new feature, когда расчет Direct solver не используя domain decomposition (разбивание исходной матрицы на несколько более мелких), считает единую большую матрицу используя память и core компьютеров доступных в вашей сетевой конфигурации и лицензии. Изначально это новшество было адресовано для случая, когда задача не лезет в память доступную на одной рабочей станции, а domain decomposition применять не имеет смысла по причине большого количества портов. Если есть возможность, то прогоните ваш расчет используя только один компьютер и используя Job Distribution - Direct Solver Memory, и выложите профайлы, чтобы сравнить, что приносит в вашем случае Job Distribution - Direct Solver Memory
  8. Возможно это проблемы перевода на русский английской терминологии HFSS. HFSS возможностей в принципе очень много, поэтому давайте четко определимся, что нет параметрического свипа, то есть считается только одна геометрия с одной частотой на которой строится сетка и после этого расчитывается discrete frequency sweep Если в свойствах расчета задали Direct solver, то HFSS дает вам возможность делать domain decomposition or direct solver memory. Iterative solver Excitation Job distribution for iterative solver only для Direct solver (который при работе только на одной машине должен быть прописан как MCSx, где x количество core задействованных в счете) это не примеримо.
  9. На основании какой информации вы сделали вывод, что использовался директ солвер? При распараллеливании итеративного солвера на задаче с большим количеством портов, после первого решения матрицы с пониженной точностью (что выполняется на основной - первой в списке машине) идет расчет данных для каждого порта. Эта часть параллелиться на том количестве машин и core которые доступны и на которые достаточно лицензии.
  10. это дополнительные библиотеки, одна из которых должна быть инсталирова, что MPI работал. Опять однозначного ответа нет, но есть смутные данные, что на системах на основе Intel, родная Intel библиотека будет работать более оптимально.
  11. Общего ответа нет, очень многое зависит от конкретной задачи. Раз они у вас не очень большие, то вам без проблем прогнать решение обоими вариантами, и получить ответ для вашего случая.
  12. Когда открываете Solution data, там есть закладка Profile. Именно в нем выводится информация, сколько времени занимали операции счета и какие солверы были использованы. Нет, это когда используется итеративный солвер adaptive pass или discrete sweep, то тогда он работает в две основные стадии - предварительного расчета результатов и итеративного для каждого порта улучшения до заданной точности. Почитайте в хелпе описание, как работает Iterative solver.
  13. Данная фича появляется только в случае запуска HFSS из под Designer. Основные изменения произошли именно в интеграции больших проектов HFSS / Designer, интеграции с основными продуктами ANSYS, и инфраструктуры HPC. Кроме того, итеративе солвер поддерживающий HPC становится де-факто основным солвером, и поэтому появилась возможность параллелить на нескольких машинах стадию расчета портов. Поэтому рекомендуется включать (правильнее сказать оставлять рабочей, так как она включена по дефолту) опцию HPC, при расчетах. К сожалению вы не увидете разницы в названии солверов, которые поддерживают HPC по сравнению с классическими. Использование HPC подтверждается строкой в профайле HPC Enabled
  14. Если есть в наличии MP лицензия, то тогда тоже есть многозадачность. В настоящий момент, многозадачность может быть достигнута или MP лицензия (тогда вы видете MCS 8) или HPC лицензия, и тогда вы видете вначале строчу типа HPC is active и MCS 8 на счете), но в этом случае должен использовать уже другой HPC direct solver, который по утверждению ANSYS application engineer должен считать быстрее, чем MP direct solver. Построение начальной сетки может отличаться если используется TAU mesh, которая годится далеко не во всех случаях, при классической меши будет только один процесс (core)
  15. Да можно задать количество процессоров (правильнее core/ так как бывают 8core процессоры и у вашей лицензии отожрется именно 8 единиц в этом случае), но только тогда для других компов, которые будут считать ваш дискретный свип у вас останется = количество core разрешенных вашей HPC license - 8. Что то у вас не адекватные результаты. Если не влом, выложите profile для вашего теста. Если все сделано правильно, и HPC license активна, то должно быть ускорение порядка в 6 раз (на счете), при использовании 8core. Если у вас во время расчета входит меширование (с apply curvilinear elements ON) да еще какой нибудь post-processing, то тогда ваши времена могут быть и разумны.
  16. Да, только так, и это отражает проблемы HPC при легальных лицензиях (с учетом стоимости HPC) и возможности (с учетом лицензии и железа) считать только одну задачу за раз. Вот когда лицензий не меренно и на большом кластере запускается много задач в параллель, вот тогда, для каждой задачи (пользователя) своя конфигурация, и HPC management позволяет раскидать загрузку по различным компам более менее равномерно. Но это есть только у основных заказчиков ANSYS/HFSS с их немеренными бюджетами. Но они же приносят и основную прибыль ANSYS, поэтому стоны одиноких пользователей по поводу реализации HPC вряд ли будут услышаны.
  17. DDM имеет смысл использовать только на больших (значительное количество лямд) задач и если мало портов. В других ситуациях оверхед DDM приведет к более долгому счету (во всяком случае в 15 версии)
  18. Это верно при HPC лицензии. Если есть еще давно купленная лицензия с MP и Distributed Solve (DSO), то первым будет именно первый компьютер, который после меширования можно использовать и для расчета с использованием всех ядер. HPC не смотря на то что существенно дороже, для дискрете свипа менее полезна, чем связка MP и Distributed Solve (DSO), по этой причине Ansys решил прекратить продавать эту связку, раскошеливайтесь официальные пользователи!
  19. дискрет свипа работает на ура при неограниченном количестве портов, когда ближние поля не нужны. Учтите только, что меширование происходит только на первой машине , поэтому пока идет меширование остальные компы будут простаивать. Но если много точек дискрит свипа то оверхед не очень большой.
  20. Будет, если будете распределять частотный свип, и это будет у вас работать так, что передаются только S parameters, то при правильной конфигурации будет считать быстрее (существенно быстрее если много точек у discrete sweep). С параметрическими задачами, вопросы возникают, если надо сохранять поля и имеется много портов и больше 1 mil tets. Вы можете мговенно оценить нижную границу прокачиваемой по сети информации, посмотрев на размер папки с результати для одной геоментрии. Не смешивайте французское с нижегородским. Если обсуждается загрузка процессоров солвером, то он при правильном задании выбирает и все 16 ядер на ура. Прочитайте про HPC based direct solver, он наиболее быстрый и наиболее полноценно использует все ядра.
  21. Все что вы хотите может быть сделано с использованием AEL, языка на котором написано большая часть интерфейса ADS и Data Access Component, только вся заморочка, что среды разработки (как для большинства общераспространенных языков программирования) нет. Поэтому написание кода и его отладка достаточно замочное занятие.
  22. Какой у вас стоит TD stop criteria? Резонаная структура планарная или 3D? Расстояние до границ больше чем lamda/4 для наименьшой частоты? Как заданы порты? Список этот можно продолжать достаточно долго. При правильном задании должно сходиться, но это может требовать очень длительного времени счета.
  23. ADS2012.08 должен считать подобное в принципе, так как он позволяет задавать разные параметры диэлетрика для различных областей в одном слое (это одно из ново-введений ADS2012.08) Как это делается конкретно надо копать примеры, в моей практике это мне не было нужно
  24. Здесь технический форум, а не политический где важно брать эмоциями. При мешировании используется одно ядро (правильнее сказать один процесс), что вы и видете как очень маленькую загрузку всех ваших процессоров. Выложите profiles для одного и того же проекта, посчитанные на обоих системах. Тогда можно обсуждать предметно, что вы видете.
×
×
  • Создать...