Jump to content

    

DmitryHF

Участник
  • Content Count

    112
  • Joined

  • Last visited

Community Reputation

0 Обычный

About DmitryHF

  • Rank
    Частый гость

Recent Profile Visitors

2199 profile views
  1. Вопросы по HFSS

    Попробовал в 2019R2, галку Use Automatic Settings снял, Tasks - 4 Cores - 4, на вкладке Job Distribution оставил все по умолчанию. Все работает как и должно, при оптимизации считается один вариант и используется 4 ядра, при анализе в полосе частот считается параллельно четыре точки. В 17 версии тоже самое должно быть.
  2. Попробуйте Optenni Lab. Hires_4_multiantenna_matching.pdf
  3. Вопросы по HFSS

    В схемном редакторе щелкните ПКМ на блоке подключенной модели и выберите Edit Symbol > Pin Locations ..., далее в появившемся окне для Reference выберите в выпадающем меню Add individual reference pin per port
  4. Не знаю, что имеется ввиду под полноценным spice моделированием, возможно я им не занимался, но spice модели подключал. Посмотрите сами в справке есть ли там то, что Вас интересует, тем более он давно с Maxwell в одном дистрибутиве.
  5. Да, это делается в Simplorer(TwinBuilder), создав в нем схему и подключив к ней проект Maxwell.
  6. Вопросы по HFSS

    Возможно. Вводных мало. Для задействования всех надо 3 лицензии НРС Pack.
  7. Вопросы по HFSS

    Да тип решения Modal или Terminal. Какой у Вас солвер в настройках решения? Для решения Modal или Terminal GPU будет работать только в случае Direct Solver. Если у Вас тип решения Modal/Terminal и есть гибридные ГУ (FEBI, IE/PO/SBR-Region), то автоматически используется Domain Decomposition и GPU не поддерживается. В сообщениях раньше я писал, что для SBR-Region GPU поддерживается, однако это не так. GPU поддерживается в случае типа решения SBR+. В итоге в HFSS 19.2 GPU можно использовать: 1. Для типов решения Transient и SBR+ 2. Для типов Modal и Terminal GPU в случае Direct Solver и matrix size > 2M Что пишет в профиле решения? В какой версии пробуете? В хелпе HFSS посмотрите про использование утилиты nvidia-smi.exe для тестирования корректности работы GPU.
  8. Вопросы по HFSS

    Процесс **solver.exe в HFSS умеет использовать более 1 ядра CPU и с увеличением количества выделенных ему ядер решение выполняется быстрее, конечно ускорение не растет линейно c увеличением числа ядер. Линейным ускорение получается при параллельном решении независимых вариантов. Но я считаю, если решатель использует более одного ядра его нельзя называть однопоточным. Возможно у Вас на простых задачах загрузка ядер не длительная и она не заметна, но загрузку ядер хорошо видно для задач которые решаются дольше 1 минуты.
  9. Вопросы по HFSS

    Уверен, что HFSS с Вашим мнением не согласен )). Что Вы имеете ввиду под многопоточностью и "обычным" HFSS? В "обычном" HFSS, помимо параллельного решения несколькими ядрами набора частот/вариантов, можно также распределять решение по доменам/возбуждениям/памяти (+ многоуровневые) и для каждого варианта можно использовать несколько ядер. В "обычном" HFSS, GPU поддерживается для типа решения Transient ( для DGTD точно, для Implicit не уверен) и в случае выбора Direct Solver для типа решения Modal/Terminal если matrix size > 2M. Плюс, как я уже сказал, при наличии SBR+ регионов или типа решения SBR.
  10. Вопросы по HFSS

    Tesla поддерживают все версии которые могут считать на GPU. Для 17.2 Для более новых смотрите на сайте ansys. Включаются в настройках НРС. Использовать GPU можно для типа решения Transient и начиная с 17 версии на этапе решения матриц при использовании Direct Solver (только в случае размера матрицы более 2 миллионов, matrix size в профиле решения). В последних версиях еще и при использовании SBR (трассировка лучей) тоже можно GPU применять.
  11. Вопросы по HFSS

    В дереве и на картинках, не видно Wave Port. Вы его специально не показываете? Проблема не в порте, это так для справки интересуюсь. Если считаете, что с геометрией все хорошо можно поменять настройки Validation в Design Settings и ошибку попробовать пропустить. Если не поможет придеться искать, возможно помогут встроенные инструменты Analyze/Heal.
  12. Вопросы по HFSS

    Цитата(K0nstantin @ Sep 28 2017, 20:17) DmitryHF, могли бы Вы пояснить следующее? Если у меня либо плоскость сложной формы (да даже в форме буквы П), либо 3Д-тело имеет несколько выступов, которую обёртывает плоскость, то адекватного повторения контуров №Д-тела плоскостью не происходит. Используйте тогда, Project Sheet [attachment=109035:4.png]
  13. Вопросы по HFSS

    Цитата(K0nstantin @ Sep 27 2017, 10:50) Здравствуйте. В HFSS есть возможность наложения одного 3D тела на другое, с повторением рельефа первого? Если объектов много, то не хочется применять высчитываение координат и использование булевых функций. Может, сможете подсказать другую САПР по 3D, где можно реализовать данное действие? Привет. Ну прямо такой команды как Вам нужно нет. Но есть похожие, например: Было [attachment=108985:1.png] Делаем Wrap Sheet [attachment=108986:2.png] Добавляем толщины ThickenSheet [attachment=108987:3.png]
  14. Вопросы по HFSS

    Цитата(Pir0texnik @ Sep 26 2017, 15:03) В продолжение темы про глючного мешера... Столкнулся с красивым гадким глюком при рисовании спиральной печатной антенны. при любимой толщине полоска 35мкм, его часть не обмешерилась и просто была проигнорирована... более толстый полосок - все ок. [attachment=108965:2017_09_26_204359.png] [attachment=108966:2017_09_26_204414.png] Будьте бдительны, переходите дорогу на зеленый свет, ну и всё такое... А сетка на поверхности как выглядит? Как вариант, поставьте ед. измерения в модели мкм вместо мм. Должно помочь.
  15. Вопросы по HFSS

    Цитата(zpal @ Sep 25 2017, 20:18) Добрый день! Хотелось бы использовать HFSS, CST и другие пакеты на суперкомпьютере СКИФ. На суперкомпьютере стоит Linux Fedora, GCC, OpenMPI. Т.е. никакие компоненты этих САПР установить невозможно (по крайней мере без обстоятельного разговора с админом). Узлы по 2 процессора AMD Opteron 248 2.2 ГГц. Интересующая область - моделирование генерации сверхкоротких (несколько пс) терагерцовых импульсов полупроводниковыми фотоантеннами (т.е. расчеты во временной области). Что можно сделать? Какие пакеты лучше использовать? Привет! 1. HFSS работает под Red Hat Enterprise и SuSE Linux Enterprise. Либо накатить новую ОС, либо виртуализировать ((. Можно конечно к разработчикам обратиться, и для Вашего суперкомпьютера они чего нибудь придумают . 2. Во временной области в HFSS параллелятся возбуждения и варианты, по узлам разбить не получится. Предположу, по доступной информации, что на подобном СКИФе где-то 288 узлов и 576 ядер. Лицензии для этого будет недешевое удовольствие. Потратьте их лучше на железо. ИМХО вывод. С данным железом во временной области в HFSS смысла считать нет. В частотной может быть и есть, если интерконнект между узлами нормальный. На CST не знаю как распределенные вычисления устроены, может там получится. Лучше оцените ресурсы под Вашу задачу и ищите необходимое железо.