Перейти к содержанию
    

Именно так и приходится делать, типа: XWidthAtYVal(dB(DirTotal/PeakDirectivity), -3)*180/pi

Поэтому это вовсе и не "проблема :cranky: ", а всего лишь "фишка :lol: ".

понятно. ну и могу еще добавить, что MaxrETotal и Max(rETotal) - это тоже в общем случае две большие разницы. :-)

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Нелинейность от мощности в HFSS не имеет смысла для реализации, так как в этом случае надо ликвидоровать возможность изменять значения для портов и делать co-simulation Designer-HFSS.

 

Если смотреть на физику, то нелинейные (от мощности) материалы требуют совершенно другого математического расчета.

 

Нелинейность по частоте реализована вполне разумно, так как вы можете заранее подготовить свою линейность в Excel и после загрузить зависимость в dataset и использовать данный dataset для задания нелинейности.

 

Еще раз. Я не говорил, что нелинейность можно решить в линейной системе. Но не вдаваясь в трех-четырех ***онные процессы, слабую нелинейность на пороге реализовать вполне возможно путем задания кривой передаточной, чтобы просто оценить к-ты передачи в широком диапазоне. Задачка для FEM вполне реализуемая.... через FEM и высокгого порядка нелинейности на матлабе считаются.

 

А по поводу сетки частот - еще раз. Это не зависимость и тем более не функциональная - это просто фиксированный набор значений для # дискретных симуляций. IMHO штука по большому счету бесполезная, ибо никто, скажем SAR не считает одной симуляцией на FM и в миллиметровом диапазоне сразу. Полюбому меши нужны разные, т.е. разные проекты с разными мешами и разными mu, epsilon которые достаточно задать константой.

А вот поскольку ХФСС понимает ФМР, около резонанса частотные функциональные зависимости очень даже бы пригодились...т.е. конкретно для mu то они есть, но по моему не документированы...хотелось бы самому...

 

Кстати, никто не знает модель DeltaH, использованную в HFSS? Для чего, например там выставляется частота замера DH.

Изменено пользователем Hale

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Еще вопрос по 15 HFSS

Объясните, пожалуйста, как работает MPI при использовании Driven Modal?

 

Обязательно надо установить MPI вместе с HFSS на каждой машине в сети, или достаточно одного HFSS?

В общем, можно ли пользуясь одной лицензией HFSS использовать ресурсы всего датацентра?

Память при этом суммируется, или каждый процессор работает только со своей локальной?

А то я столкнулся с проблемами сборки/закупки 128 гигабайтных рабочих станций и думаю, не выгоднее ли купить штук 6 32-гигабайтных i7 под разгоном и объединить их волокном... заодно рабочие места будут обеспечены на время простоя.

Изменено пользователем Hale

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

А по поводу сетки частот - еще раз. Это не зависимость и тем более не функциональная - это просто фиксированный набор значений для # дискретных симуляций. IMHO штука по большому счету бесполезная, ибо никто, скажем SAR не считает одной симуляцией на FM и в миллиметровом диапазоне сразу. Полюбому меши нужны разные, т.е. разные проекты с разными мешами и разными mu, epsilon которые достаточно задать константой.

 

Если возможно, то постарайтесь изложить более четко, задачу, которую вы хотите решить используя HFSS, а так же более конкретно ваши притензии и пожелания в улучшении.

 

SAR если вы имели в виду - specific absorbtion ration - никто не предлагает считать на одной сетке в различных диапазонах. Если у вас создана material database то вам не надо заморачиваться для каждого расчета с заданием констант для различных tissue. В случае, если надо моделировать модель человека, то заморочно каждый раз вбивать руками эти константы для нескольких десятков материалов.

 

Если у вас только одна степень свободы - частота - то разница между функциональной зависимостью (equation) и набором значений, которые при линейном интерполировании очень близоки к значениям полученным по уравнению, не имеет существенного значения, с учетом того. что табуляцию надо сделать только один раз и вы в принципе не ограничены количеством точек в наборе данных.

 

HFSS проект может быть один, но будет в нем несколько разных Designs, опять же удобно, если вы хотите использовать не глобальный дата сет, а только для конкретного проекта.

 

 

Задачка для FEM вполне реализуемая.... через FEM и высокгого порядка нелинейности на матлабе считаются.

 

Вы можете в Матлабе просчитать FEM проект с 1 миллионом tets? Если да, то зачем вам разбираться с HFSS?

 

HFSS остается золотым стандардом для расчетов US defence и US defence является основным источником средств для разработчиков HFSS. До настоящего момента "правила игры" были предельно простые - если ваши пожелания (официального пользователя) не совпадают с пожеланиями поступающими от US defence, то они не будут реализованы в обозримой перспективе.

 

А судя по вашему вопросу о

Объясните, пожалуйста, как работает MPI при использовании Driven Modal?

...

Он не идеальный, но позволяет решать многочисленные задачи достаточно надежно.

 

 

уважаемый nadie!

часть вашего ответа на последний вопрос я удалил, поскольку эта часть относилась не к сути вопроса,

а к вашему мнению (на мой взгляд неверному) об оппоненте, его правовом статусе и его планах.

участникам темы это не интересно, для такой информации вы можете воспользоваться ЛС.

 

l1l1l1

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

nadie

 

на первую часть вашего ответа, не хочу долго повторяться, я уже высказал аргументы - для одного рабочего диапазона (в жизни это жалкие проценты) достаточно констант. существующая система имеет мало практического прменения; в общем, я пока еще не видел ни одного живого человека, использовавшего сетку для eps, скажем, на практике. тензор mu же в HFSS зашит функционально, но не редактируется.

 

В матлабе можно посчитать проект с любым количеством элементов, естествонно вопрос в рациональности. НО, речь идет не о накладных расходах, а о фактической реализуемости.

Да, нелинейность реализуема с пом. FEM симуляций. Более того, насколько я представляю, это основной метод численного расчета нелинейных волновых процессов. Так что я совершенно честно и откровенно ожидал некоторого движения Ансофта в эту сторону. Но пока не получилось.

 

nadie, а чего это вы про US Defence заговорили..? AFAIK, Ansys - коммерческое необоронное предприятие...

 

По поводу MPI... надеюсь, что предыдуший ответ я не увидел только в пользу моего душевного спокойствия, но так или иначе, информация есть информация.

Не могли бы вы перефразировать, как работает MPI конкретно. Потому что мы регулярно сталкиваемся с нехваткой памяти на 13 версии. И хотелось бы решать однодоменные (ферритовые) задачки с большей точностью.

 

Ну и вопрос про модель DeltaH повторю, чтобы он не утонул под постами. Какая модель (функция omegaH, или восприимчивости использованы). Кстати, что в ансофтовской модели означает отрицательное значение H намагничивания и как считается mu(3,3) ?

Изменено пользователем Hale

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

я пока еще не видел ни одного живого человека, использовавшего сетку для eps,

Увидеть меня Вам наверно не придется, но мною сетка для eps используется в 100% моих расчетов.

 

Ansys - коммерческое необоронное предприятие

Именно, будучи коммерческим предприятием, оно заинтересовано в получении дохода от продажи лицензии на свои продукты и техническую поддержку. US Defence является крупнейшим лицензионным пользователем продукции Ansys, и это не секрет. Если вы посмотрите их официальные презентации, которые сотрудники Ansys делают на конференциях, то в основном там будут расчеты военной техники или радаров.

 

В двух Ваших предложениях

В матлабе можно посчитать проект с любым количеством элементов

мы регулярно сталкиваемся с нехваткой памяти на 13 версии

 

есть очевидная не стыковка. По сравнению с матлабом, HFSS использует память существенно более рационально, не говоря уже о разнице в скорости расчета.

 

Не высказывая очередного личного суждения, которое будет удалено, переходим к MPI

 

MPI используется в HFSS для различных солверов и различных задач не совсем одинаково, и в каких то случаях для кластерных вычислений используется и не MPI (хотя с каждой версией Ansys старается все больше использовать MPI). Простой ответ, MPI и HFSS должны быть инсталированы на каждом компьютере входящем в ваш кластер. Это в принципе описано в help, к примеру

 

Installation Requirements for Distributed Memory Solutions with HFSS

You must install HFSS on all the machines you intend to use during the HFSS distributed memory solution process. The installation locations for HFSS must be identical and the machines must be uniform: all 64 bit or all 32 bit; all Windows or all Linux. The machines must all use the same interconnect.

 

 

Installation Requirements for Distributed Memory Solutions with HFSS-IE

You must install HFSS 15 on all the machines you intend to use during the HFSS-IE distributed memory solution process. The installation locations for HFSS must be identical and the machines must be uniform: all 64 bit or all 32 bit; all Windows or all Linux. The machines must all use the same interconnect.

 

In addition, on Windows, you must install one of the supported versions of MPI from either Platform Computing (default) or Intel. Be sure to install the same version of MPI on all machines in your cluster.

 

Recall that HFSS must be installed in the same directory on all machines in the cluster and that the cluster must be uniform (i.e. all Linux machines, all 32 bit Windows machines, or all 64 bit Windows machines)

 

 

The MPI enabled HFSS solver engine is not multithreaded. (The regular HFSS engine is multithreaded.) If a particular machine has multiple cores and enough memory you can define this machine several times in the distributed machine list ("doubling up") to take advantage of the extra cores. Certain portions of the MPI enabled HFSS solver will be multithreaded in the future.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

US Defence является крупнейшим лицензионным пользователем продукции Ansys,

а вот теперь задумайтесь. чтобы оборонка, которая считает ферритовые фазовращатели и фильтры, в том числе на пленочках, да и не интересовалась бы нелинейностью, нонсенс...

в остальном, не хочу портить себе нервы, при этом специфицеском стиле разговора.

 

Но я не получил ответа на главный вопрос - суммируется ли с MPI память кластера в Driven Modal солвере. Это очень серьезный вопрос. Не в Eigenmode и не в Terminal. Без разбиения на домены.

 

А то что Driven Modal и без того хреново параллелизуется, это уже не так важно, когда памяти не хватает.

За ответ по лицензиям - спасибо, значит надо будет брать пакет.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

2 Hale

 

Гляньте на статьи (в них есть описание модели ферритовых материала, мат.модели и сравнение с HFSS-проектами)

http://iris.lib.neu.edu/cgi/viewcontent.cg...t=elec_eng_diss

http://iris.lib.neu.edu/cgi/viewcontent.cg...t=elec_eng_diss

(рекомендую посмотреть на сайте http://iris.lib.neu.edu/ статьи по ферритовой тематике)

http://epublications.marquette.edu/cgi/vie...ext=theses_open

 

Что касается общей памяти в режиме MPI (Message Passing Interface) - то здесь не поддерживается "расшаривание" RAM.

Вообще режим общей памяти - это SMP (Shared Memmory Protocol) режим, т.е. когда на одной машине с большим объемом RAM в несколько потоков запускается решение вашей задачи (сборка и обращение матрицы).

 

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

в остальном, не хочу портить себе нервы

Когда задают вопросы, то не принято "в хороших домах Лондона" выплыплескивать self confidence.

 

Driven Modal и без того хреново параллелизуется

 

Если посмотрите WhatsNewInHFSS.pdf раздел "Improved Matrix Solver", то увидете, что паралелизация существенно улучшена в HFSS15 (Это тоже было одно из требований US Defence )

 

суммируется ли с MPI память кластера в Driven Modal солвере

может меня опять откоректируют, но в беседе с вами многократно возникает вопрос "Вам шашечки или ехать?"

 

Как Вам уже ответили в принципе

в режиме MPI (Message Passing Interface) - то здесь не поддерживается "расшаривание" RAM.

 

но для быстрого решения многих задач (по ферритовой тематике не знаю, презентаций Ansys не было) использование нескольких компьютеров и Distributed Memory Solutions with HFSS позволяет Вам решить Вашу задачу практически так же быстро, как на одном компьютере с достаточным количеством памяти. В большинстве случаев используется domain decomposition как технология разбиения одной большой задачи на несколько компютеров в кластере.

 

С точки зрения solver Driven Modal и Driven Terminal используют один и тот же. У них разный только post-processing.

 

 

Driven Modal Solution

 

Choose the Driven Modal solution type when you want HFSS to calculate the modal-based S-parameters of passive, high-frequency structures such as microstrips, waveguides, and transmission lines. The S-matrix solutions will be expressed in terms of the incident and reflected powers of waveguide modes. Network Analysis is the default and functions as before.

 

Composite Excitation provides a method for solving fields in a large frequency domain problem.

 

Driven Terminal Solution

 

Choose the Driven Terminal solution type when you want HFSS to calculate the terminal-based S-parameters of single and multi-conductor transmission line ports. The S-matrix solutions will be expressed in terms of voltages and currents on the terminals. Network Analysis is the default and functions as before.

 

Composite Excitation provides a method for solving fields in a large frequency domain problem.

 

Если читать Help внимательно, то можно понять, что domain decomposition не очень хорошо работает при большом количестве портов. Именно поэтому в HFSS 15 появился Composite Excitation.

 

 

а вот теперь задумайтесь. чтобы оборонка, которая считает ферритовые фазовращатели и фильтры, в том числе на пленочках, да и не интересовалась бы нелинейностью, нонсенс...

 

Ansys коммерческое предприятие, имеющие, как и все, ограниченные ресурсы для развития. Список задач и features, которые надо считать и требуются у US Defence огромный. Поэтому Ansys в каждой версии вводит что-то новое из этого списка (так длительное время US Defence требовало Transient Solution). После покупки Ansoft by Ansys значительные ресурсы были брошены на интеграцию продуктов двух компаний.

В общем объясниение того, что Ansys не дурак, который не обращает внимание на решение задач по ферритовой тематике превращается в флейм и его надо завязывать. Это объяснение Вам было начато только по причине, что "за державу обидно".

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Имеется отрезок прямоугольного волновода, в нем распространяется основная мода которая имеет длину волны в этом волноводе к примеру лямбда. Если длина отрезка волновода несколько меньше лямбды (ну где-то так что фаза на выходе не добирает 20 градусов до 360), то arg(S21) равен 20 градусов, а если длина отрезка волновода больше лямбды (так же на 20 градусов, тоесть уложилась одна целая волна и еще 20 градусов следующей), то arg(S21) равен -20 градусов. Не могу никак понять как так получается. По идее во втором случае фаза S21 должна быть +20 гр, а в первом случае -20 гр.

Изменено пользователем setur

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

По идее во втором случае фаза S21 должна быть +20 гр, а в первом случае -20 гр.

Идея неправильная. При более длинном волноводе получается бОльшее запаздывание волны, что и отражает знак "минус" во втором случае.

 

P. S. Ну, а вообще фаза в любом случае отрицательна. Это лишь для удобства отображения график имеет пилообразную форму с положительными значениями, т. к. всё-равно математически фаза имеет неоднозначность с периодом через 360 градусов.

Изменено пользователем EUrry

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Идея неправильная. При более длинном волноводе получается бОльшее запаздывание волны, что и отражает знак "минус" во втором случае.

Вот это и не могу в голове никак уложить, как минус говорит о том, что волна запаздывает. Это как-то вытекает математически или соглашение на подобие ток течет от плюса к минусу? Может в какой литературе про это есть, или я смотрю в книгу а вижу..

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

2 Hale

 

Гляньте на статьи (в них есть описание модели ферритовых материала, мат.модели и сравнение с HFSS-проектами)

http://iris.lib.neu.edu/cgi/viewcontent.cg...t=elec_eng_diss

http://iris.lib.neu.edu/cgi/viewcontent.cg...t=elec_eng_diss

(рекомендую посмотреть на сайте http://iris.lib.neu.edu/ статьи по ферритовой тематике)

http://epublications.marquette.edu/cgi/vie...ext=theses_open

 

Что касается общей памяти в режиме MPI (Message Passing Interface) - то здесь не поддерживается "расшаривание" RAM.

Вообще режим общей памяти - это SMP (Shared Memmory Protocol) режим, т.е. когда на одной машине с большим объемом RAM в несколько потоков запускается решение вашей задачи (сборка и обращение матрицы).

 

Большое спасибо! Наконец кратко и понятно про MPI.

Я с ферритами на СВЧ в некоторой степени знаком, меня интересовали именно ХФССовская имплементация. Поскольку подобные вещи мы на нем считаем, в нек. степени получается. Но за вразумительность все равно положиться не можем, т.к. с теорией сходимость не всегда хорошая, "где-то между". Вот хотелось бы знать, какие функции у них внутри зашиты для ферритов.

 

кстати, статейки может быть потому что старые, они еще PML границы используют на 10/11. Как я понимаю, с 13 версии вполне хватает радиации. Или существуют какие-то аргументы именно в пользу PML?

Изменено пользователем Hale

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Вот это и не могу в голове никак уложить, как минус говорит о том, что волна запаздывает. Это как-то вытекает математически или соглашение на подобие ток течет от плюса к минусу? Может в какой литературе про это есть, или я смотрю в книгу а вижу..

Это теория так называемых длинных линий или электрических цепей с распределенными параметрами.

В линии распространяются в общем случае волны прямого и обратного направлений. Вы рассматриваете волну прямого направления. Для ее распространения решение уравнения пропорционально exp(-γz), где γ = α + jβ - коэффициент распространения, α - коэффициент затухания, β - фазовый коэффициент. Положительный набег фазы будет иметь только волна обратного направления. Но в том случае, если вы будете выводить фазу коэффициента S12, она будет так же отрицательна, т. к. физически волновод не может иметь отрицательную длину, т. е. Вы просто "переместитесь" в другую "точку наблюдения".

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Благодарю, теперь вижу смысл.

 

Подскажите, а как к порту рупорной секции подключить не волновод с его модами а чтобы в этот порт падала плоская волна?

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Присоединяйтесь к обсуждению

Вы можете написать сейчас и зарегистрироваться позже. Если у вас есть аккаунт, авторизуйтесь, чтобы опубликовать от имени своего аккаунта.

Гость
Ответить в этой теме...

×   Вставлено с форматированием.   Вставить как обычный текст

  Разрешено использовать не более 75 эмодзи.

×   Ваша ссылка была автоматически встроена.   Отображать как обычную ссылку

×   Ваш предыдущий контент был восстановлен.   Очистить редактор

×   Вы не можете вставлять изображения напрямую. Загружайте или вставляйте изображения по ссылке.

×
×
  • Создать...