Перейти к содержанию
    

Bios71

Участник
  • Постов

    75
  • Зарегистрирован

  • Посещение

Репутация

0 Обычный

Информация о Bios71

  • Звание
    Частый гость
    Частый гость
  • День рождения 30.09.1971

Контакты

  • Сайт
    Array
  • ICQ
    Array

Информация

  • Город
    Array

Посетители профиля

2 988 просмотров профиля
  1. а все остальные сорок PCI устройств идут строем нахер, потому как [ одно самое главное PCI устройство] уже ОБСЛУЖЕНО! :rolleyes:
  2. а как узнать/предугадать сколько таких "желающих" висит на конкретной шине и на остальных 120ти шинах? один хочет 4 кб, другой-пятрнадцатый 32мб шестнадцатый 256Мб, и выделять надо не сильно плодя "окна" между выделенными участками?
  3. любой случай можно разобрать и докапаться до истины, но в массовом сегменте увы ни кто разбираться не будет "продается, и ладно"(с) вон, чипсеты уже давно поддерживают ужатие адресного пространства PCIe с 256 до 128 и даже 64/32 шин в результате физ.адреса не теряются, и уверяю вас клиенты этим пользуются. Потому как не для балды придумано, а с целью экономии. Хотя редко кому, но и 150-190 в адресации PCI шин требуются.
  4. Вот чтото такое у меня вертелось в мыслях, но не кому было "разжеать". Получается что при 4Гиг памяти и выделении БИОСом под запрос 512мб "адресов" для внешней видюхи, в системе имеем 4.5 Гб? к сожалению архитектура биоса такова, что изначально "резервируется" под все ROMы "выделения" какойто кусок, например 256Мб в процессе энумерации "внезапно" выясняется, что трэба на 20 Мб больше, делаем пометку "надо больше 256" и ресетимся и при следующей загрузке выделяем уже 512 Мб , и так по кругу, если не упираемся в предел, который на десктопах/ноутбуках около Гига. а вот их специально затачивают под эти ситуации...
  5. а выделить/запросить гигабайтик-другой, в процессе БИОС энумерации не пытались? Память тогда выделяется в первых 4Gb, они вроде считаются "системными", но ими и ограничены. Хотел както один клиент иметь 40-60 PCIe устройств и каждому щщедро раздавать по 250-500Мб при инициализации. Уперлись в системные ограничения. Вот теперь думаю, а что мешало тому клиенту память, по своим устройствам, "рассыпать" внутри ОС, а не в биосе?
  6. Раз уж зашел разговор про системную/пользовательскую? Это что? "Cистемная", это случайно не BIOSом выделенная PCIe устройству(которую это устройство запрашивает/выторговывает) в процессе PCI энумерации? А пользовательская, это когда уже драйвер под Вин/Линукс запрашивает память себе на "корректную инициализацию и работу?
  7. Память памяти рознь, надеюсь в курсе про разные каналы контроллера или надписи на памяти 1R8/2R8/1R16/2R16? Тема интересная сама по себе, это под Линуксом или Вин? Или без операционки балуетесь(бывает такая блажь у меня)?
  8. >>После этого командами int_mem_read производится считывание и проверка принятых данных. а это не на физический ли предел натыкаетесь, по сскорости доступа к памяти ? Проверка тоже происходит по DMA? Тут бы поиграть со скоростю записи, принудительно опуская ее с 11000-13000Мб до уровней когда включение проверки перестанет провоцировать "проседание" приема/записи, и тогда анализировать имеющиеся/достигнутые цифры. ПС: до собственного 10GHz осцилогрофа осталось пол шага? ;)
  9. потому как иной чип имеет по 6 штук I2C , и не факт что память, ЕС, GPIO expander и BMC физически висят все вместе на одном I2C. Это как бог на душу, разработчику сервера, положит. И на какой из I2C кинут PMBus, тоже не ведомо. Но подозреваю, что если PMBus всетаки реализован, то обязательно будет и разьем для подключению к нему на материнке, и описание оного в документации на сервер. А "пилящие" драйвера под конкретный чип, скорее всего имеют схему сервера и потому знают что где искать.
  10. я так понял, что выныривают с низу, а затем уходят уходят в разные стороны
  11. вот видите, какой вы разносторонний. А я только про ACPI таблицы + WMI, с их термозонами, и подумал.
  12. если только не заплатить конкретным разработчикам, конкретной материнки, для поддержки конкретного устройства тогда часть работы по настройке ПО/Драйвера/ос/биос переходит на их плечи. Но выйти на разработчика и заплатить денюшку, это , увы, только для ОЧЕНЬ богатых клиентов
  13. Cудя по всему именно перемычками(а точнее нулевыми сопротивлениями) наши коммутиют на бейсборде 4 х1 в 2 х1 + х2 или в х4 Хватает для Gen1/2/3 а вот 2 х8 в х16 как раз через чип идут
  14. полезная ссылка PCI EXPRESS BASE SPECIFICATION, REV. 3.0 str 514 6.7. PCI Express Hot-Plug Support
  15. Да, зоопарк страшный. Тот же АМД вводит/использует следующие понятия - Simple Presence Detect, минимальная GPIO поддержка, реакция только на "present", дабы снять питание из опустевшего внезапно слота (наиболее энергосберегающий вариант), требует Runtime поддержки от биоса для коммуникации с/через ACPI таблицы/методы - PCIe модуль А , применяемый на оригинальных АМД платформах - PCIe модуль B , индустриальный формат, отличается от А GPIO распиновкой ехпандера - HotplugBasic - native - HotplugEnhanced, "всегда включено и всегда в поиске", при установке/удалении устройства на него реагирует сам P2P мост, генеря прерывание для ОС не требует поддержки БИОСа, но наиболее энергозатратный (питание всегда подано в слот) - HotplugServer , хаха ... серверный вариант! догадываемся кто и что под этим подразумевает. :biggrin: А PCIe спецификация одарила понятием - HotPlug-Surprise поддерживающий "ВНЕЗАПНОЕ" Hot-insertion/removal (под линуксом выдающий ТОЛЬКО сигнал DEV_REMOVAL) - HotPlug-Non-Surprise (Managed HotPlug) т.е. с предупреждением "СЕЙЧАС БУДЕТ ЗАЙЧИК" (под линуксом выдающий сигнал и DEV_SHUTDOWN и DEV_REMOVAL) А ACPI таблицы у меня хранят гробовое молчание, т.е. кода для поддержки HotPlug там вагон и маленькая тележка, но он не кем ни когда не вызывается. Все идет через внутренюю CPU/SMU/M1 кухню. Видимо в режиме HotplugEnhanced
×
×
  • Создать...