Перейти к содержанию

    

valmon

Новичок
  • Публикаций

    3
  • Зарегистрирован

  • Посещение

Репутация

0 Обычный
  1. Цитата(krux @ Nov 9 2016, 10:48) NTB в Xeon-ах появился исключительно для одного применения - Storage Bridge Bay. и нужен он там для горячего резервирования двух компов, работающих с дисками. гонять данные как вы хотите, с одной материнки в другую - с точки зрения скорости будет проблематично, в силу отсутствия DMA. именно поэтому дешевый PCIe NTB до сих пор не смог заменить всякие Infiniband HBA. Да и если я не чего не путаю, наличие вот этого Код#include <linux/dma-mapping.h> Означает что дма он всетаки использует.
  2. Цитата(krux @ Nov 9 2016, 10:48) NTB в Xeon-ах появился исключительно для одного применения - Storage Bridge Bay. и нужен он там для горячего резервирования двух компов, работающих с дисками. гонять данные как вы хотите, с одной материнки в другую - с точки зрения скорости будет проблематично, в силу отсутствия DMA. именно поэтому дешевый PCIe NTB до сих пор не смог заменить всякие Infiniband HBA. А разве SBB не использует DMA? И что не так с со скоростью?
  3. Камрады, помогите решить задачу. Есть возможность вдохновить вторую жизнь пачке старенького железа, объединив попарно скоростным интерконнектом, с различными hba не вариант, на каждой железке только одно место под установку через ризер одной карты, которое уже занято, но под ней есть пачка pci-e слотов. Собственно, появилась мысль соединить попарно шины pci-e между железками гибкой платой. Так как соединяем U образной перемычкой, то все получается идеально, side-a приходиn в side-b и наоборот, но что делать с clock, да и вообще, возможен ли вот такой пассивный коннект? Материалы по теме NTB в XEON http://download.intel.com/design/intarch/papers/323328.pdf https://github.com/jonmason/ntb/wiki