valmon 0 9 ноября, 2016 Опубликовано 9 ноября, 2016 · Жалоба Камрады, помогите решить задачу. Есть возможность вдохновить вторую жизнь пачке старенького железа, объединив попарно скоростным интерконнектом, с различными hba не вариант, на каждой железке только одно место под установку через ризер одной карты, которое уже занято, но под ней есть пачка pci-e слотов. Собственно, появилась мысль соединить попарно шины pci-e между железками гибкой платой. Так как соединяем U образной перемычкой, то все получается идеально, side-a приходиn в side-b и наоборот, но что делать с clock, да и вообще, возможен ли вот такой пассивный коннект? Материалы по теме NTB в XEON http://download.intel.com/design/intarch/papers/323328.pdf https://github.com/jonmason/ntb/wiki Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
krux 8 9 ноября, 2016 Опубликовано 9 ноября, 2016 · Жалоба NTB в Xeon-ах появился исключительно для одного применения - Storage Bridge Bay. и нужен он там для горячего резервирования двух компов, работающих с дисками. гонять данные как вы хотите, с одной материнки в другую - с точки зрения скорости будет проблематично, в силу отсутствия DMA. именно поэтому дешевый PCIe NTB до сих пор не смог заменить всякие Infiniband HBA. Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
valmon 0 9 ноября, 2016 Опубликовано 9 ноября, 2016 · Жалоба NTB в Xeon-ах появился исключительно для одного применения - Storage Bridge Bay. и нужен он там для горячего резервирования двух компов, работающих с дисками. гонять данные как вы хотите, с одной материнки в другую - с точки зрения скорости будет проблематично, в силу отсутствия DMA. именно поэтому дешевый PCIe NTB до сих пор не смог заменить всякие Infiniband HBA. А разве SBB не использует DMA? И что не так с со скоростью? Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
valmon 0 9 ноября, 2016 Опубликовано 9 ноября, 2016 · Жалоба NTB в Xeon-ах появился исключительно для одного применения - Storage Bridge Bay. и нужен он там для горячего резервирования двух компов, работающих с дисками. гонять данные как вы хотите, с одной материнки в другую - с точки зрения скорости будет проблематично, в силу отсутствия DMA. именно поэтому дешевый PCIe NTB до сих пор не смог заменить всякие Infiniband HBA. Да и если я не чего не путаю, наличие вот этого #include <linux/dma-mapping.h> Означает что дма он всетаки использует. Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться