Перейти к содержанию

    

Non-transparent bridge (NTB) встроенный в xeon e5

Камрады, помогите решить задачу.

Есть возможность вдохновить вторую жизнь пачке старенького железа, объединив попарно скоростным интерконнектом, с различными hba не вариант, на каждой железке только одно место под установку через ризер одной карты, которое уже занято, но под ней есть пачка pci-e слотов. Собственно, появилась мысль соединить попарно шины pci-e между железками гибкой платой.

Так как соединяем U образной перемычкой, то все получается идеально, side-a приходиn в side-b и наоборот, но что делать с clock, да и вообще, возможен ли вот такой пассивный коннект?

Материалы по теме NTB в XEON

http://download.intel.com/design/intarch/papers/323328.pdf

https://github.com/jonmason/ntb/wiki

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

NTB в Xeon-ах появился исключительно для одного применения - Storage Bridge Bay.

и нужен он там для горячего резервирования двух компов, работающих с дисками.

 

гонять данные как вы хотите, с одной материнки в другую - с точки зрения скорости будет проблематично, в силу отсутствия DMA. именно поэтому дешевый PCIe NTB до сих пор не смог заменить всякие Infiniband HBA.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
NTB в Xeon-ах появился исключительно для одного применения - Storage Bridge Bay.

и нужен он там для горячего резервирования двух компов, работающих с дисками.

 

гонять данные как вы хотите, с одной материнки в другую - с точки зрения скорости будет проблематично, в силу отсутствия DMA. именно поэтому дешевый PCIe NTB до сих пор не смог заменить всякие Infiniband HBA.

А разве SBB не использует DMA? И что не так с со скоростью?

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
NTB в Xeon-ах появился исключительно для одного применения - Storage Bridge Bay.

и нужен он там для горячего резервирования двух компов, работающих с дисками.

 

гонять данные как вы хотите, с одной материнки в другую - с точки зрения скорости будет проблематично, в силу отсутствия DMA. именно поэтому дешевый PCIe NTB до сих пор не смог заменить всякие Infiniband HBA.

Да и если я не чего не путаю, наличие вот этого

#include <linux/dma-mapping.h>

Означает что дма он всетаки использует.

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Для публикации сообщений создайте учётную запись или авторизуйтесь

Вы должны быть пользователем, чтобы оставить комментарий

Создать учетную запись

Зарегистрируйте новую учётную запись в нашем сообществе. Это очень просто!

Регистрация нового пользователя

Войти

Уже есть аккаунт? Войти в систему.

Войти
Авторизация