Перейти к содержанию
    

Non-transparent bridge (NTB) встроенный в xeon e5

Камрады, помогите решить задачу.

Есть возможность вдохновить вторую жизнь пачке старенького железа, объединив попарно скоростным интерконнектом, с различными hba не вариант, на каждой железке только одно место под установку через ризер одной карты, которое уже занято, но под ней есть пачка pci-e слотов. Собственно, появилась мысль соединить попарно шины pci-e между железками гибкой платой.

Так как соединяем U образной перемычкой, то все получается идеально, side-a приходиn в side-b и наоборот, но что делать с clock, да и вообще, возможен ли вот такой пассивный коннект?

Материалы по теме NTB в XEON

http://download.intel.com/design/intarch/papers/323328.pdf

https://github.com/jonmason/ntb/wiki

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

NTB в Xeon-ах появился исключительно для одного применения - Storage Bridge Bay.

и нужен он там для горячего резервирования двух компов, работающих с дисками.

 

гонять данные как вы хотите, с одной материнки в другую - с точки зрения скорости будет проблематично, в силу отсутствия DMA. именно поэтому дешевый PCIe NTB до сих пор не смог заменить всякие Infiniband HBA.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

NTB в Xeon-ах появился исключительно для одного применения - Storage Bridge Bay.

и нужен он там для горячего резервирования двух компов, работающих с дисками.

 

гонять данные как вы хотите, с одной материнки в другую - с точки зрения скорости будет проблематично, в силу отсутствия DMA. именно поэтому дешевый PCIe NTB до сих пор не смог заменить всякие Infiniband HBA.

А разве SBB не использует DMA? И что не так с со скоростью?

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

NTB в Xeon-ах появился исключительно для одного применения - Storage Bridge Bay.

и нужен он там для горячего резервирования двух компов, работающих с дисками.

 

гонять данные как вы хотите, с одной материнки в другую - с точки зрения скорости будет проблематично, в силу отсутствия DMA. именно поэтому дешевый PCIe NTB до сих пор не смог заменить всякие Infiniband HBA.

Да и если я не чего не путаю, наличие вот этого

#include <linux/dma-mapping.h>

Означает что дма он всетаки использует.

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Присоединяйтесь к обсуждению

Вы можете написать сейчас и зарегистрироваться позже. Если у вас есть аккаунт, авторизуйтесь, чтобы опубликовать от имени своего аккаунта.

Гость
Ответить в этой теме...

×   Вставлено с форматированием.   Вставить как обычный текст

  Разрешено использовать не более 75 эмодзи.

×   Ваша ссылка была автоматически встроена.   Отображать как обычную ссылку

×   Ваш предыдущий контент был восстановлен.   Очистить редактор

×   Вы не можете вставлять изображения напрямую. Загружайте или вставляйте изображения по ссылке.

×
×
  • Создать...