реклама на сайте
подробности

 
 
 
Reply to this topicStart new topic
> Non-transparent bridge (NTB) встроенный в xeon e5, Директ соединение между двумя хостами
valmon
сообщение Nov 9 2016, 09:17
Сообщение #1





Группа: Новичок
Сообщений: 3
Регистрация: 9-11-16
Пользователь №: 94 114



Камрады, помогите решить задачу.
Есть возможность вдохновить вторую жизнь пачке старенького железа, объединив попарно скоростным интерконнектом, с различными hba не вариант, на каждой железке только одно место под установку через ризер одной карты, которое уже занято, но под ней есть пачка pci-e слотов. Собственно, появилась мысль соединить попарно шины pci-e между железками гибкой платой.
Так как соединяем U образной перемычкой, то все получается идеально, side-a приходиn в side-b и наоборот, но что делать с clock, да и вообще, возможен ли вот такой пассивный коннект?
Материалы по теме NTB в XEON
http://download.intel.com/design/intarch/papers/323328.pdf
https://github.com/jonmason/ntb/wiki


--------------------
Go to the top of the page
 
+Quote Post
krux
сообщение Nov 9 2016, 10:48
Сообщение #2


Профессионал
*****

Группа: Свой
Сообщений: 1 319
Регистрация: 2-07-12
Из: дефолт-сити
Пользователь №: 72 596



NTB в Xeon-ах появился исключительно для одного применения - Storage Bridge Bay.
и нужен он там для горячего резервирования двух компов, работающих с дисками.

гонять данные как вы хотите, с одной материнки в другую - с точки зрения скорости будет проблематично, в силу отсутствия DMA. именно поэтому дешевый PCIe NTB до сих пор не смог заменить всякие Infiniband HBA.
Go to the top of the page
 
+Quote Post
valmon
сообщение Nov 9 2016, 11:21
Сообщение #3





Группа: Новичок
Сообщений: 3
Регистрация: 9-11-16
Пользователь №: 94 114



Цитата(krux @ Nov 9 2016, 10:48) *
NTB в Xeon-ах появился исключительно для одного применения - Storage Bridge Bay.
и нужен он там для горячего резервирования двух компов, работающих с дисками.

гонять данные как вы хотите, с одной материнки в другую - с точки зрения скорости будет проблематично, в силу отсутствия DMA. именно поэтому дешевый PCIe NTB до сих пор не смог заменить всякие Infiniband HBA.

А разве SBB не использует DMA? И что не так с со скоростью?


--------------------
Go to the top of the page
 
+Quote Post
valmon
сообщение Nov 9 2016, 12:50
Сообщение #4





Группа: Новичок
Сообщений: 3
Регистрация: 9-11-16
Пользователь №: 94 114



Цитата(krux @ Nov 9 2016, 10:48) *
NTB в Xeon-ах появился исключительно для одного применения - Storage Bridge Bay.
и нужен он там для горячего резервирования двух компов, работающих с дисками.

гонять данные как вы хотите, с одной материнки в другую - с точки зрения скорости будет проблематично, в силу отсутствия DMA. именно поэтому дешевый PCIe NTB до сих пор не смог заменить всякие Infiniband HBA.

Да и если я не чего не путаю, наличие вот этого
Код
#include <linux/dma-mapping.h>

Означает что дма он всетаки использует.


--------------------
Go to the top of the page
 
+Quote Post

Reply to this topicStart new topic
1 чел. читают эту тему (гостей: 1, скрытых пользователей: 0)
Пользователей: 0

 


RSS Текстовая версия Сейчас: 21st January 2017 - 08:27
Рейтинг@Mail.ru


Страница сгенерированна за 0.01354 секунд с 7
ELECTRONIX ©2004-2016