SM 0 26 февраля, 2014 Опубликовано 26 февраля, 2014 · Жалоба При любом CPU планируется использование видеокарты. В смысле? ISE таки уже научился перекладывать часть работы на видеосистему? Что он считает с использованием GPU? Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
syoma 1 26 февраля, 2014 Опубликовано 26 февраля, 2014 · Жалоба Пока остановились на Иви Бридж Е и 1150. Проц 4820к. Вроде как по отзывам он очень неплохо оверклокится и с памятью работает шустрее, чем хасвелл. Будет стоять водяное охлаждение. Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
Beby 8 26 февраля, 2014 Опубликовано 26 февраля, 2014 · Жалоба В смысле? ISE таки уже научился перекладывать часть работы на видеосистему? Что он считает с использованием GPU? Если ISE/Vivado что-то подобное и умеют, то это хорошо скрыто. Но я о другом говорил: если пользоваться встроенной «видюхой» в Crystal Well или Haswell, то она будет занимать часть пропускной способности системной памяти. А в Crystal Well еще и часть ёмкости встроенной 128MB ОЗУшки уйдёт на обслуживание этой «видюхи». Вот чтобы больше ресурсов досталось ISE я не собираюсь использовать встроенную в CPU «видюху». Пока остановились на Иви Бридж Е и 1150. Проц 4820к. Э-э-э... Что-то я не соображу: Ivy Bridge E i7-4820K вроде же имеет Socket FCLGA2011, а у Вас указан 1150. Опечатка ? Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
SM 0 26 февраля, 2014 Опубликовано 26 февраля, 2014 · Жалоба Но я о другом говорил: если пользоваться встроенной «видюхой» в Crystal Well или Haswell, то она будет занимать часть пропускной способности системной памяти. А в Crystal Well еще и часть Вот тут и вопрос как раз... Если он умеет считать и на CPU, и на GPU, и это ускоряет что-то, то есть прямой смысл иметь GPU с доступом непосредственно в общую память, и использовать ее (видюху) только для счета, отображать, собственно, там особо нечего, можно даже зайти с соседней машины, если надо что-то графическое отобразить, по большому счету на машину, где делается синтез-разводка-размещение можно спокойно ходить терминалом, и видюху для отображения не использовать вообще. Но это, конечно, если ОНО умеет правильно использовать GPU. Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
o_khavin 0 26 февраля, 2014 Опубликовано 26 февраля, 2014 · Жалоба Но я о другом говорил: если пользоваться встроенной «видюхой» в Crystal Well или Haswell, то она будет занимать часть пропускной способности системной памяти. А в Crystal Well еще и часть ёмкости встроенной 128MB ОЗУшки уйдёт на обслуживание этой «видюхи». Вот чтобы больше ресурсов досталось ISE я не собираюсь использовать встроенную в CPU «видюху». Я Вас умоляю (с). В 2D режиме обслуживание встроенного видео занимает исчезающе малый процент пропускной полосы памяти. Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
SM 0 26 февраля, 2014 Опубликовано 26 февраля, 2014 · Жалоба В 2D режиме обслуживание встроенного видео занимает исчезающе малый процент пропускной полосы памяти. Вот именно. А в случае распараллеливания на GPU+CPU, пусть не сейчас, а через, допустим, годик, очень пригодится равноправный доступ CPU и GPU в одну память. Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
o_khavin 0 26 февраля, 2014 Опубликовано 26 февраля, 2014 · Жалоба Вот именно. А в случае распараллеливания на GPU+CPU, пусть не сейчас, а через, допустим, годик, очень пригодится равноправный доступ CPU и GPU в одну память. Через, допустим, N годиков будет купен новый компьютер или благополучно вставлена дискретная видеокарта нового поколения в свободный PCIe-слот. ;) Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
SM 0 26 февраля, 2014 Опубликовано 26 февраля, 2014 · Жалоба дискретная видеокарта нового поколения в свободный PCIe-слот. ;) Дискретная видеокарта в PCIe не будет иметь одинакового и равноправного доступа в память CPU с самим CPU, так что это не вариант для данного случая. Это две большие разницы, считать что-то наравне с CPU (гоняя пустые потоки CPU->GPU->CPU), или считать свою графику в своей графической памяти gr.mem->GPU->gr.mem. Другое дело, когда и CPU и GPU могут работать с одними данными в одной памяти, не гоняя их через ж. друг к другу, вот это может дать очень серьезный прирост. Поэтому, как мне кажется, если закладываться на ближайшее будущее, то надо брать систему именно такую, где CPU и GPU могут работать в общей памяти на равных, а лучше, вообще обождать полгода-год... Если, конечно, не совсем приперло. Им бы (CPU+GPU) еще общий кеш L3... но вроде пока такого нету... Хотя IMHO стоит это ожидать уже в этом году. Как и использование GPU по идее должно скоро войти и в place/route, а не только в моделирование. UPD: А вот воткнуть в такую систему видюху в PCIe для видео - эт можно... Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
syoma 1 26 февраля, 2014 Опубликовано 26 февраля, 2014 · Жалоба Имхо, я бы тоже не расчитывал на встроенную видяху. По инсайдерской инфе от Mathworks, которые активно сотрудничают с NVidia, им от GPU нужны будут векторные обработки, чтоб матрицы быстро считать. Следовательно будут нужны именно мощные 3D движки, а не та фигня, что есть на борту. Кстати современные мощные видяхи подключаются на PCIex16, и никто не страдает, что надо бы равноправный доступ к памяти организовать. Вроде ж был AGP с прямым доступом к памяти - DME - но вымерли они все. Наверное не зря. Пс - опечатался - 2011 Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
SM 0 27 февраля, 2014 Опубликовано 27 февраля, 2014 · Жалоба Только вот почему-то новейшие процессоры делают с HUMA, считая именно это перспективной технологией, в разы повышающей эффективность счета с использованием OpenCL и GPU (что подтверждается и тестами этих вычислений) - это и понятно (думаю, любому из тут присутствующих разработчиков, представляющих, как устроены шины и через что они друг с другом соединены), никакой DMA-доступ и PCIe не сравнится с непосредственным доступом через набортный DDR контроллер, когда CPU практически выпадает из процесса обработки данных GPU, которые сами берут данные из основной памяти и кладут их обратно, а CPU в это время делает свои дела, а не качает данные в GPU. И видна тенденция, что все больше и больше площади кристалла выделяют под GPU, нежели чем под CPU. Да и не сказать, что "там внутри" GPU- ядра слабые, те же самые, что и в крутых видяхах, только, (пока?) их там меньше. Вот именно по-этому, я бы пока подождал, пока эти системы станут помощнее (особенно, в части CPU и L3), да подешевле, и хотя бы полгодика бы не дергался, потому что пока этот сектор все же относительно слабоват, но, должны появиться и мощные такие системы Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
Beby 8 27 февраля, 2014 Опубликовано 27 февраля, 2014 · Жалоба Вчера наткнулся на IXBT: Процессоры Intel Core i7-4820K и Core i7-4960X Extreme Edition и что-то закрались у меня сомнения по поводу целисообразности Socket-R (2011): 1. В данной статье показано, что по их методике тестирования в однопоточных приложения Intel Core i7-4820K (Ivy Bridge-E) аналогичен Core i7-3770K (Ivy Bridge QC, 1155). А i7-3770K (Ivy Bridge QC, 1155), в свою очередь, заметно уступает Core i7-4770K (Haswell QC, 1150). 2. Удалось найти, что разрабатываемый Haswell-E будет иметь другой Socket (2011-3), и не будет совместим с Ivy Bridge-E. В следствии вышеизложенного, на настоящий момент мне кажется целесообразным взять что-то из Haswell'ов: есть подозрение, что лобовая производительность обновлённых ядер будет полезнее, чем большая пропускная способность памяти. Вопрос только в том - что (тыц) ? С одной стороны в *K процессорах можно приподнять множители, с другой стороны они не поддерживают некоторые "технологии". Может у кого-нибудь есть соображение: насколько эти технологии будут востребованы и полезны ? Далее выбор стоит между Core i5 и i7: 1. ISE/Vivado распараллеливается слабо, и от дополнительных 4 HT-ядер выигрыш мною почему-то просматривается слабо (может чего-то не замечаю ???). 2. Есть подозрение, что i5, имея меньшее число транзисторов внутри, будет дольше работать в режиме turbo boost, чем i7 - т.е. «разгон» будет длиться дольше и приносить больше пользы. С другой стороны, в нормальных BIOS можно отключить HT ядра в i7 и получить очень близкое тепловыделение + немного cache. У кого какие мысли, соображение и советы имеются ? P.S. Crystal Well из рассмотрения пока выпали... т.к. они, заразы, поставляются только в BGA корпусах... - и в мамки их пока не воткнуть. Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
o_khavin 0 27 февраля, 2014 Опубликовано 27 февраля, 2014 · Жалоба Далее выбор стоит между Core i5 и i7: 1. ISE/Vivado распараллеливается слабо, и от дополнительных 4 HT-ядер выигрыш мною почему-то просматривается слабо (может чего-то не замечаю ???). 2. Есть подозрение, что i5, имея меньшее число транзисторов внутри, будет дольше работать в режиме turbo boost, чем i7 - т.е. «разгон» будет длиться дольше и приносить больше пользы. С другой стороны, в нормальных BIOS можно отключить HT ядра в i7 и получить очень близкое тепловыделение + немного cache. Возьмите i7 и отключите HT. Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
syoma 1 27 февраля, 2014 Опубликовано 27 февраля, 2014 · Жалоба Судя по отзывам в инете, комбинация 4820к с материнкой Гигабайт, настойлько хорошо оверклокится, что она стала бестселлером у оверклокеров. Даже наш поставщик пообещал протестировать данный ПК уже в оверклокнутой комбинации перед отсылкой нам. Так что у нас выбор такой. Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
SM 0 27 февраля, 2014 Опубликовано 27 февраля, 2014 · Жалоба С другой стороны, в нормальных BIOS можно отключить HT ядра в i7 и получить очень близкое тепловыделение + немного cache. А какой смысл минимизировать тепловыделение? В данном случае, IMHO, лучше улучшить охлаждение и не думать об отключении чего либо. Не на аккумуляторах же размещение-разводку делать, да и не велика разница в расходах на оплату электроэнергии, 75 ватт жрет CPU, или 375. Цена разработки на порядки выше. Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
Beby 8 27 февраля, 2014 Опубликовано 27 февраля, 2014 · Жалоба А какой смысл минимизировать тепловыделение? В данном случае, IMHO, лучше улучшить охлаждение и не думать об отключении чего либо. Не на аккумуляторах же размещение-разводку делать, да и не велика разница в расходах на оплату электроэнергии, 75 ватт жрет CPU, или 375. Цена разработки на порядки выше. Угу, только в моём случае машинка будет стоять на рабочем месте,.. а если она будет меня сильно напрягать шумом, то производительность моего труда заметно снизится. В т.ч. увеличится коэффициент ошибок, на отлов и исправление которых потребуется время. Поэтому для охлаждения CPU я не могу поставить ревущую корову. P.S. в настоящее время я пользуюсь Zalman CNPS8900 Quiet - работают тихо и легко охлаждают Ivy Bridge i5-3570K даже при полной нагрузке. Ничего лучше по тишине/охлаждению (с подобной конструкцией) я пока не нашёл и в новую систему тоже планирую поставить этого зверя. Для желающих поставить такой же себе обязан предупредить - радиатор алюминиевый и покрыт чем-то вроде меди, но через какой-то промежуточный слой (никеля что ли ?), поэтому может отслаиваться и проникать в матерински плату в виде проводящей фольги ! Я уже потерял 2 таких радиатора отработавших по 1.5-2 года (гарантия производителя - 1 год), еще два (отработав по 2 года) держаться молодцом. Если кто может посоветовать тихую чашеобразную PWM систему охлаждения CPU, которая будет лучше по охлаждению/шум чем Zalman CNPS8900 Quiet, буду благодарен. P.P.S. Чтобы не возникало странных вопросов, сразу уточню, что сейчас у меня на рабочем месте Core2Dou E8600 c 4Гб DDR2 800, который и необходимо обновить. Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться