Перейти к содержанию
    

count_enable

Свой
  • Постов

    339
  • Зарегистрирован

  • Посещение

Репутация

0 Обычный

Информация о count_enable

  • Звание
    Местный
    Местный

Контакты

  • Сайт
    Array
  • ICQ
    Array

Информация

  • Город
    Array

Посетители профиля

4 013 просмотра профиля
  1. alxkon, мы поднимали MIPI более года назад, точно сейчас не припомню, но больших проблем не было. Если успешно подключите какую-то другую камеру (не IMXxxx) - дайте знать, самому интересно. Софт не требует лицензионного сервера и может ставится на нескольких компьютерах. Сейчас обкатываем новые Titanium. Первые впечатления неплохие: дизайн ужался где-то на 10%, частоты подросли раза в три. Вполне реально получить 300 МГц на них.
  2. Каждый разработчик пишет свои тестбенчи, во время разработки блока они выполняются локально. Когда блок коммитится, добавляются тесты на регрессию и производительность в CI/CD. Но должен сказать что упор у нас всё же делается на тесты на железе. 1. Есть несколько задач. Сначала простой "дымовой тест" что код синтезировался\скомпилировался. Потом тесты на симуляторе. Потом на железе. Есть пайплайны для железа и для софта. Разработчик может сам выбирать нужную глубину. 2. Да, ночи хватает на синтез и полный набор тестов. 3. Да, иногда у нас были фейлы из-за таймаута, дали запас по времени. 4,5. Мы разрабатываем ускорители, со внешним железом плисина не особо взаимодействует. 6. Нам хватает логов. При необходимости фризим.
  3. Мы построили CI/CD систему с тестированием коммитов на железе. Очень улучшает жизнь и качество проектов, даже если блок делается одним разработчиком. Упрощает ведение документации и отслеживание изменений в проекте. Меньше багов т.к. невозможно забыть прогнать тесты. Проверка на различных железных платформах. Старый код регулярно проверяется и поддерживается в рабочем состоянии. Дисциплинирует, не даёт делать сотни веток "а попробую я это", "это не работает с квестой, временный костыль" и т.д. Можно прогонять большие наборы тестов автоматически ночью, а с утра разбирать логи. Система масштабируется как по размеру команды, так и по сложности кода. Все разрабы довольны. Наш случай это когда разрабатывается RTL, софт для встроенного проца + математика. Три независимые команды. RTL делает несколько людей. Совместная разработка не на уровне счётчиков и автоматов (хотя и делаем совместные code review), а на уровне интерфейсов между блоками. Кто-то делает блок памяти, кто-то математический блок, кто-то интегрирует внешнюю память и CI/CD гарантирует что у нас получится один проект с новейшей кодовой базой, а не три несовместимых. Так что очень рекомендую.
  4. Спасибо за ценные замечания! Жаль никто не делает бенчмарков на digital design софте. Подумаем над райзеном.
  5. Xeon в первую очередь обнадёживает большим кешем и контроллерами памяти.
  6. Не хочу плодить похожие темы, поэтому спрошу здесь. Какая конфигурация нужна для Questa Modelsim? Стоит ли добавлять больше памяти, больше ядер, или быстрый SSD? Кто-то пробовал ставить Квесту на Xeon, как оно по сравнению с десктопными Core/Zen? Сейчас рассматриваем идею одного сервера симуляции с несколькими квестами работающими параллельно.
  7. Работаем с Т120, частоты небольшие, до сотни. Старые трионы не самые быстрые плисины. Новые пока не пробовали.
  8. Больших партий мы не закупаем, небольшие точно доступны. Киты тоже без проблем. Вполне неплохая рабочая платформа. К концу года обещают новое поколение 16нм, в софте уже новые плис добавлены. Ещё у них есть референсные SoC на RISC-V, работают без особых танцев с бубном. Для отладки правда лучше сделать отдельный Soft JTAG.
  9. Работаем с Efinix. По доступности, лицензиям не подскажу. Сами плисины неплохие, MIPI рабочее, контроллер DDR тоже. На официальном ките идёт от них демка с камерой IMX219 и дисплеем на HDMI. Софт похуже чем у Xilinx, но фатальных косяков нету. С мелкими платами типа Xyloni/FireAnt дела не имел.
  10. В абсолютном большинстве нейросети не "пишутся" на каком-то языке, а делаются с применением какого-то фреймворка. Из актуальных это Keras/Tensorflow, Pytorch, Caffe2, CNTK, OpenVINO для Интела.
  11. Все нейросети это одно большое матричное умножение. Алгоритмы Штрассена и Винограда ограниченно используются. Какое-то время Нвидия тоже экспериментировала с умножением по Винограду, было в их библиотеках. Поищите статьи по Strassennets, Wnograd convolution.
  12. ТС, в какой среде (фреймворке) работаете? Задача типичная, во всех ML-тулкитах (в питоне наверное самый простой будет scikit-learn) есть готовые инструменты. Кстати не факт что нейросеть покажет лучшую точность, вполне вероятно что регрессия или метод опорных векторов справятся лучше. Советую посмотреть примеры и курсы по машинному обучению. Лично мне понравилась документация к Матлабу (у них хороший тулкит для численных данных а не распознавания образов) и курс Andrew Ng. Оба очень простые.
  13. Спасибо всем откликнувшимся, исполнитель найден.
  14. Ищу специалиста хорошо знакомого с архитектурой PSOC5/6 - UDB и DMA для разовой работы с перспективой дальнейшего сотрудничества. Требуется реализовать один алгоритм с использованием цифровых блоков и сделать замеры производительности. Работа полностью удалённая. Подробности в ЛС.
×
×
  • Создать...