amaora 25 26 апреля, 2023 Опубликовано 26 апреля, 2023 (изменено) · Жалоба On 4/24/2023 at 10:14 AM, whale said: Вот например нужен нейроный регулятор, если вход >0 вкл 1 выход, если <0 второй, если =0 все вых отк, Для таких простых регуляторов есть теория управления, которая даёт результат гарантированного качества. Нейронный регулятор имеет смысл при управлении сложной нелинейной системой уровня шагающего робота. Можно конечно закрыть глаза и сделать вид, что ничего не знать не хочу, пусть регулятор сам учится, но тогда решение получится избыточно сложное. 1) Если исходные данные представлены в виде пар вход->выход (например можно прокатиться на управляемой системе с другом регулятором). Выбираем структуру сети, так чтобы она была достаточно сложной для аппроксимации зависимостей выходов от входов, но не слишком сложной, чтобы не происходило простого запоминания всех обучающих примеров. Обучаем известными методами: обратное распространение, линейная регрессия. 2) Если исходные данные представлены так же в виде вход->выход но теперь мы не считаем эти выходы эталоном, вместо этого добавляем оценку качества регулирования, оценка даётся для длинной временной последовательности (для эпизода). Стартуем с неким неоптимальным регулятором (например синтезированным по п.1), добавляем в управление случайным элемент и набираем много данных (эпизодов). Получаем уже данные в виде массива {набор пар вход-выход для всего эпизода}->{оценка качества}, исходя из этого рассчитываем например градиент коэффициентов регулятора по оценке качества, двигаем параметры по градиенту. Проводим с новым регулятором следующую серию испытаний и собираем данные эпизодов. Повторяем итерации до достижения необходимого качества. 3) Бывает, что есть только входы. Такую задачу может иметь смысл рассмотреть как часть п.1,п.2 в качестве предварительной обработки данных в случае большого количества входов. Несколько слоёв автоэнкодера или алгоритмы кластеризации. Это называют извлечением особенностей из исходных данных, так в глубоких сетях при работе с изображениями получается сопоставить изображение его текстовому описанию, например. В результате регулятору будет проще работать с этими сжатыми абстрактными особенностями, чем с сырым массивом данных. Изменено 26 апреля, 2023 пользователем amaora Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
whale 6 26 апреля, 2023 Опубликовано 26 апреля, 2023 (изменено) · Жалоба 42 minutes ago, amaora said: Для таких простых регуляторов есть теория управления Это пример был просто для того чтобы понять как работает сеть, естественно никто в здравом уме не будет такую задачу реализовывать на практике. А что был у кого то вариант что двуногий шагающий робот управлялся нейросетью ? Бостон Динамикс например не из их числа ? Распознавание я так понимаю можно применить например для наведения какого нить агрегата на некий объект по камере, например следование за объектом. Изменено 26 апреля, 2023 пользователем whale Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
Obam 38 26 апреля, 2023 Опубликовано 26 апреля, 2023 · Жалоба Двуногих шагающих и в Отечестве худо-бедно разрабатывают (Кубанский ГУ): https://www.youtube.com/watch?v=piOccLKT7rI https://www.youtube.com/watch?v=DRP71htn1MU и не факт, что с НС. Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
Edit2007 3 27 апреля, 2023 Опубликовано 27 апреля, 2023 · Жалоба 13 часов назад, whale сказал: Мне больше для красоты ) На хабре была серия статей про клеточные автоматы. Красоты наберете ... например https://habr.com/ru/articles/718620/ Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
whale 6 27 апреля, 2023 Опубликовано 27 апреля, 2023 (изменено) · Жалоба 3 hours ago, Edit2007 said: На хабре была серия статей про клеточные автоматы Это совсем другая тема, а красоту предпочитаю масляными красками на холсте. Графическое представление сети может помочь в понимании работы, может натолкнут на новые алгоритмы обучения или работы, понять обучается ли сеть, создаются ли устойчивые патерны итд Изменено 27 апреля, 2023 пользователем whale Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
borodach 16 27 апреля, 2023 Опубликовано 27 апреля, 2023 · Жалоба On 4/25/2023 at 11:11 PM, whale said: Вот у меня на яхте например есть автопилот, если я заведу все данные (угол руля, скорость, ускорение, курс, желаемый курс, качку, реакцию руля итд) и рулить человеком, за лето обучится интересно ? Потом сам будет рулить ? Без всяких пид регуляторов? Я думаю это обычное решение уравнения по компенсации передаточной характеристики обратной связью. То есть ваш автопилот и настроит себе pid регулятор в конце концов. Вот вы за рулём автомобиля входите в поворот и в мозге реализуете полноценный PID. Круче поворот - больше руль, пропорция. Поворот заканчивается - плавно начинаете возвращать руль - производная, и т.д. Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
whale 6 27 апреля, 2023 Опубликовано 27 апреля, 2023 (изменено) · Жалоба 2 hours ago, borodach said: То есть ваш автопилот и настроит себе pid регулятор В том то и суть что настроит сам, этож практически чудо или задатки ИИ Изменено 27 апреля, 2023 пользователем whale Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
whale 6 29 апреля, 2023 Опубликовано 29 апреля, 2023 (изменено) · Жалоба Я так понял что нейросеть это просто матрица всех состояний системы, обучая мы подбираем коэфф матрицы так чтобы умножая входную матрицу на матрицу нейросети получим необходимый отклик на выходе. Тогда если у нас есть n входных сигналов и m возможных выходных то кол-во коэфф матрицы будет равно n*m, например если у нас лог элемент два входа n=4 и один выход с двумя состояниями m=2 итого этот элемент описывается нейросетью с 4*2=8 весовых коэфф. Изменено 29 апреля, 2023 пользователем whale Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
amaora 25 29 апреля, 2023 Опубликовано 29 апреля, 2023 · Жалоба 28 minutes ago, whale said: Я так понял что нейросеть это просто матрица всех состояний системы, обучая мы подбираем коэфф матрицы так чтобы умножая входную матрицу на матрицу нейросети получим необходимый отклик на выходе. Последовательность умножений на весовые матрицы, а после каждого умножения может быть нелинейная функция. \(v_{out} = ... f(b_2 + W_2 f(b_1 + W_1 v_{in}))\) Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
whale 6 29 апреля, 2023 Опубликовано 29 апреля, 2023 (изменено) · Жалоба 16 minutes ago, amaora said: Последовательность умножений на весовые матрицы Я к тому что реальный ИИ на такой системе вряд ли получиться построить, в такой системе будет однозначное математическое детерминированние, с любыми функциями. Изменено 29 апреля, 2023 пользователем whale Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
xvr 12 29 апреля, 2023 Опубликовано 29 апреля, 2023 · Жалоба 2 hours ago, amaora said: а после каждого умножения может быть нелинейная функция. ОБЯЗАНА быть нелинейная функция, иначе последовательность умножений матриц сведётся к одной матрице. 2 hours ago, whale said: в такой системе будет однозначное математическое детерминированние, Будет конечно. В неросетях ПОСЛЕ ОБУЧЕНИЯ нет каких либо недетерминированных процессов. Что не мешает им работать и успешно симулировать ИИ Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
whale 6 29 апреля, 2023 Опубликовано 29 апреля, 2023 (изменено) · Жалоба Just now, xvr said: и успешно симулировать ИИ Осталось тогда понять как же человеческий мозг сумел развить в себе самосознание если принцип построения вроде бы тот же разница разве в кол-ве связей. Изменено 29 апреля, 2023 пользователем whale Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
RobFPGA 35 30 апреля, 2023 Опубликовано 30 апреля, 2023 · Жалоба 2 hours ago, whale said: Осталось тогда понять как же человеческий мозг сумел развить в себе самосознание если принцип построения вроде бы тот же разница разве в кол-ве связей. Да все просто - несколько миллионов лет экспериментов над мириадами подопытных "мышек" по мутациям и генетическому отсеву и вот результат - теперь самые смышлёные из выживших пытаются повторить этот процесс за ~50 лет ... Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
xvr 12 30 апреля, 2023 Опубликовано 30 апреля, 2023 · Жалоба 14 hours ago, whale said: Осталось тогда понять как же человеческий мозг сумел развить в себе самосознание если принцип построения вроде бы тот же разница разве в кол-ве связей Когда поймут, вот тогда и можно будет говорить об истинном ИИ 🙂 А если серьёзно, то во первых нейрон мозга гораздо сложнее, чем условня ячейка м нейронной сети. Во вторых количество их в мозгу гораздо больше, чем в любой современной нейронной сети. Ну и в третьих - мозг это скорее аналоговая вычислительныя машина. Сигналы передаются в аналоговом виде и порог срабатывания плавает в небольших пределах. Это вводит момент недетрминированности, чего современные нейронные сети лишены (хотя это может быть легко сэмулированно, кто знает, может уже и ест какая нибудь недетерминированная сетка 🙂 ) Ну и в целом, никто толком не знает, как работает мозг. Нейронные сети лишь краешком захватили то, что мы сумели пока понять. Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
RobFPGA 35 30 апреля, 2023 Опубликовано 30 апреля, 2023 · Жалоба 1 hour ago, xvr said: Ну и в целом, никто толком не знает, как работает мозг. Нейронные сети лишь краешком захватили то, что мы сумели пока понять. Но этот краешек уже впечатляет а некоторых и пугает. Фактически за десяток лет развитие ИИ прошло путь миллионов лет. И те же *GPT уже показывают результаты которые для многих носителей "аналоговых компьютеров" сложны или невозможны. И не только в запоминании вского но и уже в умении "рассуждать" и делать выводы IMHO чего еще не хватает до полного ИИ - быстрой обратной связи для непрерывного дообучения - увеличения/усложнения еще на пару порядков - "котиков" которые будут нравится ИИ ... Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться