>>1547052 (OP) Многослойная сеть. Беру схему персептрон и соединяю выход суматора с входом другого персептрона и так сколько мне надо и в конце ставлю активатор да? 1.jpg
>>1547052 (OP) Ты самой сути многослойного перцептрона не понимаешь, т е за каким хуем слои стыковать. Смысл там в том, что полная функция многих аргументов представима через суперпозицию частичных функций от 2х аргументов, теорема Колмогорова-Арнольда. Иффсе, ифффсе. Ничего умнее там нет.
>Правильно мыслю о работе нейрона персептрона? Мыслишь ты неправильно, потому что рисуешь какую-то поебень вместо формул. Учи линал, без линала так и будешь папуасом с этими картинками. Полносвязный слой с 8 входами и 1 выходом - это скалярное произведение вектора входов на вектор весов. Полносвязный слой с 8 входами и 2 выходами - это матричное произведение матрицы весов на вектор входов. Многослойная сеть - это серия таких произведений с применением функции активации.
>>1547053 >Или как ? У тебя второй слой будет бесполезен, потому что у него 1 вход. Если расписать его формулу, будет выход = w1 вход + w2 вход + w3 вход + w4 вход + w5 вход = (w1 + w2 + w3 + w4 + w5) вход Это значит, что можно в формуле вынести вход за скобки и получить, что все твои 5 нейронов эквивалентны одному с суммарным весом. Смысла в таком слое нет. Даже если у тебя в последнем слое 1 выход, в промежуточных слоях должно быть много выходов
>и в конце ставлю активатор да Нет, активатор ставится после каждой линейной операции (для папуасов - после каждого слоя), потому что иначе многослойную нейронку можно будет заменить более мощной однослойной
>>1547052 (OP) Есть k входов. На каждый из входов нейрончик получает циферки помноженные на веса и пропускает их сумму через нелинейность (например релушечка, сигмочка или логистическая функционушечка), если мы пропустим сумму через линейную функцию, то у нас будет обычная скучная линейная регрессия. Полученное значение нейрон отправляет на выход. Вот тебе и простейшая нейронная сеть. Дальше мы можем взять два нейрончика, входы всё те же но веса для каждого нейрончика проинициализируем случайно и по разному, а выходы обоих нейрончиков отправим выходному нейрончику, который опять возьмёт от суммы (уже двух) своих входов нелинейность. Это у нас будет выходной нейрон. Теперь мы знаем как расширять нашу нейросеточку. Чтобы углублять её (добавлять новые слои) мы "вставляем" между выходным нейрончиком и нейрончиками предыдущего слоя ещё какое-то количество нейрончиков выходы которых направляем на выходной, а входы берём с предыдущего слоя. Дальше мы должны посчитать мсешечку или какую-нибудь другую функцию потерь, чтобы сделать бэкпропагэйшн и вычесть минус градиент из веса для каждого нейрончика по соответствующему весу. Так наша сеточка будет обучаться.
>>1547052 (OP) Блин, почему-то кажется, что эти постоянные "да?" в конце очень мило звучать должны, если это кто-то детским голосом будет произностить.
Насчет персептрона, там же все элементарно, ко всему давно реализовано, твоя цель как человека который с эти дело иметь будет - изучить входные данные и выявить закономерность, подготовить данные в понятной алгоритму форме, скормить ему и потом потирать ручки и зарабатывать миллиарды.
Например,пойти ли гулять.
8 входных нейрона
1 хорошая погода
1 есть деньги
1 есть время
1 свободен от дел
1 не хорошая погода
1 нет денег
1 нет времени
1 не свободен от дел
8 весов
1 хорошая погода
1 есть деньги
1 есть время
1 свободен от дел
-1 не хорошая погода
-1 нет денег
-1 нет времени
-1 не свободен от дел
Нейрон активируется от результата 4 и отпускает нас гулять.
Если результат будет 4 идем гулять если результат будет 0 не идем гулять.
Поступили данные 1 1 1 1 0 0 0 0 суммируем 1+1+1+1+0+0+0+0=4
Нейрон получает результат 4 и пускает нас гулять.
Или
Поступили данные 1 1 1 1 0 -1 0 -1 суммируем 1+1+1+1+0+0+0+0=2
Нейрон получает результат 2 и не пускает нас гулять.
Правильно мыслю о работе нейрона персептрона?
А это значит что у многослойной сети нейронов выход одного нейрона соединяется с входом другого нейрона да?
А как тогда происходит это?
Вышел сигнал из сумматора и пошел в другой нейрон да?
И так до активатора да?