Сохранен 8
https://2ch.hk/pr/res/1547052.html
Прошлые домены не функционирует! Используйте адрес ARHIVACH.VC.
24 декабря 2023 г. Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!

Нейросеть как работает?

 Аноним 15/12/19 Вск 06:08:20 #1 №1547052 
изображение.png
Судя по описанию она работает следующим образом.
Например,пойти ли гулять.

8 входных нейрона

1 хорошая погода
1 есть деньги
1 есть время
1 свободен от дел
1 не хорошая погода
1 нет денег
1 нет времени
1 не свободен от дел

8 весов

1 хорошая погода
1 есть деньги
1 есть время
1 свободен от дел
-1 не хорошая погода
-1 нет денег
-1 нет времени
-1 не свободен от дел

Нейрон активируется от результата 4 и отпускает нас гулять.

Если результат будет 4 идем гулять если результат будет 0 не идем гулять.

Поступили данные 1 1 1 1 0 0 0 0 суммируем 1+1+1+1+0+0+0+0=4
Нейрон получает результат 4 и пускает нас гулять.

Или

Поступили данные 1 1 1 1 0 -1 0 -1 суммируем 1+1+1+1+0+0+0+0=2
Нейрон получает результат 2 и не пускает нас гулять.

Правильно мыслю о работе нейрона персептрона?

А это значит что у многослойной сети нейронов выход одного нейрона соединяется с входом другого нейрона да?

А как тогда происходит это?
Вышел сигнал из сумматора и пошел в другой нейрон да?
И так до активатора да?



Аноним 15/12/19 Вск 06:25:53 #2 №1547053 
1.jpg
>>1547052 (OP)
Многослойная сеть.
Беру схему персептрон и соединяю выход суматора с входом другого персептрона и так сколько мне надо и в конце ставлю активатор да?
1.jpg

Или как ?
Аноним 17/12/19 Втр 06:19:34 #3 №1549042 
>>1547052 (OP)
Ты самой сути многослойного перцептрона не понимаешь, т е за каким хуем слои стыковать. Смысл там в том, что полная функция многих аргументов представима через суперпозицию частичных функций от 2х аргументов, теорема Колмогорова-Арнольда. Иффсе, ифффсе. Ничего умнее там нет.
Аноним 17/12/19 Втр 06:47:31 #4 №1549046 
>Правильно мыслю о работе нейрона персептрона?
Мыслишь ты неправильно, потому что рисуешь какую-то поебень вместо формул. Учи линал, без линала так и будешь папуасом с этими картинками. Полносвязный слой с 8 входами и 1 выходом - это скалярное произведение вектора входов на вектор весов. Полносвязный слой с 8 входами и 2 выходами - это матричное произведение матрицы весов на вектор входов.
Многослойная сеть - это серия таких произведений с применением функции активации.

>>1547053
>Или как ?
У тебя второй слой будет бесполезен, потому что у него 1 вход. Если расписать его формулу, будет
выход = w1 вход + w2 вход + w3 вход + w4 вход + w5 вход = (w1 + w2 + w3 + w4 + w5) вход
Это значит, что можно в формуле вынести вход за скобки и получить, что все твои 5 нейронов эквивалентны одному с суммарным весом. Смысла в таком слое нет. Даже если у тебя в последнем слое 1 выход, в промежуточных слоях должно быть много выходов

>и в конце ставлю активатор да
Нет, активатор ставится после каждой линейной операции (для папуасов - после каждого слоя), потому что иначе многослойную нейронку можно будет заменить более мощной однослойной
Аноним 17/12/19 Втр 18:13:38 #5 №1549519 
>>1549042
>Колмогорова-Арнольда
Шварцнегера-Жопеншмульцера
Аноним 17/12/19 Втр 18:22:32 #6 №1549528 
>>1549046
А какой феминитив будет для слова "активатор"?
Аноним 17/12/19 Втр 19:10:09 #7 №1549572 
>>1547052 (OP)
Есть k входов. На каждый из входов нейрончик получает циферки помноженные на веса и пропускает их сумму через нелинейность (например релушечка, сигмочка или логистическая функционушечка), если мы пропустим сумму через линейную функцию, то у нас будет обычная скучная линейная регрессия. Полученное значение нейрон отправляет на выход. Вот тебе и простейшая нейронная сеть. Дальше мы можем взять два нейрончика, входы всё те же но веса для каждого нейрончика проинициализируем случайно и по разному, а выходы обоих нейрончиков отправим выходному нейрончику, который опять возьмёт от суммы (уже двух) своих входов нелинейность. Это у нас будет выходной нейрон. Теперь мы знаем как расширять нашу нейросеточку.
Чтобы углублять её (добавлять новые слои) мы "вставляем" между выходным нейрончиком и нейрончиками предыдущего слоя ещё какое-то количество нейрончиков выходы которых направляем на выходной, а входы берём с предыдущего слоя.
Дальше мы должны посчитать мсешечку или какую-нибудь другую функцию потерь, чтобы сделать бэкпропагэйшн и вычесть минус градиент из веса для каждого нейрончика по соответствующему весу. Так наша сеточка будет обучаться.
Аноним 17/12/19 Втр 21:43:27 #8 №1549715 
>>1547052 (OP)
Блин, почему-то кажется, что эти постоянные "да?" в конце очень мило звучать должны, если это кто-то детским голосом будет произностить.

Насчет персептрона, там же все элементарно, ко всему давно реализовано, твоя цель как человека который с эти дело иметь будет - изучить входные данные и выявить закономерность, подготовить данные в понятной алгоритму форме, скормить ему и потом потирать ручки и зарабатывать миллиарды.
comments powered by Disqus