ReLu et Dropout dans CNN

Je suis l'étude des Réseaux de Neurones à Convolution. Je suis confus au sujet de certaines couches de CNN.

Concernant ReLu... je sais juste que c'est la somme d'un infini de la fonction logistique, mais ReLu ne veut pas se connecter à toutes les couches supérieures. Pourquoi avons-nous besoin ReLu, et comment ça fonctionne?

Concernant l'Abandon... Comment abandon de travail? J'ai écouté une présentation vidéo de G. Hinton. Il a dit que c'est une stratégie qui ignore la moitié des nœuds, au hasard, lors de la formation du poids, et la moitié du poids lors de la prédiction. Il dit qu'il a été inspiré par les forêts aléatoires et fonctionne exactement le même que le calcul de la moyenne géométrique de ces formés au hasard des modèles.

Cette stratégie est-elle la même que le décrochage?

Quelqu'un peut-il m'aider à résoudre ce problème?

source d'informationauteur user3783676