Le vecteur de support dans le cerveau

Auteur:Le petit rêve, Créé: 2017-03-23 12:18:01, mis à jour:

Le vecteur de support dans le cerveau

La machine vectorielle de support (SVM) est un classificateur important de l'apprentissage automatique, qui utilise habilement des transformations non linéaires pour projeter des caractéristiques de basse dimension en haute dimension, ce qui permet d'effectuer des tâches de classification plus complexes (frappes en haute dimension). SWM semble utiliser une astuce mathématique qui correspond par hasard aux mécanismes codés dans le cerveau, comme nous pouvons le lire dans un article de 2013 de Nature, et la connexion superficielle entre la compréhension de l'apprentissage automatique et le fonctionnement du cerveau est l'utilisation de machine learning pour étudier le cerveau. Titre de l'article: L'importance de la sélectivité mixte dans les tâches cognitives complexes (par Omri Barak al.)

  • SVM

    D'où peut-on voir cette connexion étonnante? Tout d'abord, parlons de l'essence du codage neurologique: les animaux reçoivent un signal et agissent en fonction de celui-ci, l'un transforme le signal externe en signal neurologique, l'autre le transforme en signal décisionnel, le premier processus est appelé codage, le second processus est appelé décoding. Le véritable but du codage neurologique est donc de décoder le signal pour le décoder.

    Alors voyons comment cela se passe. D'abord, les neurones peuvent être considérés comme des circuits RC qui ajustent la résistance et la capacité en fonction de la tension externe. Si le signal externe est suffisamment grand, il est conduit, sinon il se ferme pour représenter un signal par la fréquence de décharge au cours d'une certaine période.

    img

    Le graphique: l'axe longitudinal représente la cellule, l'axe horizontal représente le temps, et le graphique montre comment on extrait le code neuronal.

    Bien sûr, il y a une différence entre le vecteur en N et les dimensions réelles de l'encodage neuronal, comment définir la dimension réelle du codage neuronal? Premièrement, nous entrons dans cet espace en N marqué par le vecteur en N, puis nous donnons toutes les combinaisons possibles de tâches, par exemple, nous vous montrons un millier d'images supposons que ces images représentent le monde entier, marquons chaque fois que nous obtenons le codage neuronal comme un point de cet espace, et enfin nous utilisons la pensée algérique des vecteurs pour voir la dimension du sous-espace constitué par ce millier de points, c'est-à-dire définir la dimension réelle du codage neuronal.

    En plus de la dimension réelle du codage, nous avons une notion de dimension réelle du signal externe, où le signal se réfère au signal externe exprimé par le réseau neuronal. Bien sûr, vous devez répéter tous les détails du signal externe. C'est un problème infini, mais notre classification et nos décisions sont toujours basées sur des caractéristiques clés, un processus de réduction de dimension, c'est aussi l'idée du PCA.

    Alors les scientifiques se posent une question fondamentale: pourquoi essayer de résoudre ce problème avec des dimensions de codage et un nombre de neurones beaucoup plus élevés que le vrai problème?

    Et la neuroscience de calcul et l'apprentissage automatique nous disent que les caractéristiques en haute dimension de la représentation neurale sont la base même de leurs capacités d'apprentissage universitaires robustes. Les dimensions de codage les plus élevées, les capacités d'apprentissage les plus fortes. Remarquez que nous n'avons même pas commencé à parler de réseaux profonds.

    Notez que le codage neural discuté ici se réfère principalement au codage neural des centres nerveux supérieurs, tels que le cortex préfrontal (PFC) discuté dans cet article, car les règles de codage des centres nerveux inférieurs ne sont pas très impliquées dans la classification et la décision.

    img

    Les régions supérieures du cerveau représentées par les PFC

    Tout d'abord, nous supposons que lorsque notre dimension d'encodage est égale à la dimension de la variable clé de la tâche réelle, nous n'arriverons pas à traiter un problème de classification non linéaire à l'aide d'un classeur linéaire (en supposant que vous souhaitiez séparer les gousses de la pastèque, vous ne pouvez pas les séparer de la pastèque à l'aide d'une bordure linéaire), ce qui est également un problème typique que nous avons du mal à résoudre dans l'apprentissage en profondeur et sans l'accès à l'apprentissage automatique par le SVM.

    SVM (supporte le vecteur):

    img

    SVM peut effectuer des classifications non linéaires, par exemple séparer les points rouges et bleus dans un diagramme, les limites linéaires nous empêchent de séparer les points rouges et bleus (graphique de gauche), donc la méthode utilisée par SVM est d'augmenter la dimension. Mais il est impossible d'augmenter simplement le nombre de variables, par exemple de cartographier x1, x2 dans le système x1, x2, x1 + x2 dans l'espace linéaire en deux dimensions (graphique est un diagramme où les points rouges et bleus sont toujours sur un plan), et nous n'avons que des fonctions non linéaires (graphique x1^2, x1*x2, x2^2) pour avoir une transition substantielle de basse dimension à haute dimension.

    En fait, ce que les réseaux neuronaux réels font est exactement le même. Ainsi, le type de classification que peut effectuer un décodeur linéaire augmente considérablement, ce qui signifie que nous avons une reconnaissance de modèle beaucoup plus puissante qu'auparavant.

    Alors, comment obtenir des dimensions élevées de l'encodage des neurones? Plus de neurones optiques n'est pas utile. Parce que nous avons appris l'algèbre linéaire, nous savons que si nous avons un grand nombre de neurones N et que le taux de décharge de chaque neurone n'est lié qu'à une fonction linéaire de la fonction clé K, alors la dimension finale que nous décrivons n'est que la dimension du problème lui-même, vos neurones N n'ont aucun rôle.

    img

    Figure 1: Les neurones 1 et 2 ne sont sensibles qu'aux caractéristiques a et b, respectivement, les neurones 3 sont sensibles aux mélanges linéaires des caractéristiques a et b, et les neurones 4 sont sensibles aux mélanges non linéaires des caractéristiques. Finalement, seules les combinaisons de neurones 1, 2, 4 permettent d'augmenter la dimension de l'encodage neuronal (figure ci-dessous).

    Le nom officiel de ce type de codage est le codage mixte, ce que nous trouvons incompréhensible jusqu'à ce que l'on découvre le principe de ce codage, car il s'agit d'un réseau de neurones qui répond à un signal apparemment désordonné. Dans le système nerveux périphérique, les neurones jouent le rôle de capteurs pour extraire les différentes caractéristiques du signal et reconnaître les modèles. Les fonctions de chaque neurone sont assez spécifiques, comme les tiges et les cônes de la rétine, qui sont responsables de la réception des photons, puis continuent à être codés par les cellules ganglionnaires, chaque neurone étant un gardien professionnel formé.

    Chaque détail de la nature est une énigme, une quantité de redondance et de codage mélangé. Cette approche apparemment non professionnelle, un signal apparemment désordonné, a finalement donné une meilleure capacité de calcul. Avec ce principe, nous pouvons facilement traiter des tâches comme:

    img

    Dans cette tâche, le singe est d'abord formé à la reconnaissance d'une image, puis à la séquence de deux images différentes. Il doit être capable de coder les différents côtés de la tâche, par exemple le type de tâche, la reconnaissance ou la reconnaissance, etc. C'est un excellent test pour savoir s'il existe des mécanismes de codage non linéaires mixtes.

    Après avoir lu cet article, nous avons compris que la conception de réseaux de neurones améliore considérablement la reconnaissance des modèles si des unités non linéaires sont introduites, et que le SVM a appliqué cela pour résoudre les problèmes de classification non linéaires.

    Nous étudions les fonctions des zones du cerveau, en utilisant des méthodes d'apprentissage automatique pour traiter les données, comme trouver les dimensions critiques des problèmes avec PCA, puis en utilisant la pensée de reconnaissance des modèles d'apprentissage automatique pour comprendre le code et le décodeur neurologiques, et finalement, si nous obtenons de nouvelles inspirations, nous pouvons améliorer notre méthode d'apprentissage automatique. Pour le cerveau ou les algorithmes d'apprentissage automatique, le plus important est finalement de trouver la manière la plus appropriée de représenter l'information, et avec une bonne représentation, tout est plus facile à faire.

Transférée de Je connais le fer Xu-Cruiseur Technologies


Plus de