El vector de apoyo en el cerebro

El autor:Un sueño pequeño., Creado: 2017-03-23 12:18:01, Actualizado:

El vector de apoyo en el cerebro

La máquina vectorial de soporte (SVM) es un importante clasificador de aprendizaje automático, que utiliza ingeniosamente la transformación no lineal para proyectar características de baja dimensión a alta dimensión, lo que permite realizar tareas de clasificación más complejas (golpe de dimensión). SWM parece usar un truco matemático que coincide con el mecanismo de codificación del cerebro, y podemos leer en un artículo de 2013 en Nature que la conexión superficial entre la comprensión de la conexión profunda entre el aprendizaje automático y el funcionamiento del cerebro es el uso de la máquina para estudiar el cerebro. Título del artículo: La importancia de la selectividad mixta en tareas cognitivas complejas (por Omri Barak al.)

  • El SVM

    ¿De dónde surge esta increíble conexión? Primero, hablemos de la esencia de la codificación neuronal: los animales reciben ciertas señales y actúan de acuerdo con ellas, una es la conversión de señales externas en señales neuronales eléctricas, y la otra es la conversión de señales neuronales en señales de decisión, el primer proceso se llama codificación, el segundo proceso se llama decodificación. Y el verdadero propósito de la codificación neuronal es luego descifrar las señales para tomar decisiones.

    Entonces, vamos a ver cómo se desarrolla la codificación neuronal. Primero, las neuronas pueden considerarse como un circuito RC que ajusta la resistencia y la capacidad según el voltaje externo. Si la señal externa es lo suficientemente grande, conducirá, o se cerrará para representar una señal a través de la frecuencia de la descarga en un cierto tiempo.

    img

    Diagrama: el eje longitudinal es la célula, el eje transversal es el tiempo, y el diagrama muestra cómo extraemos el código neuronal.

    Por supuesto, los vectores en N y la dimensión real de la codificación neuronal son diferentes, ¿cómo se define la dimensión real de la codificación neuronal? Primero, entramos en un espacio en N marcado por este vector en N, y luego le damos todas las combinaciones posibles de tareas, como mostrarle mil imágenes suponiendo que estas imágenes representan el mundo entero, marcar el código neuronal como un punto de este espacio cada vez que lo obtenemos, y finalmente, usamos el pensamiento del álgebra vectorial para ver la dimensión del subespacio que constituye este mil puntos, es decir, la dimensión real de la representación neuronal.

    Además de la dimensión real de la codificación, también tenemos un concepto de la dimensión real de la señal externa, donde la señal se refiere a la señal externa expresada por la red neuronal, por supuesto, si quieres repetir todos los detalles de la señal externa, es un problema infinito, sin embargo, nuestra clasificación y decisión siempre se basan en características clave, un proceso de reducción de dimensión, que es también la idea de PCA. Podemos ver las variables clave en la tarea real como la dimensión real de la tarea, por ejemplo, si quieres controlar el movimiento de un brazo, generalmente solo necesitas controlar el ángulo de rotación de las articulaciones.

    Entonces los científicos se enfrentan a un problema central, ¿por qué resolver este problema con una dimensión de codificación y un número de neuronas mucho más alto que el problema real?

    La neurociencia computacional y el aprendizaje automático nos dicen que las características de alta dimensión de las representaciones neuronales son la base de sus capacidades de aprendizaje universitarias. Las dimensiones de codificación más altas, las capacidades de aprendizaje más altas. Nótese que aquí ni siquiera comenzamos a hablar de redes profundas.

    Tenga en cuenta que la codificación de los nervios discutidos aquí se refiere principalmente a la codificación de los centros nerviosos superiores, como el córtex prefrontal anterior (PFC) que se discute en este artículo, ya que las reglas de codificación de los centros nerviosos inferiores no implican mucho en la clasificación y la toma de decisiones.

    img

    Las áreas superiores del cerebro representadas por PFC

    El misterio de la codificación neuronal también se revela en la relación entre el número de neuronas N, y la dimensión K del problema real (una diferencia que puede alcanzar 200 veces). ¿Por qué el número aparentemente redundante de neuronas puede generar un salto de calidad? Primero, supongamos que cuando nuestra dimensión de codificación es igual a la dimensión de las variables clave en la tarea real, no podremos manejar el problema de clasificación no lineal con un clasificador lineal (supongamos que quieres separar las calabazas de las calabazas, no puedes eliminarlas de las calabazas con un límite lineal), que también es un problema típico que nos resulta difícil de resolver en el aprendizaje profundo y en el aprendizaje automático cuando el SVM no tiene acceso al aprendizaje automático.

    SVM (suporta vectores):

    img

    SVM puede hacer clasificaciones no lineales, como separar los puntos rojos y azules en el gráfico, y con el límite lineal no podemos separar los puntos rojos y azules (gráfico a la izquierda), por lo que el método de SVM es aumentar las dimensiones. Pero simplemente aumentar el número de variables no es posible, como el mapa de x1, x2 a x1, x2, x1 + x2, que en realidad es un espacio lineal bidimensional (un gráfico es un punto rojo y un punto azul en un plano), y solo con la función no lineal (x1 ^ 2, x1 * x2, x2 ^ 2) tenemos un cruce de dimensiones bajas a dimensiones altas, en este caso, es como si tiraras el punto azul al aire, y luego dibujarás un punto en el espacio, y dividirás el plano azul y el punto rojo en el plano derecho.

    De hecho, lo que hacen las redes neuronales reales es exactamente lo mismo. Así, el tipo de clasificación que puede realizar un clasificador lineal (descifrador) aumenta mucho, es decir, tenemos una capacidad de reconocimiento de patrones mucho más fuerte que antes.

    Entonces, ¿cómo se obtiene una dimensión alta de la codificación de las neuronas? No sirve de nada el número de neuronas ópticas más grande. Porque aprendimos el álgebra lineal y sabemos que si tenemos un gran número de neuronas N, y la tasa de descarga de cada neurona está relacionada solo con una característica clave K lineal, entonces la dimensión final de nuestra representación es solo la dimensión del problema en sí mismo, y sus neuronas N no tienen ningún papel.

    img

    Diagrama: Las neuronas 1 y 2 son sensibles solo a las características a y b, respectivamente, las 3 son sensibles a la mezcla lineal de las características a y b, y las 4 son sensibles a la mezcla no lineal de las características. Finalmente, solo la combinación de las neuronas 1, 2 y 4 aumenta la dimensión de la codificación neuronal.

    El nombre oficial de este tipo de codificación es "selectividad mixta", y hasta que no se descubrió el principio de esta codificación, nos pareció incomprensible, ya que es una red neuronal que responde a una señal que parece desordenada. En el sistema nervioso periférico, las neuronas actúan como sensores para extraer y reconocer patrones de diferentes características de la señal. La función de cada neurona es bastante específica, ya que los rodos y conos de la retina son los encargados de recibir los fotones, y luego continúan siendo codificados por las células ganglionares, cada neurona es como un guardia entrenado profesionalmente.

    Cada detalle de la naturaleza es un misterio, una gran cantidad de redundancia y codificación mixta. Esta práctica aparentemente poco profesional, una señal aparentemente confusa, finalmente obtiene una mejor capacidad de cálculo. Con este principio, podemos manejar fácilmente tareas como:

    img

    En esta tarea, los monos son entrenados primero para distinguir si una imagen es la misma que la anterior (recognition) y luego para juzgar el orden en que aparecen dos imágenes diferentes (recall). Para completar esta tarea, los monos deben ser capaces de codificar los diferentes lados de la tarea, como el tipo de tarea (recall o recognition), el tipo de imagen, etc., y esta es la prueba perfecta para experimentar si hay mecanismos de codificación mixtos no lineales.

    Después de leer este artículo, nos dimos cuenta de que diseñar una red neuronal puede mejorar significativamente la capacidad de reconocimiento de patrones si se introducen algunas unidades no lineales, y que el SVM lo ha aplicado para resolver el problema de clasificación no lineal.

    Estudiamos el funcionamiento de las áreas cerebrales, primero procesando los datos con métodos de aprendizaje automático, como encontrar dimensiones clave de problemas con PCA, luego con el pensamiento de reconocimiento de patrones de aprendizaje automático para entender la codificación y decodificación neuronal, y finalmente, si recibimos alguna nueva inspiración, podemos mejorar el método de aprendizaje automático. Para el cerebro o los algoritmos de aprendizaje automático, lo que en última instancia es más importante es obtener la forma más adecuada de representar la información, y con una buena descripción, todo es más fácil.

Traducido y traducido por:


Más.