Las 10 técnicas principales de aprendizaje profundo que debe conocer

Publicado: 2020-05-29

Tabla de contenido

Introducción

El aprendizaje automático y la IA han cambiado el mundo que nos rodea en los últimos años con su innovación revolucionaria. Además, son las diversas técnicas de aprendizaje profundo las que llevan el aprendizaje automático a un nivel completamente nuevo donde las máquinas pueden aprender a discernir tareas, inspiradas en la red neuronal del cerebro humano. Es la razón por la que tenemos control de voz en nuestros teléfonos inteligentes y controles remotos de TV.

Existen diferentes tipos de modelos de aprendizaje profundo que son precisos y abordan con eficacia problemas que son demasiado complejos para el cerebro humano. Así es cómo:

Las 10 mejores técnicas de aprendizaje profundo

1. Redes neuronales clásicas

También conocidas como redes neuronales totalmente conectadas, a menudo se identifican por sus perceptrones multicapa, donde las neuronas están conectadas a la capa continua. Fue diseñado por Fran Rosenblatt, un psicólogo estadounidense, en 1958. Implica la adaptación del modelo en entradas de datos binarios fundamentales. Hay tres funciones incluidas en este modelo: son:

  • Función lineal: correctamente denominada, representa una sola línea que multiplica sus entradas con un multiplicador constante.
  • Función no lineal: se divide además en tres subconjuntos:
  1. Curva Sigmoidea: Es una función interpretada como una curva en forma de S con su rango de 0 a 1.
  2. La tangente hiperbólica (tanh) se refiere a la curva en forma de S que tiene un rango de -1 a 1.
  3. Unidad lineal rectificada (ReLU): es una función de un solo punto que produce 0 cuando el valor de entrada es menor que el valor establecido y produce el múltiplo lineal si la entrada es mayor que el valor establecido.

Funciona mejor en:

  1. Cualquier conjunto de datos de tabla que tenga filas y columnas formateadas en CSV
  2. Problemas de clasificación y regresión con la entrada de valores reales
  3. Cualquier modelo con la máxima flexibilidad, como el de ANNS

2. Redes neuronales convolucionales

CNN es un tipo avanzado y de alto potencial del modelo clásico de red neuronal artificial. Está diseñado para abordar una mayor complejidad, preprocesamiento y compilación de datos. Toma como referencia el orden de disposición de las neuronas presentes en la corteza visual del cerebro de un animal.

Las CNN pueden considerarse como uno de los modelos flexibles más eficientes para especializarse en datos de imagen y no imagen. Estos tienen cuatro organizaciones diferentes:

  • Se compone de una sola capa de entrada, que generalmente es una disposición bidimensional de neuronas para analizar datos de imágenes primarias, que es similar a la de los píxeles de las fotografías.
  • Algunas CNN también consisten en una capa de salida unidimensional de neuronas que procesa imágenes en sus entradas, a través de las capas convolucionales conectadas dispersas.
  • Las CNN también cuentan con la presencia de una tercera capa conocida como capa de muestreo para limitar el número de neuronas involucradas en las capas de red correspondientes.
  • En general, las CNN tienen una o varias capas conectadas que conectan el muestreo con las capas de salida.

Este modelo de red puede ayudar a derivar datos de imágenes relevantes en forma de unidades o fragmentos más pequeños. Las neuronas presentes en las capas de convolución son responsables del grupo de neuronas en la capa anterior.

Una vez que los datos de entrada se importan al modelo convolucional, hay cuatro etapas involucradas en la construcción de la CNN:

  • Convolución: el proceso deriva mapas de características de los datos de entrada, seguido de una función aplicada a estos mapas.
  • Max-Pooling: ayuda a CNN a detectar una imagen en función de las modificaciones dadas.
  • Aplanamiento: en esta etapa, los datos generados se aplanan para que una CNN los analice.
  • Conexión completa: a menudo se describe como una capa oculta que compila la función de pérdida de un modelo.

Las CNN son adecuadas para tareas que incluyen reconocimiento de imágenes, análisis de imágenes, segmentación de imágenes, análisis de video y procesamiento de lenguaje natural. Sin embargo, puede haber otros escenarios en los que las redes CNN pueden resultar útiles, como:

  • Conjuntos de datos de imágenes que contienen análisis de documentos OCR
  • Cualquier dato de entrada bidimensional que pueda transformarse aún más en unidimensional para un análisis más rápido
  • El modelo necesita estar involucrado en su arquitectura para producir resultados.

Leer más: Red neuronal convulatoria

3. Redes neuronales recurrentes (RNN)

Los RNN se diseñaron primero para ayudar a predecir secuencias, por ejemplo, el algoritmo de memoria a corto plazo (LSTM) es conocido por sus múltiples funcionalidades. Tales redes funcionan completamente en secuencias de datos de longitud de entrada variable.

El RNN pone el conocimiento obtenido de su estado anterior como valor de entrada para la predicción actual. Por lo tanto, puede ayudar a lograr una memoria a corto plazo en una red, lo que lleva a la gestión eficaz de los cambios en el precio de las acciones u otros sistemas de datos basados ​​en el tiempo.

Como se mencionó anteriormente, hay dos tipos generales de diseños RNN que ayudan a analizar problemas. Ellos son:

  • LSTMs: Útiles en la predicción de datos en secuencias de tiempo, usando memoria. Tiene tres puertas: entrada, salida y olvido.
  • RNN controlados: también útiles en la predicción de datos de secuencias de tiempo a través de la memoria. Tiene dos puertas: Actualizar y Restablecer.

Funciona mejor en:

  • Uno a uno: una sola entrada conectada a una sola salida, como la clasificación de imágenes.
  • Uno a muchos: una sola entrada vinculada a secuencias de salida, como el título de imagen que incluye varias palabras de una sola imagen.
  • Muchos a uno: serie de entradas que generan una sola salida, como el análisis de sentimiento.
  • Muchos a muchos: Serie de entradas que producen series de salidas, como clasificación de video.

También se usa ampliamente en la traducción de idiomas, el modelado de conversaciones y más.

Obtenga el mejor curso de aprendizaje automático en línea de las mejores universidades del mundo. Obtenga programas de maestría, PGP ejecutivo o certificado avanzado para acelerar su carrera.

4. Redes adversarias generativas

Es una combinación de dos técnicas de aprendizaje profundo de redes neuronales: un generador y un discriminador. Mientras que Generator Network produce datos artificiales, Discriminator ayuda a discernir entre datos reales y falsos.

Ambas redes son competitivas, ya que el Generador sigue produciendo datos artificiales idénticos a los datos reales, y el Discriminador detecta continuamente datos reales e irreales. En un escenario donde existe el requisito de crear una biblioteca de imágenes, la red del Generador produciría datos simulados para las imágenes auténticas. Luego generaría una red neuronal de deconvolución.

Luego sería seguido por una red de detección de imágenes para diferenciar entre las imágenes reales y las falsas. A partir de un 50% de probabilidad de precisión , el detector necesita desarrollar su calidad de clasificación ya que el generador crecería mejor en su generación de imágenes artificiales. Tal competencia contribuiría en general a la red en su eficacia y velocidad.

Funciona mejor en:

  • Generación de imágenes y textos
  • Mejora de la imagen
  • Nuevos procesos de descubrimiento de fármacos

5. Mapas autoorganizados

Los SOMs o Self-Organizing Maps operan con la ayuda de datos no supervisados ​​que reducen el número de variables aleatorias en un modelo. En este tipo de técnica de aprendizaje profundo , la dimensión de salida se fija como un modelo bidimensional, ya que cada sinapsis se conecta a sus nodos de entrada y salida.

A medida que cada punto de datos compite por su representación de modelo, el SOM actualiza el peso de los nodos más cercanos o las mejores unidades de coincidencia (BMU) . Según la proximidad de una BMU, el valor de los pesos cambia. Como los pesos se consideran como una característica del nodo en sí mismo, el valor representa la ubicación del nodo en la red.

Funciona mejor en:

  • Cuando los conjuntos de datos no vienen con valores del eje Y
  • Exploraciones de proyectos para analizar el marco del conjunto de datos
  • Proyectos creativos en música, videos y texto con la ayuda de IA

6. Máquinas de Boltzmann

Este modelo de red no viene con ninguna dirección predefinida y por lo tanto tiene sus nodos conectados en un arreglo circular. Debido a tal singularidad, esta técnica de aprendizaje profundo se utiliza para producir parámetros de modelo.

A diferencia de todos los modelos de red deterministas anteriores, el modelo de Máquinas de Boltzmann se conoce como estocástico.

Funciona mejor en:

  • Monitoreo del sistema
  • Puesta en marcha de una plataforma de recomendación binaria
  • Análisis de conjuntos de datos específicos

Leer: Métodos paso a paso para construir su propio sistema de IA hoy

7. Aprendizaje por refuerzo profundo

Antes de entender la técnica de Deep Reinforcement Learning, el aprendizaje por refuerzo se refiere al proceso donde un agente interactúa con un entorno para modificar su estado. El agente puede observar y tomar acciones en consecuencia, el agente ayuda a una red a alcanzar su objetivo interactuando con la situación.

Aquí, en este modelo de red, hay una capa de entrada, una capa de salida y varias capas múltiples ocultas, donde el estado del entorno es la capa de entrada en sí. El modelo funciona en los continuos intentos de predecir la recompensa futura de cada acción realizada en el estado dado de la situación.

Funciona mejor en:

  • Juegos de mesa como ajedrez, póquer
  • Coches sin conductor
  • robótica
  • La gestión del inventario
  • Tareas financieras como la fijación de precios de activos

8. Codificadores automáticos

Uno de los tipos de técnicas de aprendizaje profundo más utilizados , este modelo opera automáticamente en función de sus entradas, antes de tomar una función de activación y decodificación de salida final. Tal formación de cuello de botella conduce a generar categorías menores de datos y aprovechar la mayoría de las estructuras de datos inherentes.

Los Tipos de Autocodificadores son:

  • Disperso : donde las capas ocultas superan en número a la capa de entrada para que se lleve a cabo el enfoque de generalización para reducir el sobreajuste. Limita la función de pérdida y evita que el codificador automático use en exceso todos sus nodos.
  • Eliminación de ruido : aquí, una versión modificada de las entradas se transforma en 0 al azar.
  • Contractivo : adición de un factor de penalización a la función de pérdida para limitar el sobreajuste y la copia de datos, en caso de que la capa oculta supere en número a la capa de entrada.
  • Apilado : para un codificador automático, una vez que se agrega otra capa oculta, conduce a dos etapas de codificación a la de una fase de decodificación.

Funciona mejor en:

  • Detección de características
  • Configuración de un modelo de recomendación atractivo
  • Agregar funciones a grandes conjuntos de datos

Leer: Regularización en Deep Learning

9. Retropropagación

En el aprendizaje profundo , la técnica de backpropagation o back-prop se conoce como el mecanismo central para que las redes neuronales aprendan sobre cualquier error en la predicción de datos. La propagación, por otro lado, se refiere a la transmisión de datos en una dirección determinada a través de un canal dedicado. Todo el sistema puede funcionar de acuerdo con la propagación de la señal en la dirección de avance en el momento de la decisión, y envía de vuelta cualquier dato relacionado con las deficiencias en la red, en sentido inverso.

  • Primero, la red analiza los parámetros y decide sobre los datos.
  • En segundo lugar, se pondera con una función de pérdida
  • En tercer lugar, el error identificado se propaga hacia atrás para autoajustar cualquier parámetro incorrecto.

Funciona mejor en:

  • Depuración de datos

10. Descenso de gradiente

En el contexto matemático, gradiente se refiere a una pendiente que tiene un ángulo medible y se puede representar en una relación entre variables. En esta técnica de aprendizaje profundo , la relación entre el error producido en la red neuronal y el de los parámetros de datos se puede representar como “x” e “y”. Dado que las variables son dinámicas en una red neuronal, el error puede aumentar o disminuir con pequeños cambios.

Muchos profesionales visualizan la técnica como la de un camino fluvial que desciende por las laderas de las montañas. El objetivo de tal método es encontrar la solución óptima. Dado que existe la presencia de varias soluciones mínimas locales en una red neuronal, en las que los datos pueden quedar atrapados y dar lugar a compilaciones incorrectas y más lentas, existen formas de evitar tales eventos.

Como el terreno de la montaña, existen funciones particulares en la red neuronal llamadas funciones convexas, que mantienen el flujo de datos en las tasas esperadas y alcanzan su mínimo. Puede haber diferencias en los métodos tomados por los datos que ingresan al destino final debido a la variación en los valores iniciales de la función.

Funciona mejor en:

  • Actualización de parámetros en un modelo dado

Lea también: 15 ideas interesantes de proyectos de aprendizaje automático para principiantes

Terminando

Existen múltiples técnicas de aprendizaje profundo que vienen con sus funcionalidades y enfoque práctico. Una vez que estos modelos se identifiquen y se coloquen en los escenarios correctos, puede conducir a lograr soluciones de alto nivel basadas en el marco utilizado por los desarrolladores. ¡Buena suerte!

Consulte el Programa de certificación avanzada en aprendizaje automático y nube con IIT Madras, la mejor escuela de ingeniería del país para crear un programa que le enseñe no solo el aprendizaje automático sino también la implementación efectiva del mismo utilizando la infraestructura de la nube. Nuestro objetivo con este programa es abrir las puertas del instituto más selectivo del país y brindar a los estudiantes acceso a profesores y recursos increíbles para dominar una habilidad que está en alto y en crecimiento.

¿Qué son las redes antagónicas generales?

Es un híbrido de dos técnicas de redes neuronales de aprendizaje profundo: generadores y discriminadores. Mientras que Generator Network genera datos ficticios, Discriminator ayuda a distinguir entre datos reales y ficticios. Debido a que el Generador continúa produciendo datos falsos que son idénticos a los datos genuinos, y el Discriminador continúa reconociendo datos reales e irreales, ambas redes son competitivas. La red Generator generará resultados de simulación para las fotografías auténticas en caso de que se requiera una biblioteca de imágenes. Después de eso, crearía una red neuronal de deconvolución.

¿Para qué sirven los mapas autoorganizados?

Los SOM, o mapas autoorganizados, funcionan reduciendo la cantidad de variables aleatorias en un modelo mediante el uso de datos no supervisados. A medida que cada neurona se conecta a sus nodos de entrada y salida, la dimensionalidad del resultado se establece como un modelo bidimensional en este tipo de técnica de aprendizaje profundo. El SOM ajusta el valor de los nodos más cercanos o las mejores unidades coincidentes porque cada punto de datos ofrece su representación de modelo (BMU). El valor de los pesos varía dependiendo de qué tan cerca esté una BMU. Dado que los pesos se consideran características de los nodos en sí mismos, el valor indica la posición del nodo en la red.

¿Qué es la retropropagación?

El algoritmo de propagación hacia atrás o el enfoque de apoyo hacia atrás es el requisito importante para que las redes neuronales aprendan sobre cualquier falla en la predicción de datos en el aprendizaje profundo. Por otro lado, la propagación se refiere a la transferencia de datos en una dirección específica a través de un canal definido. En el momento de la elección, el sistema completo puede funcionar de acuerdo con la propagación de la señal en la dirección directa y envía cualquier dato relacionado con las fallas de la red en la dirección inversa.