As 10 principais técnicas de aprendizado profundo que você deve conhecer
Publicados: 2020-05-29Índice
Introdução
Machine Learning e IA mudaram o mundo ao nosso redor nos últimos anos com sua inovação revolucionária. Além disso, são as várias técnicas de aprendizado profundo que levam o aprendizado de máquina a um nível totalmente novo, onde as máquinas podem aprender a discernir tarefas, inspiradas na rede neural do cérebro humano. É a razão pela qual temos controle de voz em nossos smartphones e controles remotos de TV.
Existem diferentes tipos de modelos de aprendizado profundo que são precisos e abordam efetivamente problemas que são muito complexos para o cérebro humano. Veja como:
As 10 principais técnicas de aprendizado profundo
1. Redes Neurais Clássicas
Também conhecida como Redes Neurais Totalmente Conectadas, muitas vezes é identificada por seus perceptrons multicamadas, onde os neurônios estão conectados à camada contínua. Ele foi projetado por Fran Rosenblatt, um psicólogo americano, em 1958. Envolve a adaptação do modelo em entradas de dados binários fundamentais. Existem três funções incluídas neste modelo: são elas:
- Função linear: corretamente denominada, representa uma única linha que multiplica suas entradas com um multiplicador constante.
- Função não linear: é dividida em três subconjuntos:
- Curva Sigmóide: É uma função interpretada como uma curva em forma de S com seu intervalo de 0 a 1.
- A tangente hiperbólica (tanh) refere-se à curva em forma de S com um intervalo de -1 a 1.
- Unidade Linear Retificada (ReLU): É uma função de ponto único que produz 0 quando o valor de entrada é menor que o valor definido e produz o múltiplo linear se a entrada for maior que o valor definido.
Funciona melhor em:
- Qualquer conjunto de dados de tabela que tenha linhas e colunas formatadas em CSV
- Problemas de classificação e regressão com a entrada de valores reais
- Qualquer modelo com a maior flexibilidade, como o do ANNS
2. Redes Neurais Convolucionais
CNN é um tipo avançado e de alto potencial do modelo clássico de rede neural artificial. Ele foi desenvolvido para lidar com maior complexidade, pré-processamento e compilação de dados. Toma como referência a ordem de arranjo dos neurônios presentes no córtex visual de um cérebro animal.
As CNNs podem ser consideradas como um dos modelos flexíveis mais eficientes para especialização em dados de imagem e não imagem. Estes têm quatro organizações diferentes:

- Ele é composto por uma única camada de entrada, que geralmente é um arranjo bidimensional de neurônios para análise de dados primários da imagem, que é semelhante ao dos pixels fotográficos.
- Algumas CNNs também consistem em uma camada de saída unidimensional de neurônios que processa imagens em suas entradas, por meio das camadas convolucionais conectadas espalhadas.
- As CNNs também contam com a presença de uma terceira camada conhecida como camada de amostragem para limitar o número de neurônios envolvidos nas camadas de rede correspondentes.
- Em geral, as CNNs têm uma ou várias camadas conectadas que conectam a amostragem às camadas de saída.
Esse modelo de rede pode ajudar a derivar dados de imagem relevantes na forma de unidades ou pedaços menores. Os neurônios presentes nas camadas de convolução são responsáveis pelo agrupamento de neurônios da camada anterior.
Uma vez que os dados de entrada são importados para o modelo convolucional, há quatro etapas envolvidas na construção da CNN:
- Convolução: O processo deriva mapas de recursos dos dados de entrada, seguidos por uma função aplicada a esses mapas.
- Max-Pooling: Ajuda a CNN a detectar uma imagem com base em determinadas modificações.
- Achatamento: Nesta fase, os dados gerados são então achatados para uma CNN analisar.
- Full Connection: É frequentemente descrito como uma camada oculta que compila a função de perda para um modelo.
As CNNs são adequadas para tarefas, incluindo reconhecimento de imagem, análise de imagem, segmentação de imagem, análise de vídeo e processamento de linguagem natural. No entanto, pode haver outros cenários em que as redes CNN podem ser úteis, como:
- Conjuntos de dados de imagem contendo análise de documentos OCR
- Quaisquer dados de entrada bidimensionais que podem ser transformados em unidimensionais para uma análise mais rápida
- O modelo precisa estar envolvido em sua arquitetura para gerar saída.
Leia mais: Rede neural convulacional
3. Redes Neurais Recorrentes (RNNs)
As RNNs foram inicialmente projetadas para ajudar a prever sequências, por exemplo, o algoritmo Long Short-Term Memory (LSTM) é conhecido por suas múltiplas funcionalidades. Essas redes funcionam inteiramente em sequências de dados de comprimento de entrada variável.
O RNN coloca o conhecimento adquirido de seu estado anterior como um valor de entrada para a previsão atual. Portanto, pode ajudar na obtenção de memória de curto prazo em uma rede, levando ao gerenciamento eficaz das mudanças nos preços das ações ou outros sistemas de dados baseados no tempo.
Como mencionado anteriormente, existem dois tipos gerais de projetos de RNN que ajudam na análise de problemas. Eles estão:
- LSTMs: Úteis na previsão de dados em sequências temporais, usando memória. Possui três portas: Entrada, Saída e Esquecer.
- Gated RNNs: Também útil na previsão de dados de sequências de tempo via memória. Ele tem dois portões — Update e Reset.
Funciona melhor em:
- Um para um: Uma única entrada conectada a uma única saída, como classificação de imagem.
- Um para muitos: uma única entrada vinculada a sequências de saída, como legendas de imagens que incluem várias palavras de uma única imagem.
- Muitos para um: Série de entradas gerando saída única, como Análise de Sentimento.
- Muitos para muitos: Série de entradas gerando séries de saídas, como classificação de vídeo.
Também é amplamente utilizado na tradução de idiomas, modelagem de conversação e muito mais.
Obtenha o melhor curso de aprendizado de máquina online das melhores universidades do mundo. Ganhe Masters, Executive PGP ou Advanced Certificate Programs para acelerar sua carreira.
4. Redes Adversárias Geradoras
É uma combinação de duas técnicas de deep learning de redes neurais – um gerador e um discriminador. Enquanto a Rede Geradora produz dados artificiais, o Discriminador ajuda a discernir entre dados reais e falsos.
Ambas as redes são competitivas, pois o Gerador continua produzindo dados artificiais idênticos aos dados reais – e o Discriminador detecta continuamente dados reais e irreais. Em um cenário onde há um requisito para criar uma biblioteca de imagens, a rede Generator produziria dados simulados para as imagens autênticas. Em seguida, geraria uma rede neural de deconvolução.
Em seguida, seria seguido por uma rede Image Detector para diferenciar entre as imagens reais e falsas. Começando com 50% de chance de acerto , o detector precisa desenvolver sua qualidade de classificação, pois o gerador cresceria melhor em sua geração de imagem artificial. Tal concorrência contribuiria globalmente para a rede em sua eficácia e velocidade.
Funciona melhor em:
- Geração de Imagem e Texto
- Melhoria de imagem
- Processos de descoberta de novos medicamentos
5. Mapas auto-organizados
Os SOMs ou Mapas Auto-Organizáveis operam com a ajuda de dados não supervisionados que reduzem o número de variáveis aleatórias em um modelo. Nesse tipo de técnica de aprendizado profundo , a dimensão de saída é fixada como um modelo bidimensional, pois cada sinapse se conecta a seus nós de entrada e saída.

À medida que cada ponto de dados compete por sua representação de modelo, o SOM atualiza o peso dos nós mais próximos ou Unidades de Melhor Correspondência (BMUs) . Com base na proximidade de uma BMU, o valor dos pesos muda. Como os pesos são considerados uma característica do nó em si, o valor representa a localização do nó na rede.
Funciona melhor em:
- Quando os conjuntos de dados não vêm com valores do eixo Y
- Explorações do projeto para analisar a estrutura do conjunto de dados
- Projetos criativos em música, vídeos e texto com a ajuda da IA
6. Máquinas Boltzmann
Este modelo de rede não vem com nenhuma direção pré-definida e, portanto, tem seus nós conectados em um arranjo circular. Devido a essa singularidade, essa técnica de aprendizado profundo é usada para produzir parâmetros de modelo.
Diferente de todos os modelos de rede determinísticos anteriores, o modelo das Máquinas de Boltzmann é conhecido como estocástico.
Funciona melhor em:
- Monitoramento do sistema
- Configuração de uma plataforma de recomendação binária
- Como analisar conjuntos de dados específicos
Leia: Métodos passo a passo para construir seu próprio sistema de IA hoje
7. Aprendizado por Reforço Profundo
Antes de entender a técnica de Deep Reinforcement Learning, o aprendizado por reforço refere-se ao processo em que um agente interage com um ambiente para modificar seu estado. O agente pode observar e agir de acordo, o agente ajuda a rede a atingir seu objetivo interagindo com a situação.
Aqui, neste modelo de rede, há uma camada de entrada, uma camada de saída e várias camadas múltiplas ocultas – onde o estado do ambiente é a própria camada de entrada. O modelo funciona nas tentativas contínuas de prever a recompensa futura de cada ação tomada em determinado estado da situação.
Funciona melhor em:
- Jogos de tabuleiro como xadrez, pôquer
- Carros autônomos
- Robótica
- Gestão de inventário
- Tarefas financeiras como precificação de ativos
8. Autoencoders
Um dos tipos mais usados de técnicas de deep learning , esse modelo opera automaticamente com base em suas entradas, antes de assumir uma função de ativação e decodificação de saída final. Essa formação de gargalo leva à produção de categorias menores de dados e ao aproveitamento da maioria das estruturas de dados inerentes.
Os Tipos de Autoencoders são:
- Esparso – Onde as camadas ocultas superam a camada de entrada para que a abordagem de generalização ocorra para reduzir o overfitting. Ele limita a função de perda e evita que o autoencoder use demais todos os seus nós.
- Denoising – Aqui, uma versão modificada de entradas é transformada em 0 aleatoriamente.
- Contrativo – Adição de um fator de penalidade à função de perda para limitar o overfitting e a cópia de dados, no caso de camada oculta superando a camada de entrada.
- Empilhado – Para um autoencoder, uma vez que outra camada oculta é adicionada, ela leva a dois estágios de codificação para uma fase de decodificação.
Funciona melhor em:
- Detecção de recursos
- Como configurar um modelo de recomendação atraente
- Adicione recursos a grandes conjuntos de dados
Leia: Regularização em Deep Learning
9. Retropropagação
No aprendizado profundo , a técnica de backpropagation ou back-prop é referida como o mecanismo central para as redes neurais aprenderem sobre quaisquer erros na previsão de dados. A propagação, por outro lado, refere-se à transmissão de dados em uma determinada direção por meio de um canal dedicado. Todo o sistema pode funcionar de acordo com a propagação do sinal no sentido direto no momento da decisão, e envia de volta quaisquer dados referentes a falhas na rede, no sentido inverso.
- Primeiro, a rede analisa os parâmetros e decide sobre os dados
- Em segundo lugar, é ponderado com uma função de perda
- Terceiro, o erro identificado é propagado de volta para autoajustar quaisquer parâmetros incorretos
Funciona melhor em:
- Depuração de dados
10. Descida Gradiente
No contexto matemático, gradiente refere-se a um slop que possui um ângulo mensurável e pode ser representado em uma relação entre variáveis. Nesta técnica de deep learning , a relação entre o erro produzido na rede neural e o dos parâmetros de dados pode ser representada como “x” e “y”. Como as variáveis são dinâmicas em uma rede neural, portanto, o erro pode ser aumentado ou diminuído com pequenas alterações.
Muitos profissionais visualizam a técnica como a de um caminho de rio descendo as encostas das montanhas. O objetivo de tal método é – encontrar a solução ótima. Como há a presença de várias soluções mínimas locais em uma rede neural, nas quais os dados podem ficar presos e levar a compilações mais lentas e incorretas – existem maneiras de evitar tais eventos.

Conforme o terreno da montanha, existem funções particulares na rede neural chamadas de Funções Convexas, que mantém os dados fluindo nas taxas esperadas e alcançando seu mínimo. Pode haver diferenças nos métodos tomados pelos dados que entram no destino final devido à variação nos valores iniciais da função.
Funciona melhor em:
- Atualizando parâmetros em um determinado modelo
Leia também: 15 ideias interessantes de projetos de aprendizado de máquina para iniciantes
Empacotando
Existem várias técnicas de aprendizado profundo que vêm com suas funcionalidades e abordagem prática. Uma vez que esses modelos são identificados e colocados nos cenários certos, isso pode levar à obtenção de soluções de ponta com base na estrutura usada pelos desenvolvedores. Boa sorte!
Confira Programa de Certificação Avançada em Machine Learning & Cloud com o IIT Madras, a melhor escola de engenharia do país para criar um programa que ensine não apenas machine learning, mas também a implantação efetiva do mesmo usando a infraestrutura em nuvem. Nosso objetivo com este programa é abrir as portas do instituto mais seletivo do país e dar aos alunos acesso a incríveis professores e recursos para dominar uma habilidade que está em alta e em crescimento
O que são redes adversárias gerais?
É um híbrido de duas técnicas de rede neural de aprendizado profundo: geradores e discriminadores. Enquanto a Rede Geradora gera dados fictícios, o Discriminador auxilia na distinção entre dados reais e fictícios. Como o Gerador continua a produzir dados falsos idênticos aos dados genuínos – e o Discriminador continua a reconhecer dados reais e irreais – ambas as redes são competitivas. A rede Generator gerará resultados de simulação para as fotografias autênticas em um caso em que uma biblioteca de imagens seja necessária. Depois disso, criaria uma rede neural de deconvolução.
Qual é o uso de mapas auto-organizados?
SOMs, ou mapas auto-organizados, funcionam reduzindo o número de variáveis aleatórias em um modelo usando dados não supervisionados. À medida que cada neurônio se conecta aos seus nós de entrada e saída, a dimensionalidade do resultado é definida como um modelo bidimensional nesse tipo de técnica de aprendizado profundo. O SOM ajusta o valor dos nós mais próximos ou Unidades de Melhor Correspondência porque cada ponto de dados faz lances para sua representação de modelo (BMUs). O valor dos pesos varia dependendo da proximidade de uma BMU. Como os pesos são considerados características do nó em si, o valor significa a posição do nó na rede.
O que é retropropagação?
O algoritmo de retropropagação ou abordagem back-prop é o requisito importante para que as redes neurais aprendam sobre quaisquer falhas na previsão de dados em deep learning. Por outro lado, propagação refere-se à transferência de dados em uma direção específica através de um canal definido. No momento da escolha, o sistema completo pode funcionar de acordo com a propagação do sinal na direção direta, e envia de volta quaisquer dados referentes a falhas de rede na direção reversa.