Perceptron Multicamada

O foco desta postagem é apresentar ao leitor uma breve introdução sobre rede MLP (Perceptron Multicamada) em sua forma mais comum, e soluções ao implementá-las diretamente em hardware, para prosseguir recomendamos a leitura do post Redes Neurais Artificiais.

A rede MLP é estruturada em três tipos de camadas neurais: entrada, intermediária e saída. A camada de entrada é responsável por receber os estímulos do ambiente a ser classificado e conectá-los à camada intermediária, que têm a função de extrair a maioria das informações comportamentais da aplicação, esta por sua vez é conectada a saída que informa a que classe pertence à amostra recebida na entrada.




O treinamento da rede MLP é realizado demonstrando em sua entrada exemplos do padrão que será aprendido, cada amostra exibida produz uma resposta na saída que é comparada com a desejada, caso sejam diferentes a rede irá gerar um erro que será utilizado para reajustar os pesos de conexão, o ajuste tem início na camada de saída e retorna à camada de entrada, este algoritmo de treinamento é nomeado de backpropagation (propagação reversa).

A função de ativação normalmente utilizada na rede MLP é a sigmóide, este é o ponto mais importante da implementação em hardware, para continuar com a leitura click aqui.




 
IFSP - Iniciação Científica IFSP