Resumindo, você não pode fazer retropropagação se não tiver uma função objetivo. Você não pode ter uma função objetivo se não tiver uma medida entre um valor previsto e um valor rotulado (dados reais ou de treinamento). Portanto, para alcançar o “aprendizado não supervisionado”, você pode abandonar a capacidade de calcular um gradiente.
Quais são as limitações da retropropagação?
Desvantagens do Algoritmo de Retropropagação:
Ele depende da entrada para executar um problema específico. Sensível a dados complexos/ruidosos. Ele precisa das derivadas das funções de ativação para o tempo de projeto da rede.
Como você corrige a propagação de volta?
Processo de retropropagação em rede neural profunda
- Valores de entrada. X1=0,05. …
- Peso inicial. W1=0,15 w5=0,40. …
- Valores de viés. b1=0,35 b2=0,60.
- Valores Alvos. T1=0,01. …
- Passe para frente. Para encontrar o valor de H1, primeiro multiplicamos o valor de entrada dos pesos como. …
- Passagem para trás na camada de saída. …
- Passagem para trás na camada oculta.
A retropropagação é eficiente?
Backpropagation é eficiente, tornando viável treinar redes multicamadas contendo muitos neurônios enquanto atualiza os pesos para minimizar a perda.
Qual problema a retropropagação resolve ao trabalhar com redes neurais?
Ao ajustar uma rede neural, a retropropagação calcula o gradiente dea função de perda em relação aos pesos da rede para um único exemplo de entrada-saída, e o faz de forma eficiente, ao contrário de um cálculo direto ingênuo do gradiente em relação a cada peso individualmente.