
Arquiteturas CNN | 389
ResNet
Por último, mas não menos importante, o vencedor do desafio ILSVRC 2015, foi a
Residual Network (http://goo.gl/4puHU5) (ou ResNet), desenvolvida por Kaiming He et
al
12
, que apresentou uma surpreendente taxa de erro nos top-5 abaixo de 3,6%, usando
uma CNN extremamente profunda composta por 152 camadas. A chave para poder
treinar uma rede tão profunda é utilizar conexões skip (também chamadas de shortcuts
connections): o sinal fornecido a uma camada também é adicionado à saída de uma
camada localizada um pouco acima da pilha. Veremos por que isso é útil.
Ao treinar uma rede neural, o objetivo é fazer com que ela modele ...