
Evitando o Sobreajuste Por Meio da Regularização | 313
Parada Antecipada
Para evitar o sobreajuste do conjunto de treinamento, uma excelente solução é a parada
antecipada (introduzida no Capítulo 4): basta interromper o treinamento quando seu
desempenho no conjunto de validação começa a cair.
Uma forma de implementar isso com o TensorFlow seria avaliar o modelo em um
conjunto de validação posto em intervalos regulares (por exemplo, a cada 50 etapas) e
salvar um snapshot “vencedor” se ele superar os snapshots vencedores anteriores. Conte
o número de etapas desde o último “vencedor” salvo e interrompa o treinamento quan-
do esse número atingir u ...