Sistemas de produção de aprendizagem automática
by Robert Crowe, Hannes Hapke, Emily Caveness, Di Zhu
Capítulo 10. Pesquisa de arquitetura neural
Este trabalho foi traduzido com recurso a IA. Agradecemos o teu feedback e comentários: translation-feedback@oreilly.com
A pesquisa de arquitetura neural (NAS) é uma técnica para automatizar a conceção de redes neurais. Ao executar uma série de permutações de arquitetura, a NAS permite-nos determinar a arquitetura mais óptima para um determinado problema. Os modelos encontrados pela NAS são frequentemente iguais ou superiores às arquitecturas concebidas manualmente para muitos tipos de problemas. Recentemente, tem sido uma área muito ativa tanto na pesquisa como na aplicação prática.
O objetivo do NAS é encontrar uma arquitetura de modelo ideal. Tem em mente que as redes neurais modernas cobrem um enorme espaço de parâmetros, pelo que automatizar a pesquisa com ferramentas como a aprendizagem automática de máquinas (AutoML) faz muito sentido, mas pode exigir muitos recursos de computação.
Neste capítulo, apresentaremos técnicas para otimizar seus modelos de ML, começando com o ajuste de hiperparâmetros, NAS e AutoML. No final deste capítulo, apresentaremos os serviços Cloud para o AutoML.
Afinação de hiperparâmetros
Antes de nos aprofundarmos no NAS, vamos entender o problema que ele resolve analisando um dos processos mais tediosos na modelagem de ML (se feito ingenuamente): o ajuste de hiperparâmetros. Como achas que vais ver, existem semelhanças entre a afinação de hiperparâmetros e o NAS. Vamos assumir que já estás familiarizado ...