
360 | Capítulo 12: Distribuindo o TensorFlow Por Dispositivos e Servidores
ambas as metades, portanto haverá muita comunicação entre dispositivos (representada
pelas setas tracejadas). É provável que isso cancele completamente o benefício da com-
putação paralela, já que a comunicação entre dispositivos é lenta (especialmente se for
através de máquinas separadas).
Rede neural
totalmente conectada
Uma camada por dispositivo
Ruim!
Divisão vertical
Não muito boa...
Figura 12-14. Divisão de uma rede neural totalmente conectada
Como veremos no Capítulo 13, algumas arquiteturas de rede neural, como redes neurais
convolucionais, contêm camadas que são conect ...