
340 | Capítulo 12: Distribuindo o TensorFlow Por Dispositivos e Servidores
você também omitir o índice da task (por exemplo, “/j o b:p s” ), o TensorFlow padroniza
em “/ta s k:0” e, se você omitir o nome do job e o índice da task, o TensorFlow padroniza
para o master task da sessão.
Particionando Variáveis em Múltiplos Servidores de Parâmetros
Como veremos em breve, um padrão comum no treinamento de uma rede neural em
uma instalação distribuída é armazenar os parâmetros do modelo em um conjunto de
servidores de parâmetros (ou seja, as tarefas no job “ps”), enquanto outras tarefas se
concentram em cálculos (ou seja, as tarefas no job
“worke ...