
大规模训练和部署
TensorFlow
模型
|
613
19.5 练习题
1. SavedModel 包含什么?如何检查其内容?
2. 何时应使用 TF Serving ?它的主要特点是什么?可以使用哪些工具进行部署?
3. 如何跨多个 TF Serving 实例部署一个模型?
4. 什么时候应该使用 gRPC API 而不是 REST API 来查询一个被 TF Serving 服务的模型?
5. TFLite 减少模型大小以使其在移动端或嵌入式设备上运行的不同方式是什么?
6. 什么是量化意识训练,为什么你需要它?
7. 什么是模型并行和数据并行?为什么通常建议使用后者?
8. 在多台服务器上训练模型时,可以使用什么分布式策略?如何选择使用哪一个?
9. 训练模型(你喜欢的任何模型)并将其部署到 TF Serving 或 Google Cloud AI 平台。
编写客户端代码并使用 REST API 或 gRPC 对其进行查询。更新模型并部署新版本。
你的客户代码现在会查询新版本。回滚到第一个版本。
10. 使用镜像策略(Mirrored Strategy)在同一台计算机上的多个 GPU 上训练任何
模型(如果你没有 GPU,你可以用带有 GPU Runtime 的 Colaboratory 来创建两个虚
拟 GPU)。使用 CentralStorageStrategy 再次训练模型并比较训练时间。
11. 使用黑箱超参数调整在 Google Cloud AI 平台上训练一个小模型。
19.6 致谢
在结束本书的最后一章之前,感谢你阅读到本书的最后一段。我真诚地希望你阅读本书 ...