Rozdział 12. Rozdzielanie operacji TensorFlow pomiędzy urządzenia i serwery

W rozdziale 11. omówiliśmy kilka technik, które znacząco przyśpieszają proces uczenia: lepszą inicjację wag, normalizację wsadową, zaawansowane optymalizatory i tak dalej. Jednak nawet przy zastosowaniu tych metod trenowanie dużej sieci neuronowej na komputerze wyposażonym w jeden procesor może trwać dni, a nawet tygodnie.

Ten rozdział został poświęcony zagadnieniu rozproszenia obliczeń wykonywanych w środowisku TensorFlow pomiędzy wiele urządzeń (procesory i procesory/karty graficzne) i ich równoległego przetwarzania (patrz rysunek 12.1). Najpierw rozdzielimy operacje obliczeniowe pomiędzy różne podzespoły stanowiące część jednego komputera, a następnie pomiędzy urządzenia ...

Get Uczenie maszynowe z użyciem Scikit-Learn i TensorFlow now with the O’Reilly learning platform.

O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.