
Углубленное знакомство с PyTorch
425
Эпоха 0 По теря 536.1047
Эпоха 20 П отеря 8.4361
Эпоха 40 П отеря 7.8695
Эпоха 60 П отеря 7.1891
Эпоха 80 П отеря 6.7062
Эпоха 100 Потеря 6.7599
Эпоха 120 Потеря 6.3124
Эпоха 140 Потеря 6.6864
Эпоха 160 Потеря 6.7648
Эпоха 180 Потеря 6.2156
После 200 эпох потеря при обучении близка к 5. Теперь мы можем оценить производи-
тельность регрессии обученной модели на тестовом наборе данных. Чтобы предсказать
целевые значения новых точек данных, передадим их признаки в модель:
>>> with torch.no_grad():
... pred = model(x_test.float())[:, 0]
... loss = loss_fn(pred, y_test)
... print(f'MSE при тестировании: {loss.item(): ...