KAPITEL 8
Erweiterte Sequenzmodellierung für NLP
In diesem Kapitel bauen wir auf den Sequenzmodellierungskonzepten auf, die Thema von Kapitel 6 und 7 gewesen sind, und erweitern sie auf den Bereich der Sequenz-zu-Sequenz-Modellierung. Dabei übernimmt das Modell eine Sequenz als Eingabe und produziert eine andere Sequenz als Ausgabe, die möglicherweise eine andere Länge hat. Beispiele für Sequenz-zu-Sequenz-Probleme treten überall auf. So könnten wir für eine E-Mail eine Antwort und für einen französischen Satz die deutsche Übersetzung vorhersagen oder für einen Artikel die Zusammenfassung schreiben lassen. Wir diskutieren hier auch strukturelle Varianten von Sequenzmodellen: insbesondere die bidirektionalen Modelle. Um möglichst gut von der Sequenzdarstellung ...
Get Natural Language Processing mit PyTorch now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.