Kapitel 12. Fazit
Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com
Damit sind wir am Ende unserer gemeinsamen Reise angelangt. In 11 Kapiteln haben wir die Ursprünge der natürlichen Sprachverarbeitung vorgestellt und nachgezeichnet, wie sich das Gebiet in den letzten zehn Jahren entwickelt hat. Wir haben uns mit den kleinsten Details dieses Bereichs befasst, einschließlich der Vorverarbeitung und Tokenisierung und verschiedener Arten von Worteinbettungen, wie Word2Vec, GloVe und fastText.
Wir haben alles von einfachen rekurrenten Netzen bis hin zu Gated-Varianten wie LSTM und GRUs behandelt. Und wir haben erklärt, wie Aufmerksamkeitsmechanismen, kontextualisierte Worteinbettungen und Transformers dazu beigetragen haben, bisherige Leistungsrekorde zu brechen. Vor allem aber haben wir große, vortrainierte Sprachmodelle verwendet, um Transferlernen durchzuführen und die Modelle zu verfeinern, und wir haben besprochen, wie man die Modelle mit verschiedenen Werkzeugen produktiv macht.
Anstatt uns in der Theorie zu verzetteln, haben wir uns darauf konzentriert, moderne NLP-Techniken anzuwenden, um reale Probleme zu lösen. Wir hoffen, dass dir das geholfen hat, ein besseres Gespür für NLP zu entwickeln, wie es funktioniert und wie du es gut anwenden kannst.
Mittlerweile sollte klar sein, dass der Einstieg in NLP relativ einfach ist, auch dank der offenen Bereitstellung von großen, vortrainierten Sprachmodellen ...
Get Angewandte natürliche Sprachverarbeitung im Unternehmen now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.