Transformer haben die NLP-Welt im Sturm erobert: Erhalten Sie einen fundierten und praxisnahen
Überblick über die wichtigsten Methoden und Anwendungen im aktuellen NLP Das Buch wurde von den
Gründern von Hugging Face der Plattform für vortrainierte Transformer-Modelle für TensorFlow
und PyTorch verfasst Hands-On: Jeder Programmierschritt kann in Jupyter Notebooks
nachvollzogen werden Transformer liefern hervorragende Ergebnisse bei der maschinellen
Sprachverarbeitung und haben sich in den letzten Jahren zur vorherrschenden Architektur im
Natural Language Processing (NLP) entwickelt. Dieses Praxisbuch zeigt Data Scientists und
Programmierer_innen wie sie NLP-Modelle mit Hugging Face Transformers einer Python-basierten
Deep-Learning-Bibliothek trainieren und skalieren. Transformer kommen beispielsweise beim
maschinellen Schreiben von Nachrichtenartikeln bei der Verbesserung von Google-Suchanfragen
oder bei Chatbots zum Einsatz. Lewis Tunstall Leandro von Werra und Thomas Wolf die die
Transformers-Bibliothek von Hugging Face mitentwickelt haben erklären in diesem Buch wie
Transformer-basierte Modelle funktionieren und wie Sie sie in Ihre Anwendungen integrieren. Sie
erfahren wie Transformer für eine Vielzahl von Aufgaben erfolgreich eingesetzt werden können.
Erstellen debuggen und optimieren Sie Transformer-Modelle für zentrale NLP-Aufgaben wie
Textklassifizierung Named Entity Recognition oder Question Answering Lernen Sie wie
Transformer für sprachenübergreifendes Transfer Learning verwendet werden Wenden Sie
Transformer auf reale Anwendungsfälle an bei denen nur auf wenige gelabelte Daten
zurückgegriffen werden kann Optimieren Sie Transformer-Modelle für das Deployment mit Techniken
wie Distillation Pruning und Quantisierung Trainieren Sie Transformer von Grund auf und lernen
Sie wie sie auf mehreren GPUs und verteilten Umgebungen skalieren