Moderne Deep-Learning-Methoden für Sprachanwendungen nutzen
Aktualisiert: 2023-06-11
> findR *
Leistungsfähige State-of-the-Art-Sprachanwendungen mit vortrainierten Transformer-Modellen
Aktualisiert: 2023-06-11
> findR *
Leistungsfähige State-of-the-Art-Sprachanwendungen mit vortrainierten Transformer-Modellen
Aktualisiert: 2023-05-11
> findR *
Moderne Deep-Learning-Methoden für Sprachanwendungen nutzen
Aktualisiert: 2023-05-11
> findR *
Moderne Deep-Learning-Methoden für Sprachanwendungen nutzen
Aktualisiert: 2023-05-11
> findR *
Leistungsfähige State-of-the-Art-Sprachanwendungen mit vortrainierten Transformer-Modellen
Transformer haben die NLP-Welt im Sturm erobert
Von den Gründern von Hugging Face, der Plattform für vortrainierte Transformer-Modelle für TensorFlow und PyTorch
Bietet einen fundierten und praxisnahen Überblick über die wichtigsten Methoden und Anwendungen im aktuellen NLP
Hands-On: Jeder Programmierschritt kann in Jupyter Notebooks nachvollzogen werden
Transformer haben sich seit ihrer Einführung nahezu über Nacht zur vorherrschenden Architektur im Natural Language Processing entwickelt. Sie liefern die besten Ergebnisse für eine Vielzahl von Aufgaben bei der maschinellen Sprachverarbeitung. Wenn Sie Data Scientist oder Programmierer sind, zeigt Ihnen dieses praktische Buch, wie Sie NLP-Modelle mit Hugging Face Transformers, einer Python-basierten Deep-Learning-Bibliothek, trainieren und skalieren können.Transformer kommen beispielsweise beim maschinellen Schreiben von Nachrichtenartikeln zum Einsatz, bei der Verbesserung von Google-Suchanfragen oder bei Chatbots. In diesem Handbuch zeigen Ihnen Lewis Tunstall, Leandro von Werra und Thomas Wolf, die auch die Transformers-Bibliothek von Hugging Face mitentwickelt haben, anhand eines praktischen Ansatzes, wie Transformer-basierte Modelle funktionieren und wie Sie sie in Ihre Anwendungen integrieren können. Sie werden schnell eine Vielzahl von Aufgaben wie Textklassifikation, Named Entity Recognition oder Question Answering kennenlernen, die Sie mit ihnen lösen können.
Aktualisiert: 2023-05-08
> findR *
Leistungsfähige State-of-the-Art-Sprachanwendungen mit vortrainierten Transformer-Modellen
Transformer haben die NLP-Welt im Sturm erobert
Von den Gründern von Hugging Face, der Plattform für vortrainierte Transformer-Modelle für TensorFlow und PyTorch
Bietet einen fundierten und praxisnahen Überblick über die wichtigsten Methoden und Anwendungen im aktuellen NLP
Hands-On: Jeder Programmierschritt kann in Jupyter Notebooks nachvollzogen werden
Transformer haben sich seit ihrer Einführung nahezu über Nacht zur vorherrschenden Architektur im Natural Language Processing entwickelt. Sie liefern die besten Ergebnisse für eine Vielzahl von Aufgaben bei der maschinellen Sprachverarbeitung. Wenn Sie Data Scientist oder Programmierer sind, zeigt Ihnen dieses praktische Buch, wie Sie NLP-Modelle mit Hugging Face Transformers, einer Python-basierten Deep-Learning-Bibliothek, trainieren und skalieren können.Transformer kommen beispielsweise beim maschinellen Schreiben von Nachrichtenartikeln zum Einsatz, bei der Verbesserung von Google-Suchanfragen oder bei Chatbots. In diesem Handbuch zeigen Ihnen Lewis Tunstall, Leandro von Werra und Thomas Wolf, die auch die Transformers-Bibliothek von Hugging Face mitentwickelt haben, anhand eines praktischen Ansatzes, wie Transformer-basierte Modelle funktionieren und wie Sie sie in Ihre Anwendungen integrieren können. Sie werden schnell eine Vielzahl von Aufgaben wie Textklassifikation, Named Entity Recognition oder Question Answering kennenlernen, die Sie mit ihnen lösen können.
Aktualisiert: 2023-05-08
> findR *
Leistungsfähige State-of-the-Art-Sprachanwendungen mit vortrainierten Transformer-Modellen
Transformer haben die NLP-Welt im Sturm erobert
Von den Gründern von Hugging Face, der Plattform für vortrainierte Transformer-Modelle für TensorFlow und PyTorch
Bietet einen fundierten und praxisnahen Überblick über die wichtigsten Methoden und Anwendungen im aktuellen NLP
Hands-On: Jeder Programmierschritt kann in Jupyter Notebooks nachvollzogen werden
Transformer haben sich seit ihrer Einführung nahezu über Nacht zur vorherrschenden Architektur im Natural Language Processing entwickelt. Sie liefern die besten Ergebnisse für eine Vielzahl von Aufgaben bei der maschinellen Sprachverarbeitung. Wenn Sie Data Scientist oder Programmierer sind, zeigt Ihnen dieses praktische Buch, wie Sie NLP-Modelle mit Hugging Face Transformers, einer Python-basierten Deep-Learning-Bibliothek, trainieren und skalieren können.Transformer kommen beispielsweise beim maschinellen Schreiben von Nachrichtenartikeln zum Einsatz, bei der Verbesserung von Google-Suchanfragen oder bei Chatbots. In diesem Handbuch zeigen Ihnen Lewis Tunstall, Leandro von Werra und Thomas Wolf, die auch die Transformers-Bibliothek von Hugging Face mitentwickelt haben, anhand eines praktischen Ansatzes, wie Transformer-basierte Modelle funktionieren und wie Sie sie in Ihre Anwendungen integrieren können. Sie werden schnell eine Vielzahl von Aufgaben wie Textklassifikation, Named Entity Recognition oder Question Answering kennenlernen, die Sie mit ihnen lösen können.
Aktualisiert: 2023-05-08
> findR *
Sprachanwendungen wie Amazon Alexa und Google Translate sind heute allgegenwärtig. Grundlage dafür ist das Natural Language Processing (NLP), das zahllose Möglichkeiten für die Entwicklung intelligenter, Deep-Learning-basierter Anwendungen eröffnet. In diesem Buch lernen Sie die neuesten Techniken zur Verarbeitung von Sprache kennen und nutzen dabei das flexible Deep-Learning-Framework PyTorch.
Delip Rao und Brian McMahan geben Ihnen einen Überblick über NLP-Methoden und Grundkonzepte neuronaler Netze und demonstrieren Ihnen dann, wie Sie Sprachanwendungen mit PyTorch entwickeln. Der umfangreiche Beispielcode unterstützt Sie dabei, die gezeigten Techniken nachzuvollziehen und auf Ihre konkreten Aufgabenstellungen zu übertragen.
- Erkunden Sie Berechnungsgraphen und das Paradigma des überwachten Lernens
- Beherrschen Sie die Grundlagen der PyTorch-Bibliothek, die für Tensor-Manipulationen optimiert wurde
- Verschaffen Sie sich einen Überblick über traditionelle NLP-Konzepte und -Methoden
- Machen Sie sich mit den Grundkonzepten von neuronalen Netzen vertraut
- Untersuchen Sie Feedforward-Netze, wie zum Beispiel das mehrschichtige Perzeptron
- Verwenden Sie Einbettungen, um Wörter, Sätze, Dokumente und andere Features darzustellen
- Verstehen Sie, wie sich Sequenzdaten mit rekurrenten neuronalen Netzen modellieren lassen
- Erkunden Sie Sequenzvoraussagen und generieren Sie Sequenz-zu-Sequenz-Modelle
- Lernen Sie Entwurfsmuster für den Aufbau von produktionsreifen NLP-Systemen kennen
"Ein fantastisches Buch, um in NLP und Deep Learning mit PyTorch einzutauchen. Delip und Brian haben großartige Arbeit geleistet, sie erklären NLP-Konzepte verständlich und demonstrieren sie in jedem Kapitel anhand von Beispielcode, um damit praktische NLPAufgaben zu lösen."
— Liling Tan
Research Scientist bei Rakuten
Aktualisiert: 2023-05-08
> findR *
Sprachanwendungen wie Amazon Alexa und Google Translate sind heute allgegenwärtig. Grundlage dafür ist das Natural Language Processing (NLP), das zahllose Möglichkeiten für die Entwicklung intelligenter, Deep-Learning-basierter Anwendungen eröffnet. In diesem Buch lernen Sie die neuesten Techniken zur Verarbeitung von Sprache kennen und nutzen dabei das flexible Deep-Learning-Framework PyTorch.
Delip Rao und Brian McMahan geben Ihnen einen Überblick über NLP-Methoden und Grundkonzepte neuronaler Netze und demonstrieren Ihnen dann, wie Sie Sprachanwendungen mit PyTorch entwickeln. Der umfangreiche Beispielcode unterstützt Sie dabei, die gezeigten Techniken nachzuvollziehen und auf Ihre konkreten Aufgabenstellungen zu übertragen.
- Erkunden Sie Berechnungsgraphen und das Paradigma des überwachten Lernens
- Beherrschen Sie die Grundlagen der PyTorch-Bibliothek, die für Tensor-Manipulationen optimiert wurde
- Verschaffen Sie sich einen Überblick über traditionelle NLP-Konzepte und -Methoden
- Machen Sie sich mit den Grundkonzepten von neuronalen Netzen vertraut
- Untersuchen Sie Feedforward-Netze, wie zum Beispiel das mehrschichtige Perzeptron
- Verwenden Sie Einbettungen, um Wörter, Sätze, Dokumente und andere Features darzustellen
- Verstehen Sie, wie sich Sequenzdaten mit rekurrenten neuronalen Netzen modellieren lassen
- Erkunden Sie Sequenzvoraussagen und generieren Sie Sequenz-zu-Sequenz-Modelle
- Lernen Sie Entwurfsmuster für den Aufbau von produktionsreifen NLP-Systemen kennen
"Ein fantastisches Buch, um in NLP und Deep Learning mit PyTorch einzutauchen. Delip und Brian haben großartige Arbeit geleistet, sie erklären NLP-Konzepte verständlich und demonstrieren sie in jedem Kapitel anhand von Beispielcode, um damit praktische NLPAufgaben zu lösen."
— Liling Tan
Research Scientist bei Rakuten
Aktualisiert: 2023-05-08
> findR *
Leistungsfähige State-of-the-Art-Sprachanwendungen mit vortrainierten Transformer-Modellen
Transformer haben die NLP-Welt im Sturm erobert
Von den Gründern von Hugging Face, der Plattform für vortrainierte Transformer-Modelle für TensorFlow und PyTorch
Bietet einen fundierten und praxisnahen Überblick über die wichtigsten Methoden und Anwendungen im aktuellen NLP
Hands-On: Jeder Programmierschritt kann in Jupyter Notebooks nachvollzogen werden
Transformer haben sich seit ihrer Einführung nahezu über Nacht zur vorherrschenden Architektur im Natural Language Processing entwickelt. Sie liefern die besten Ergebnisse für eine Vielzahl von Aufgaben bei der maschinellen Sprachverarbeitung. Wenn Sie Data Scientist oder Programmierer sind, zeigt Ihnen dieses praktische Buch, wie Sie NLP-Modelle mit Hugging Face Transformers, einer Python-basierten Deep-Learning-Bibliothek, trainieren und skalieren können.Transformer kommen beispielsweise beim maschinellen Schreiben von Nachrichtenartikeln zum Einsatz, bei der Verbesserung von Google-Suchanfragen oder bei Chatbots. In diesem Handbuch zeigen Ihnen Lewis Tunstall, Leandro von Werra und Thomas Wolf, die auch die Transformers-Bibliothek von Hugging Face mitentwickelt haben, anhand eines praktischen Ansatzes, wie Transformer-basierte Modelle funktionieren und wie Sie sie in Ihre Anwendungen integrieren können. Sie werden schnell eine Vielzahl von Aufgaben wie Textklassifikation, Named Entity Recognition oder Question Answering kennenlernen, die Sie mit ihnen lösen können.
Aktualisiert: 2023-05-08
> findR *
Sprachanwendungen wie Amazon Alexa und Google Translate sind heute allgegenwärtig. Grundlage dafür ist das Natural Language Processing (NLP), das zahllose Möglichkeiten für die Entwicklung intelligenter, Deep-Learning-basierter Anwendungen eröffnet. In diesem Buch lernen Sie die neuesten Techniken zur Verarbeitung von Sprache kennen und nutzen dabei das flexible Deep-Learning-Framework PyTorch.
Delip Rao und Brian McMahan geben Ihnen einen Überblick über NLP-Methoden und Grundkonzepte neuronaler Netze und demonstrieren Ihnen dann, wie Sie Sprachanwendungen mit PyTorch entwickeln. Der umfangreiche Beispielcode unterstützt Sie dabei, die gezeigten Techniken nachzuvollziehen und auf Ihre konkreten Aufgabenstellungen zu übertragen.
- Erkunden Sie Berechnungsgraphen und das Paradigma des überwachten Lernens
- Beherrschen Sie die Grundlagen der PyTorch-Bibliothek, die für Tensor-Manipulationen optimiert wurde
- Verschaffen Sie sich einen Überblick über traditionelle NLP-Konzepte und -Methoden
- Machen Sie sich mit den Grundkonzepten von neuronalen Netzen vertraut
- Untersuchen Sie Feedforward-Netze, wie zum Beispiel das mehrschichtige Perzeptron
- Verwenden Sie Einbettungen, um Wörter, Sätze, Dokumente und andere Features darzustellen
- Verstehen Sie, wie sich Sequenzdaten mit rekurrenten neuronalen Netzen modellieren lassen
- Erkunden Sie Sequenzvoraussagen und generieren Sie Sequenz-zu-Sequenz-Modelle
- Lernen Sie Entwurfsmuster für den Aufbau von produktionsreifen NLP-Systemen kennen
"Ein fantastisches Buch, um in NLP und Deep Learning mit PyTorch einzutauchen. Delip und Brian haben großartige Arbeit geleistet, sie erklären NLP-Konzepte verständlich und demonstrieren sie in jedem Kapitel anhand von Beispielcode, um damit praktische NLPAufgaben zu lösen."
— Liling Tan
Research Scientist bei Rakuten
Aktualisiert: 2023-05-08
> findR *
Sprachanwendungen wie Amazon Alexa und Google Translate sind heute allgegenwärtig. Grundlage dafür ist das Natural Language Processing (NLP), das zahllose Möglichkeiten für die Entwicklung intelligenter, Deep-Learning-basierter Anwendungen eröffnet. In diesem Buch lernen Sie die neuesten Techniken zur Verarbeitung von Sprache kennen und nutzen dabei das flexible Deep-Learning-Framework PyTorch.
Delip Rao und Brian McMahan geben Ihnen einen Überblick über NLP-Methoden und Grundkonzepte neuronaler Netze und demonstrieren Ihnen dann, wie Sie Sprachanwendungen mit PyTorch entwickeln. Der umfangreiche Beispielcode unterstützt Sie dabei, die gezeigten Techniken nachzuvollziehen und auf Ihre konkreten Aufgabenstellungen zu übertragen.
- Erkunden Sie Berechnungsgraphen und das Paradigma des überwachten Lernens
- Beherrschen Sie die Grundlagen der PyTorch-Bibliothek, die für Tensor-Manipulationen optimiert wurde
- Verschaffen Sie sich einen Überblick über traditionelle NLP-Konzepte und -Methoden
- Machen Sie sich mit den Grundkonzepten von neuronalen Netzen vertraut
- Untersuchen Sie Feedforward-Netze, wie zum Beispiel das mehrschichtige Perzeptron
- Verwenden Sie Einbettungen, um Wörter, Sätze, Dokumente und andere Features darzustellen
- Verstehen Sie, wie sich Sequenzdaten mit rekurrenten neuronalen Netzen modellieren lassen
- Erkunden Sie Sequenzvoraussagen und generieren Sie Sequenz-zu-Sequenz-Modelle
- Lernen Sie Entwurfsmuster für den Aufbau von produktionsreifen NLP-Systemen kennen
"Ein fantastisches Buch, um in NLP und Deep Learning mit PyTorch einzutauchen. Delip und Brian haben großartige Arbeit geleistet, sie erklären NLP-Konzepte verständlich und demonstrieren sie in jedem Kapitel anhand von Beispielcode, um damit praktische NLPAufgaben zu lösen."
— Liling Tan
Research Scientist bei Rakuten
Aktualisiert: 2023-05-05
> findR *
Leistungsfähige State-of-the-Art-Sprachanwendungen mit vortrainierten Transformer-Modellen
Transformer haben die NLP-Welt im Sturm erobert
Von den Gründern von Hugging Face, der Plattform für vortrainierte Transformer-Modelle für TensorFlow und PyTorch
Bietet einen fundierten und praxisnahen Überblick über die wichtigsten Methoden und Anwendungen im aktuellen NLP
Hands-On: Jeder Programmierschritt kann in Jupyter Notebooks nachvollzogen werden
Transformer haben sich seit ihrer Einführung nahezu über Nacht zur vorherrschenden Architektur im Natural Language Processing entwickelt. Sie liefern die besten Ergebnisse für eine Vielzahl von Aufgaben bei der maschinellen Sprachverarbeitung. Wenn Sie Data Scientist oder Programmierer sind, zeigt Ihnen dieses praktische Buch, wie Sie NLP-Modelle mit Hugging Face Transformers, einer Python-basierten Deep-Learning-Bibliothek, trainieren und skalieren können.Transformer kommen beispielsweise beim maschinellen Schreiben von Nachrichtenartikeln zum Einsatz, bei der Verbesserung von Google-Suchanfragen oder bei Chatbots. In diesem Handbuch zeigen Ihnen Lewis Tunstall, Leandro von Werra und Thomas Wolf, die auch die Transformers-Bibliothek von Hugging Face mitentwickelt haben, anhand eines praktischen Ansatzes, wie Transformer-basierte Modelle funktionieren und wie Sie sie in Ihre Anwendungen integrieren können. Sie werden schnell eine Vielzahl von Aufgaben wie Textklassifikation, Named Entity Recognition oder Question Answering kennenlernen, die Sie mit ihnen lösen können.
Aktualisiert: 2023-05-05
> findR *
Sprachanwendungen wie Amazon Alexa und Google Translate sind heute allgegenwärtig. Grundlage dafür ist das Natural Language Processing (NLP), das zahllose Möglichkeiten für die Entwicklung intelligenter, Deep-Learning-basierter Anwendungen eröffnet. In diesem Buch lernen Sie die neuesten Techniken zur Verarbeitung von Sprache kennen und nutzen dabei das flexible Deep-Learning-Framework PyTorch.
Delip Rao und Brian McMahan geben Ihnen einen Überblick über NLP-Methoden und Grundkonzepte neuronaler Netze und demonstrieren Ihnen dann, wie Sie Sprachanwendungen mit PyTorch entwickeln. Der umfangreiche Beispielcode unterstützt Sie dabei, die gezeigten Techniken nachzuvollziehen und auf Ihre konkreten Aufgabenstellungen zu übertragen.
- Erkunden Sie Berechnungsgraphen und das Paradigma des überwachten Lernens
- Beherrschen Sie die Grundlagen der PyTorch-Bibliothek, die für Tensor-Manipulationen optimiert wurde
- Verschaffen Sie sich einen Überblick über traditionelle NLP-Konzepte und -Methoden
- Machen Sie sich mit den Grundkonzepten von neuronalen Netzen vertraut
- Untersuchen Sie Feedforward-Netze, wie zum Beispiel das mehrschichtige Perzeptron
- Verwenden Sie Einbettungen, um Wörter, Sätze, Dokumente und andere Features darzustellen
- Verstehen Sie, wie sich Sequenzdaten mit rekurrenten neuronalen Netzen modellieren lassen
- Erkunden Sie Sequenzvoraussagen und generieren Sie Sequenz-zu-Sequenz-Modelle
- Lernen Sie Entwurfsmuster für den Aufbau von produktionsreifen NLP-Systemen kennen
"Ein fantastisches Buch, um in NLP und Deep Learning mit PyTorch einzutauchen. Delip und Brian haben großartige Arbeit geleistet, sie erklären NLP-Konzepte verständlich und demonstrieren sie in jedem Kapitel anhand von Beispielcode, um damit praktische NLPAufgaben zu lösen."
— Liling Tan
Research Scientist bei Rakuten
Aktualisiert: 2023-05-05
> findR *
Leistungsfähige State-of-the-Art-Sprachanwendungen mit vortrainierten Transformer-Modellen
Transformer haben die NLP-Welt im Sturm erobert
Von den Gründern von Hugging Face, der Plattform für vortrainierte Transformer-Modelle für TensorFlow und PyTorch
Bietet einen fundierten und praxisnahen Überblick über die wichtigsten Methoden und Anwendungen im aktuellen NLP
Hands-On: Jeder Programmierschritt kann in Jupyter Notebooks nachvollzogen werden
Transformer haben sich seit ihrer Einführung nahezu über Nacht zur vorherrschenden Architektur im Natural Language Processing entwickelt. Sie liefern die besten Ergebnisse für eine Vielzahl von Aufgaben bei der maschinellen Sprachverarbeitung. Wenn Sie Data Scientist oder Programmierer sind, zeigt Ihnen dieses praktische Buch, wie Sie NLP-Modelle mit Hugging Face Transformers, einer Python-basierten Deep-Learning-Bibliothek, trainieren und skalieren können.Transformer kommen beispielsweise beim maschinellen Schreiben von Nachrichtenartikeln zum Einsatz, bei der Verbesserung von Google-Suchanfragen oder bei Chatbots. In diesem Handbuch zeigen Ihnen Lewis Tunstall, Leandro von Werra und Thomas Wolf, die auch die Transformers-Bibliothek von Hugging Face mitentwickelt haben, anhand eines praktischen Ansatzes, wie Transformer-basierte Modelle funktionieren und wie Sie sie in Ihre Anwendungen integrieren können. Sie werden schnell eine Vielzahl von Aufgaben wie Textklassifikation, Named Entity Recognition oder Question Answering kennenlernen, die Sie mit ihnen lösen können.
Aktualisiert: 2023-05-05
> findR *
Leistungsfähige State-of-the-Art-Sprachanwendungen mit vortrainierten Transformer-Modellen
Transformer haben die NLP-Welt im Sturm erobert
Von den Gründern von Hugging Face, der Plattform für vortrainierte Transformer-Modelle für TensorFlow und PyTorch
Bietet einen fundierten und praxisnahen Überblick über die wichtigsten Methoden und Anwendungen im aktuellen NLP
Hands-On: Jeder Programmierschritt kann in Jupyter Notebooks nachvollzogen werden
Transformer haben sich seit ihrer Einführung nahezu über Nacht zur vorherrschenden Architektur im Natural Language Processing entwickelt. Sie liefern die besten Ergebnisse für eine Vielzahl von Aufgaben bei der maschinellen Sprachverarbeitung. Wenn Sie Data Scientist oder Programmierer sind, zeigt Ihnen dieses praktische Buch, wie Sie NLP-Modelle mit Hugging Face Transformers, einer Python-basierten Deep-Learning-Bibliothek, trainieren und skalieren können.Transformer kommen beispielsweise beim maschinellen Schreiben von Nachrichtenartikeln zum Einsatz, bei der Verbesserung von Google-Suchanfragen oder bei Chatbots. In diesem Handbuch zeigen Ihnen Lewis Tunstall, Leandro von Werra und Thomas Wolf, die auch die Transformers-Bibliothek von Hugging Face mitentwickelt haben, anhand eines praktischen Ansatzes, wie Transformer-basierte Modelle funktionieren und wie Sie sie in Ihre Anwendungen integrieren können. Sie werden schnell eine Vielzahl von Aufgaben wie Textklassifikation, Named Entity Recognition oder Question Answering kennenlernen, die Sie mit ihnen lösen können.
Aktualisiert: 2023-05-05
> findR *
Sprachanwendungen wie Amazon Alexa und Google Translate sind heute allgegenwärtig. Grundlage dafür ist das Natural Language Processing (NLP), das zahllose Möglichkeiten für die Entwicklung intelligenter, Deep-Learning-basierter Anwendungen eröffnet. In diesem Buch lernen Sie die neuesten Techniken zur Verarbeitung von Sprache kennen und nutzen dabei das flexible Deep-Learning-Framework PyTorch.
Delip Rao und Brian McMahan geben Ihnen einen Überblick über NLP-Methoden und Grundkonzepte neuronaler Netze und demonstrieren Ihnen dann, wie Sie Sprachanwendungen mit PyTorch entwickeln. Der umfangreiche Beispielcode unterstützt Sie dabei, die gezeigten Techniken nachzuvollziehen und auf Ihre konkreten Aufgabenstellungen zu übertragen.
- Erkunden Sie Berechnungsgraphen und das Paradigma des überwachten Lernens
- Beherrschen Sie die Grundlagen der PyTorch-Bibliothek, die für Tensor-Manipulationen optimiert wurde
- Verschaffen Sie sich einen Überblick über traditionelle NLP-Konzepte und -Methoden
- Machen Sie sich mit den Grundkonzepten von neuronalen Netzen vertraut
- Untersuchen Sie Feedforward-Netze, wie zum Beispiel das mehrschichtige Perzeptron
- Verwenden Sie Einbettungen, um Wörter, Sätze, Dokumente und andere Features darzustellen
- Verstehen Sie, wie sich Sequenzdaten mit rekurrenten neuronalen Netzen modellieren lassen
- Erkunden Sie Sequenzvoraussagen und generieren Sie Sequenz-zu-Sequenz-Modelle
- Lernen Sie Entwurfsmuster für den Aufbau von produktionsreifen NLP-Systemen kennen
"Ein fantastisches Buch, um in NLP und Deep Learning mit PyTorch einzutauchen. Delip und Brian haben großartige Arbeit geleistet, sie erklären NLP-Konzepte verständlich und demonstrieren sie in jedem Kapitel anhand von Beispielcode, um damit praktische NLPAufgaben zu lösen."
— Liling Tan
Research Scientist bei Rakuten
Aktualisiert: 2023-05-05
> findR *
Leistungsfähige State-of-the-Art-Sprachanwendungen mit vortrainierten Transformer-Modellen
Transformer haben die NLP-Welt im Sturm erobert
Von den Gründern von Hugging Face, der Plattform für vortrainierte Transformer-Modelle für TensorFlow und PyTorch
Bietet einen fundierten und praxisnahen Überblick über die wichtigsten Methoden und Anwendungen im aktuellen NLP
Hands-On: Jeder Programmierschritt kann in Jupyter Notebooks nachvollzogen werden
Transformer haben sich seit ihrer Einführung nahezu über Nacht zur vorherrschenden Architektur im Natural Language Processing entwickelt. Sie liefern die besten Ergebnisse für eine Vielzahl von Aufgaben bei der maschinellen Sprachverarbeitung. Wenn Sie Data Scientist oder Programmierer sind, zeigt Ihnen dieses praktische Buch, wie Sie NLP-Modelle mit Hugging Face Transformers, einer Python-basierten Deep-Learning-Bibliothek, trainieren und skalieren können.Transformer kommen beispielsweise beim maschinellen Schreiben von Nachrichtenartikeln zum Einsatz, bei der Verbesserung von Google-Suchanfragen oder bei Chatbots. In diesem Handbuch zeigen Ihnen Lewis Tunstall, Leandro von Werra und Thomas Wolf, die auch die Transformers-Bibliothek von Hugging Face mitentwickelt haben, anhand eines praktischen Ansatzes, wie Transformer-basierte Modelle funktionieren und wie Sie sie in Ihre Anwendungen integrieren können. Sie werden schnell eine Vielzahl von Aufgaben wie Textklassifikation, Named Entity Recognition oder Question Answering kennenlernen, die Sie mit ihnen lösen können.
Aktualisiert: 2023-04-24
> findR *
Leistungsfähige State-of-the-Art-Sprachanwendungen mit vortrainierten Transformer-Modellen
Transformer haben die NLP-Welt im Sturm erobert
Von den Gründern von Hugging Face, der Plattform für vortrainierte Transformer-Modelle für TensorFlow und PyTorch
Bietet einen fundierten und praxisnahen Überblick über die wichtigsten Methoden und Anwendungen im aktuellen NLP
Hands-On: Jeder Programmierschritt kann in Jupyter Notebooks nachvollzogen werden
Transformer haben sich seit ihrer Einführung nahezu über Nacht zur vorherrschenden Architektur im Natural Language Processing entwickelt. Sie liefern die besten Ergebnisse für eine Vielzahl von Aufgaben bei der maschinellen Sprachverarbeitung. Wenn Sie Data Scientist oder Programmierer sind, zeigt Ihnen dieses praktische Buch, wie Sie NLP-Modelle mit Hugging Face Transformers, einer Python-basierten Deep-Learning-Bibliothek, trainieren und skalieren können.Transformer kommen beispielsweise beim maschinellen Schreiben von Nachrichtenartikeln zum Einsatz, bei der Verbesserung von Google-Suchanfragen oder bei Chatbots. In diesem Handbuch zeigen Ihnen Lewis Tunstall, Leandro von Werra und Thomas Wolf, die auch die Transformers-Bibliothek von Hugging Face mitentwickelt haben, anhand eines praktischen Ansatzes, wie Transformer-basierte Modelle funktionieren und wie Sie sie in Ihre Anwendungen integrieren können. Sie werden schnell eine Vielzahl von Aufgaben wie Textklassifikation, Named Entity Recognition oder Question Answering kennenlernen, die Sie mit ihnen lösen können.
Aktualisiert: 2023-04-24
> findR *
MEHR ANZEIGEN
Bücher zum Thema Google Translate
Sie suchen ein Buch über Google Translate? Bei Buch findr finden Sie eine große Auswahl Bücher zum
Thema Google Translate. Entdecken Sie neue Bücher oder Klassiker für Sie selbst oder zum Verschenken. Buch findr
hat zahlreiche Bücher zum Thema Google Translate im Sortiment. Nehmen Sie sich Zeit zum Stöbern und finden Sie das
passende Buch für Ihr Lesevergnügen. Stöbern Sie durch unser Angebot und finden Sie aus unserer großen Auswahl das
Buch, das Ihnen zusagt. Bei Buch findr finden Sie Romane, Ratgeber, wissenschaftliche und populärwissenschaftliche
Bücher uvm. Bestellen Sie Ihr Buch zum Thema Google Translate einfach online und lassen Sie es sich bequem nach
Hause schicken. Wir wünschen Ihnen schöne und entspannte Lesemomente mit Ihrem Buch.
Google Translate - Große Auswahl Bücher bei Buch findr
Bei uns finden Sie Bücher beliebter Autoren, Neuerscheinungen, Bestseller genauso wie alte Schätze. Bücher zum
Thema Google Translate, die Ihre Fantasie anregen und Bücher, die Sie weiterbilden und Ihnen wissenschaftliche
Fakten vermitteln. Ganz nach Ihrem Geschmack ist das passende Buch für Sie dabei. Finden Sie eine große Auswahl
Bücher verschiedenster Genres, Verlage, Autoren bei Buchfindr:
Sie haben viele Möglichkeiten bei Buch findr die passenden Bücher für Ihr Lesevergnügen zu entdecken. Nutzen Sie
unsere Suchfunktionen, um zu stöbern und für Sie interessante Bücher in den unterschiedlichen Genres und Kategorien
zu finden. Unter Google Translate und weitere Themen und Kategorien finden Sie schnell und einfach eine Auflistung
thematisch passender Bücher. Probieren Sie es aus, legen Sie jetzt los! Ihrem Lesevergnügen steht nichts im Wege.
Nutzen Sie die Vorteile Ihre Bücher online zu kaufen und bekommen Sie die bestellten Bücher schnell und bequem
zugestellt. Nehmen Sie sich die Zeit, online die Bücher Ihrer Wahl anzulesen, Buchempfehlungen und Rezensionen zu
studieren, Informationen zu Autoren zu lesen. Viel Spaß beim Lesen wünscht Ihnen das Team von Buchfindr.