Vielen Dank an alle Beteiligten für eine sehr schöne data2day 2024 in Heidelberg! Wir sehen uns im nächsten Jahr wieder – am 4. und 5. November 2025 in Karlsruhe

Große NLP-Modelle: Transfer Learning vs. Few-Shot Learning

Sprachmodelle wie GPT-3 und BERT sind in aller Munde. Sie besitzen ein gewaltiges Sprachverständnis und generieren flüssigen und kohärenten Text. Viele dieser Modelle sind einfach zugänglich und über AI-Plattformen wie Hugging Face frei verfügbar.

Wir werfen deshalb einen Blick auf verschiedene Sprachmodelle, deren Technologien sowie Konzepte. Hierbei gehen wir auf sequenzielles Transferlernen sowie Few-Shot Learning ein und zeigen, wie diese Methoden verwendet und implementiert werden. Weiter stellen wir unseren Showcase vor, der Use-Cases wie Text Completion oder Bias Mitigation interaktiv nutzbar macht.

Vorkenntnisse

  • Grundkenntnisse über Neuronale Netze und Deep Learning sowie in Natural Language Processing
  • Es ist nicht zwingend nötig, aber es hilft, NLP-Sprachmodellen und Transformer-Modellen zu kennen

Lernziele

  • Die Teilnehmenden erhalten einen Einblick in die Entwicklung mit Transformer-Modellen und verstehen die praktischen Herausforderungen von großen Sprachmodellen

Speaker

 

Pascal Fecht
Pascal Fecht ist Software Engineer aus Karlsruhe und arbeitet bei inovex an Anwendungen und Datenprodukten. Er interessiert sich für die Verarbeitung von natürlicher Sprache, insbesondere mit Deep Learning Methoden. Dabei begeistern ihn besonders Schnittstellenthemen zwischen Software Engineering und Data Science, wie Data Versioning und MLOps.

data2day-Newsletter

Ihr möchtet über die data2day
auf dem Laufenden gehalten werden?

 

Anmelden