Schluss mit Prototyp: GPTx und RAG in der Praxis

Die Fähigkeiten der aktuellen GPT-Modelle zur Textgenerierung und Integration existierender Texte mittels Retrieval Augmented Generation (RAG) bieten ein riesiges Anwendungsspektrum.

Christian und Oliver stellen ein innovatives Beispiel aus der Industrie vor und liefern eine Kiste voller praktischer Tipps für die konkrete Umsetzung, unter anderem:

  • Welche Anwendungsbereiche können sinnvoll abgedeckt werden?
  • Vermeidung von Prompt-Injection, Umgang mit Halluzinationen und anderen Plattform "Überraschungen"
  • Wie Datenschutz und Geheimhaltung die Lösung mitprägen

Dieser Vortrag bietet praktische Einblicke für all jene, die die Möglichkeiten von GPT und RAG in eigenen Projekten nutzen möchten.

Vorkenntnisse

Ein Grundverständnis von Sprachmodellen

Lernziele

Eine Idee davon, was man für einen realistischen Einsatz von Sprachmodellen und RAG in Projekten braucht.

Speaker

 

Oliver Zeigermann
Oliver Zeigermann ist Software-Entwickler und -Architekt aus Hamburg. Er entwickelt seit 40 Jahren Software mit unterschiedlichen Ansätzen und Programmiersprachen. In letzter Zeit hat er sich vor allem mit Machine Learning und dessen Auswirkungen auf uns Menschen beschäftigt.

Christian Hidber
Christian Hidber arbeitet bei bSquare als Consultant mit Fokus auf Machine Learning, .Net und Azure. Nach seinem Mathematikstudium doktorierte er an der ETH Zürich und arbeitete als Postdoc am International Computer Science Institute in Berkeley. Aktuell arbeitet er am Einsatz von KI in der Geberit Planungssoftware ProPlanner.

data2day-Newsletter

Ihr möchtet über die data2day
auf dem Laufenden gehalten werden?

 

Anmelden