Bring your own Data: Hands-on Enterprise AI Assistants in der Cloud
In diesem Workshop nehmen wir eine hands-on Perspektive zur Bewertung von verschiedenen LLM-Varianten (GPT3.5 & 4, Aleph-Alpha, Llama, Mixtral, …), Methoden (RAG, …) und Plattformen ein.
Beginnend mit einer Einführung in die notwendigen technologischen Komponenten vergleichen wir die verfügbaren Optionen, basierend auf Azure, AWS, Google Cloud, Snowflake sowie Databricks.
Anschließend wählen wir einen geeigneten Stack aus und implementieren Schritt für Schritt die Module eines KI-Assistenten (Ansprechen der APIs, Integration in Applikationen, Datenanbindung, …). Dabei diskutieren wir den Umgang mit zentralen Aspekten wie Prompting, Metriken zur Evaluierung und Umgang mit Halluzinationen.
Vorkenntnisse
- grundlegende Programmierkenntnisse (bspw. in Python)
- erste Erfahrungen im Umgang KI-Assistenten
- Umgang mit einer Entwicklungsumgebung / IDE
- Affinität im Umgang mit Daten
- erste Erfahrungen im Umgang mit Cloud-Ressourcen
Lernziele
- Verständnis der beteiligten logischen und technischen Komponenten eines AI Assistants
- lauffähige Implementierung eines angepassten AI Assistenten
- Best Practices zum Umgang mit zentralen Aspekten wie Prompt Engineering, Evaluierung
- Verständnis der noch notwendigen Schritte zur Produktivierung