Grundlagen des Fine-Tunings für LLMOps-Ingenieure: Full Fine-Tuning vs. PEFT, LoRA und QLoRA

Meistern Sie die Grundlagen des Fine-Tunings für LLMs, von Full Fine-Tuning bis zu PEFT-Strategien wie LoRA und QLoRA, um Modelleffizienz und operative Exzellenz in LLMOps zu gewährleisten.

Grundlagen des Fine-Tunings und Einführung in PEFT

Unit 1: Einführung in das Fine-Tuning von LLMs

Unit 2: Parameter-Efficient Fine-Tuning (PEFT)

Unit 3: LoRA: Low-Rank Adaptation

Unit 4: QLoRA: Quantized LoRA

Praktische Anwendung und Best Practices von LoRA und QLoRA in LLMOps

Unit 1: LoRA/QLoRA in LLMOps-Szenarien

Unit 2: Best Practices und fortgeschrittene Techniken