KI-Grundlagen

Fine-Tuning

Fine-Tuning ist das gezielte Nachtrainieren eines vortrainierten KI-Modells auf domänenspezifischen Daten. Dabei werden die Gewichte des Modells angepasst, sodass es die Fachsprache, den Stil oder die Entscheidungslogik einer bestimmten Branche oder Aufgabe besser beherrscht — ohne das Modell von Grund auf neu zu trainieren.

Warum ist das relevant?

Fine-Tuning macht den Unterschied zwischen einem generischen KI-Assistenten und einem, der Ihre Branche versteht. Für Unternehmen mit spezialisiertem Vokabular — etwa in der Fertigung, im Recht oder in der Medizintechnik — kann Fine-Tuning die Antwortqualität um 30-50 % steigern. Es ist jedoch aufwendiger als RAG und erfordert qualitativ hochwertige Trainingsdaten.

So setzt IJONIS das ein

Wir evaluieren zunächst, ob RAG oder Fine-Tuning der bessere Ansatz ist — oft reicht RAG aus. Wenn Fine-Tuning nötig ist, nutzen wir LoRA und QLoRA für effizientes Training auf Open-Source-Modellen wie Llama und Mistral. Die Trainingsdaten kuratieren wir gemeinsam mit Ihren Fachexperten.

Häufige Fragen

Wann lohnt sich Fine-Tuning gegenüber RAG?
Fine-Tuning lohnt sich, wenn das Modell einen bestimmten Stil oder Fachsprache beherrschen soll (z. B. medizinische Befundsprache). RAG ist besser, wenn aktuelle Fakten abgerufen werden müssen. In der Praxis kombinieren wir oft beide Ansätze für optimale Ergebnisse.
Wie viele Trainingsdaten braucht man für Fine-Tuning?
Mit LoRA reichen oft schon 500-1.000 qualitativ hochwertige Beispiele für gute Ergebnisse. Entscheidend ist die Qualität, nicht die Menge. Wir empfehlen, mit einem kleinen, sauber kuratierten Datensatz zu starten und iterativ zu verbessern.

Mehr erfahren?

Finden Sie heraus, wie wir diese Technologie für Ihr Unternehmen einsetzen.