Der Unterschied zwischen KI-Inferenz und Training: Was ist KI-Inferenz?

Von KI-Inferenzen spricht man, wenn ein KI-Modell Vorhersagen oder Inferenzen erstellt. KI-Training ist der Prozess, der es KI-Modellen ermöglicht, genaue Inferenzen zu ziehen.

Was ist KI-Inferenz?

In der künstlichen Intelligenz (KI) ist Inferenz der Prozess, bei dem ein trainiertes maschinelles Lernmodell* Schlussfolgerungen aus brandneuen Daten zieht. Ein inferenzfähiges KI-Modell kann dies auch ohne Beispiele für das gewünschte Ergebnis tun. Mit anderen Worten: Inferenz ist ein KI-Modell in Aktion.

Ein Beispiel für KI-Inferenz wäre ein selbstfahrendes Auto, das in der Lage ist, ein Stoppschild auch auf einer Straße zu erkennen, die es zuvor noch nie befahren hat. Der Prozess, dieses Stoppschild in einem neuen Kontext zu erkennen, ist Inferenz.

Ein anderes Beispiel: Ein maschinelles Lernmodell, das auf der Grundlage früherer Leistungen von Profisportlern trainiert wurde, könnte Vorhersagen über die künftige Leistung eines bestimmten Sportlers treffen, noch bevor dieser einen Vertrag unterschrieben hat. Eine solche Vorhersage ist eine Inferenz.

*Maschinelles Lernen ist eine Form der KI.

Der Unterschied zwischen KI-Inferenz und Training

  • Die erste Phase für ein KI-Modell ist das Training. Das Modell kann durch Versuch und Irrtum trainiert werden oder durch einen Prozess, bei dem Beispiele der gewünschten Eingaben und Ausgaben gezeigt werden, oder durch beides.
  • Inferenz ist der Prozess, der sich an das Training der KI anschließt. Je besser ein Modell trainiert und je feiner es abgestimmt ist, desto besser sind seine Inferenzen – auch wenn Fehlerfreiheit nicht garantiert werden kann.

Um Stoppschilder an neuen Orten erkennen zu können (oder die Leistung eines Profisportlers vorherzusagen), durchlaufen maschinelle Lernmodelle einen Trainingsprozess. Für das autonome Fahrzeug haben die Entwickler dem Modell Tausende oder Millionen von Bildern von Stoppschildern gezeigt. Ein Fahrzeug, in dem das Modell läuft, konnte sogar auf der Straße gefahren werden (mit einem menschlichen Fahrer als Unterstützung), sodass es durch Versuch und Irrtum lernen konnte. Nach ausreichendem Training war das Modell schließlich in der Lage, selbstständig Stoppschilder zu erkennen.

Ressource
Umfrage zeigt, dass Anwendungsmodernisierung den ROI von KI 3x wahrscheinlicher macht

Welche Anwendungsfälle gibt es für KI-Inferenz?

Fast alle realen Anwendungen von KI basieren auf KI-Inferenz. Einige der am häufigsten verwendeten Beispiele sind:

  • Große Sprachmodelle (LLM): Ein an Beispieltexten trainiertes Modell kann Texte parsen und interpretieren, auch wenn es diese noch nie zuvor gesehen hat
  • Prädiktive Analysen: Sobald ein Modell mit früheren Daten trainiert wurde und die Inferenzphase erreicht hat, kann es Vorhersagen auf der Grundlage eingehender Daten treffen
  • E-Mail-Sicherheit: Ein maschinelles Lernmodell kann so trainiert werden, dass es Spam-E-Mails oder Kompromittierungsangriffe auf Geschäfts-E-Mails erkennt und dann Rückschlüsse auf eingehende E-Mail-Nachrichten anwenden kann, sodass E-Mail-Sicherheitsfilter böswillige Nachrichten blockieren können
  • Autonomes Fahren: Wie im obigen Beispiel beschrieben, sind Inferenzen für autonome Fahrzeuge von enormer Bedeutung
  • Forschung: Wissenschaftliche und medizinische Forschung basiert auf der Interpretation von Daten und KI-Inferenz ermöglicht es, Schlussfolgerungen aus diesen Daten zu ziehen
  • Finanzen: Ein Modell, das auf der Grundlage vergangener Marktentwicklungen trainiert wurde, kann (nicht garantierte) Schlussfolgerungen über die zukünftigen Marktentwicklungen ziehen

Wie funktioniert KI-Training?

Beim KI-Training geht es im Wesentlichen darum, KI-Modelle mit großen Datensätzen zu füttern. Diese Datensätze können strukturiert oder unstrukturiert, beschriftet oder unbeschriftet sein. Einige Modelle benötigen spezifische Beispiele für Eingaben und die gewünschten Ausgaben. Andere Modelle – wie Deep-Learning-Modelle – benötigen lediglich Rohdaten. Mit der Zeit lernen die Modelle, Muster oder Korrelationen zu erkennen, und können dann auf der Grundlage neuer Eingaben Inferenzen ziehen.

Mit fortschreitendem Training müssen die Entwickler die Modelle möglicherweise noch verfeinern. Sie lassen das Modell unmittelbar nach dem anfänglichen Trainingsprozess einige Inferenzen ziehen und korrigieren dann die Ergebnisse. Stellen Sie sich vor, ein KI-Modell soll aus einem Datensatz von Haustierfotos die Fotos von Hunden identifizieren. Wenn das Modell stattdessen Katzenfotos erkennt, muss es angepasst werden.

Wie unterscheidet sich der Verbrauch von KI-Rechenleistung bei Inferenz und Training?

KI-Programme erweitern die Fähigkeiten von Computern weit über das bisher Mögliche hinaus. Der Preis dafür ist jedoch ein viel höherer Verbrauch an Rechenleistung als bei herkömmlichen Computerprogrammen. Für einen Menschen erfordert das Lösen einer komplexen mathematischen Gleichung schließlich auch mehr Aufmerksamkeit und Konzentration als das Lösen von „2 + 2“.

Das Training eines KI-Modells kann in Bezug auf die Rechenleistung sehr teuer sein. Dies ist jedoch mehr oder weniger eine einmalige Ausgabe. Wenn ein Modell einmal richtig trainiert ist, muss es im Idealfall nicht mehr trainiert werden. Wenn das Modell an einen neuen Anwendungsfall angepasst werden muss, können Entwickler weniger aufwendige Techniken wie die Low-rank Adaptation (LoRA) verwenden, anstatt das Modell von Grund auf neu zu trainieren.

Die Inferenz geht jedoch weiter. Wenn ein Modell aktiv verwendet wird, wendet es sein Training ständig auf neue Daten an und zieht weitere Inferenzen. Dies erfordert viel Rechenleistung und kann sehr kostspielig sein.

Wie ermöglicht Cloudflare Entwicklern die Durchführung von KI-Inferenzen?

Cloudflare Workers AI bietet Entwicklern Zugang zu GPUs auf der ganzen Welt, um KI-Aufgaben auszuführen. Diese Funktion ist mit Vectorize gekoppelt, einem Dienst zur Erzeugung und Speicherung von Einbettungen maschineller Lernmodelle. Cloudflare bietet auch einen kostengünstigen Objektspeicher für die Verwaltung von Sammlungen von Trainingsdaten an – R2, eine Speicherplattform, die keine Gebühren für ausgehenden Traffic erhebt.

Erfahren Sie mehr darüber , wie Cloudflare es Entwicklern ermöglicht, KI-Inferenz an der Edge auszuführen.

FAQs

Was ist der Unterschied zwischen KI-Training und KI-Inferenz?

KI-Training ist die Anfangsphase der KI-Entwicklung, in der ein Modell lernt. KI-Inferenz hingegen ist die darauffolgende Phase, in der das trainierte Modell sein Wissen auf neue Daten anwendet, um Vorhersagen zu treffen oder Schlussfolgerungen zu ziehen.

Wie funktioniert KI-Training?

Beim KI-Training wird ein Modell mit großen Datensätzen gefüttert, die strukturiert oder unstrukturiert sein können. Das Modell lernt, Muster und Zusammenhänge innerhalb dieser Daten zu erkennen. Entwickler können das Modell auch durch Korrektur seiner ersten Ergebnisse feinabstimmen, ein Prozess, der dem Lernen durch Ausprobieren ähnelt.

Was ist ein Beispiel für KI-Inferenz?

Ein Beispiel für Inferenz ist ein selbstfahrendes Auto, das ein Stoppschild auf einer neuen Straße erkennt. Das Modell, das das Auto steuert, wendet sein Training auf eine Situation an, die es zuvor noch nicht erlebt hat, um eine korrekte Identifizierung vorzunehmen.

Welcher Prozess verbraucht mehr Rechenleistung: Training oder Inferenz?

Das Training eines KI-Modells kann in Bezug auf die Rechenleistung sehr kostspielig sein, das ist jedoch in der Regel eine einmalige Ausgabe. Die Inferenz hingegen ist ein fortlaufender Prozess, der eine erhebliche Menge an Rechenleistung erfordert, da das Modell aktiv auf neue Daten angewendet wird.

Welche gängigen Anwendungsfälle gibt es für KI-Inferenz?

Fast jede reale Anwendung von KI basiert auf Inferenz. Gängige Beispiele sind große Sprachmodelle (LLMs), die auf neue Prompts reagieren, Entwickler, die „Vibe Coding” zum Erstellen von Apps verwenden, prädiktive Analysen zur Erstellung von Prognosen, Cybersicherheitsprodukte zur Identifizierung neuer Schadsoftware-Varianten und Finanzmodelle zur Vorhersage der Marktentwicklung.