Glossar

CPU

Erforsche die wichtige Rolle der CPU bei KI und maschinellem Lernen. Erfahre mehr über ihre Verwendung bei der Datenaufbereitung, Inferenz und wie sie im Vergleich zu GPUs/TPUs abschneidet.

Trainiere YOLO Modelle einfach
mit Ultralytics HUB

Mehr erfahren

Eine Central Processing UnitCPU), oft auch einfach als Prozessor bezeichnet, ist das Herzstück eines Computers, das Befehle ausführt und die wichtigsten Berechnungen durchführt, die für den Betrieb des Systems erforderlich sind. Er führt grundlegende arithmetische, logische, steuerungsrelevante und Ein-/Ausgabe-Operationen aus, die durch Softwarebefehle festgelegt werden. Im Bereich der künstlichen Intelligenz (KI) und des maschinellen Lernens (ML) ist die CPU nach wie vor eine wichtige und vielseitige Komponente, die den gesamten Arbeitsablauf steuert, auch wenn spezialisierte Hardware wie GPUs und TPUs bei der parallelen Verarbeitung von Aufgaben wie dem Training von Deep-Learning-Modellen herausragend sind.

Rolle bei KI und maschinellem Lernen

CPUs sind als Allzweckprozessoren konzipiert, die sich durch die schnelle Ausführung von Befehlsfolgen und die Bewältigung verschiedener Rechenaufgaben auszeichnen. Zu den wichtigsten Merkmalen, die sich auf die Leistung auswirken, gehören die Taktrate (wie viele Operationen pro Sekunde) und die Anzahl der Kerne (die die parallele Ausführung von Aufgaben ermöglichen). Während moderne CPUs von Herstellern wie Intel und AMD verfügen zwar über mehrere Kerne, haben aber nicht die massiv-parallele Architektur von Grafikprozessoren (GPUs) und eignen sich daher weniger für die großen Matrixmultiplikationen, die beim Deep Learning-Training üblich sind.

Allerdings sind CPUs in KI/ML-Pipelines für mehrere wichtige Funktionen unverzichtbar:

  • Datenvorbereitung: Aufgaben wie das Laden von Datensätzen, die Datenbereinigung, -umwandlung und -erweiterung laufen oft effizient auf CPUs. Bibliotheken wie Pandas und Teile von Scikit-learn sind stark auf die CPU angewiesen. Die Aufbereitung von Daten für Computer-Vision-Projekte ist ein üblicher CPU Schritt.
  • Workflow-Orchestrierung: CPUs verwalten den gesamten Ausführungsfluss von ML-Pipelines und koordinieren Aufgaben zwischen verschiedenen Hardwarekomponenten (wie GPUs) und Softwaremodulen.
  • Traditionelle ML-Modelle: Viele klassische ML-Algorithmen, wie z.B. Support Vector Machines (SVM) und Random Forests, werden oft auf CPUs trainiert und laufen effektiv.
  • Inferenz: Während GPUs einen hohen Durchsatz für Inferenzen bieten, werden CPUs häufig für Echtzeit-Inferenzen verwendet, insbesondere in Umgebungen mit begrenzten Ressourcen(Edge AI) oder wenn die Latenzzeit für einzelne Vorhersagen Vorrang vor dem Batch-Durchsatz hat. Frameworks wie ONNX Runtime und Intel OpenVINO bieten optimierte Inferenzmöglichkeiten auf CPUs. Ultralytics können in Formate exportiert werden wie ONNX exportiert werden, damit sie auf CPU eingesetzt werden können (siehe Dokumentation zum Modellexport).
  • Input/Output (I/O) Operationen: Die CPUs übernehmen das Lesen und Schreiben von Daten aus dem Speicher und die Netzwerkkommunikation, die für das Laden von Modellen und Daten unerlässlich ist.

CPU vs. GPU und TPU

Der Hauptunterschied zwischen CPUs, GPUs und TPUs liegt in ihrer Architektur und ihrem Verwendungszweck:

  • CPU: Allzweckprozessor, der für die Ausführung sequenzieller Aufgaben mit geringer Latenz optimiert ist. Er hat ein paar leistungsstarke Kerne. Ideal für Kontrollflüsse, Betriebssystemfunktionen und verschiedene Berechnungen.
  • GPU: Ursprünglich für Grafiken, heute weit verbreitet für KI. Verfügt über Tausende kleinerer Kerne, die für die parallele Verarbeitung großer Datenblöcke (wie Matrizen beim Deep Learning) optimiert sind. Siehe NVIDIA GPUs für Beispiele. Erhebliche Beschleunigung des Trainings für Modelle wie Ultralytics YOLO.
  • TPU: Google maßgeschneiderte Hardware, die speziell für die Beschleunigung von tensor in neuronalen Netzen entwickelt wurde, insbesondere in der TensorFlow Framework. Optimiert für hohen Durchsatz und Effizienz bei bestimmten ML-Workloads.

Selbst in Systemen, die für das Training komplexer Modelle stark auf GPUs oder TPUs angewiesen sind, wie YOLOv10 oder YOLO11verwaltet die CPU das Gesamtsystem, bereitet die Daten auf und übernimmt Teile des Workflows, die nicht für Beschleuniger geeignet sind. Bei der Wahl der richtigen Hardware ist es wichtig, diese Kompromisse zu verstehen, damit die Modelle effizient eingesetzt werden können.

KI/ML-Beispiele aus der realen Welt mit CPU

  1. Natürliche Sprachverarbeitung (NLP) Vorverarbeitung: Aufgaben wie die Tokenisierung, bei der der Text in kleinere Einheiten (Wörter oder Unterwörter) zerlegt wird, sind für die NLP von grundlegender Bedeutung. Bibliotheken wie Hugging Face's Tokenizer führen diese Operationen oft effizient auf der CPU durch, bevor die Daten zur Modellinferenz oder zum Training an eine GPU weitergegeben werden.
  2. Edge Device Inference: Viele Edge-KI-Anwendungen setzen ML-Modelle auf Geräten mit begrenzter Leistung und Rechenressourcen ein, z. B. auf einem Raspberry Pi oder auf Geräten mit ARM-Architektur. In diesen Szenarien läuft die Inferenz oft direkt auf der CPU des Geräts, möglicherweise unter Verwendung optimierter Bibliotheken wie TensorFlow Lite oder OpenVINO um eine akzeptable Leistung für Aufgaben wie die einfache Objekterkennung oder das Aufspüren von Schlüsselwörtern zu erreichen. Die Verwaltung dieser Einsätze kann durch Plattformen wie Ultralytics HUB vereinfacht werden.

Die Fähigkeiten und Grenzen der CPU zu verstehen ist entscheidend für die Entwicklung und Optimierung von KI-Systemen, von der Datenverarbeitung(siehe Leitfaden zur Datenerfassung) bis hin zum effizienten Einsatz auf verschiedenen Hardware-Plattformen.

Alles lesen
OSZAR »