The Playbook
Unternehmen Aktualisiert: 20.3.2026

Hugging Face

Hugging Face ist ein US-amerikanisches KI-Unternehmen mit Sitz in New York City, das sich als zentrale Plattform für die Open-Source-KI-Community...

Hugging Face

Hugging Face ist ein US-amerikanisches KI-Unternehmen mit Sitz in New York City, das sich als zentrale Plattform für die Open-Source-KI-Community etabliert hat. Das Unternehmen betreibt eine Art „GitHub für Machine Learning” – einen Hub, auf dem Entwickler, Forscher und Unternehmen KI-Modelle, Datensätze und Anwendungen teilen, entdecken und bereitstellen können. Mit über einer Million gehosteter Modelle und mehr als 50.000 nutzenden Organisationen (Stand Januar 2026) gilt Hugging Face als eine der wichtigsten Infrastrukturplattformen im KI-Ökosystem.

Überblick

MerkmalDetails
TypKI-Plattform / Open-Source ML-Infrastruktur
Gründung2016
HauptsitzNew York City, USA
GründerClément Delangue, Julien Chaumond, Thomas Wolf
CEOClément Delangue
Mitarbeiterca. 684 (Stand Februar 2026)
Bewertung4,5 Mrd. USD (Serie D, August 2023)
Umsatzca. 130 Mio. USD (2024)
Gesamtfinanzierungca. 395–400 Mio. USD
Websitehuggingface.co

Produkte und Services

Hugging Face Hub

Die Kernplattform des Unternehmens – ein cloud-basiertes, Git-gestütztes Repository-System für KI-Modelle, Datensätze und Anwendungen. Der Hub bietet Zugang zu über einer Million vortrainierter Modelle für Text-, Bild-, Audio- und Videoverarbeitung. Organisationen können Modelle versionieren, teilen und kollaborativ weiterentwickeln.

Transformers Library

Die Open-Source-Bibliothek „Transformers” ist das bekannteste Produkt von Hugging Face. Sie bietet tausende vortrainierte Modelle für NLP-Aufgaben wie Textklassifikation, Named Entity Recognition, Frage-Antwort-Systeme und Textgenerierung. Die Bibliothek unterstützt PyTorch, TensorFlow und JAX und hat sich als De-facto-Standard in der NLP-Entwicklung etabliert.

Inference API und Inference Endpoints

Mit der serverlosen Inference API können Entwickler über 45.000 Open-Source-Modelle über einfache API-Aufrufe testen und nutzen. Für produktive Workloads bieten dedizierte Inference Endpoints die Möglichkeit, Modelle als sichere, skalierbare APIs auf verschiedenen Hardware-Konfigurationen bereitzustellen.

Spaces

Spaces ist eine Hosting-Plattform für Machine-Learning-Anwendungen mit integrierten GPU-Ressourcen. Die Plattform hostet über 500.000 Anwendungen und ermöglicht es Entwicklern, interaktive Demos ihrer Modelle zu erstellen und zu teilen.

Enterprise Hub

Für Unternehmenskunden bietet der Enterprise Hub erweiterte Sicherheitsfunktionen wie Single Sign-On (SSO), Ressourcengruppen, Audit-Logs und regionale Datenspeicherung.

Robotik (Reachy)

Seit der Übernahme von Pollen Robotics (April 2025) vertreibt Hugging Face auch den humanoiden Open-Source-Roboter Reachy 2 sowie den kompakteren Reachy Mini, die als Plattformen für Embodied-AI-Forschung und -Entwicklung dienen.

Geschichte und Entwicklung

2016: Gründung in New York City durch die französischen Unternehmer Clément Delangue, Julien Chaumond und Thomas Wolf. Ursprünglich entwickelte das Unternehmen eine Chatbot-App für Teenager – der Name leitet sich vom 🤗-Emoji (Hugging Face) ab.

2018–2019: Das Team begann, internen Code als Open Source auf GitHub zu veröffentlichen. Das Repository „PyTorch-Transformers” erlangte innerhalb weniger Wochen tausende GitHub-Stars, was den strategischen Pivot von einer Consumer-App hin zur Entwickler-Infrastruktur auslöste.

2019: Vollständige Neuausrichtung als Open-Source-KI-Plattform mit Modell-Bibliotheken, Tooling und Infrastruktur. Serie-A-Finanzierung über 15 Mio. USD.

2021: Serie-B-Runde über 40 Mio. USD, weiterer Ausbau der Plattform.

2022: Erreichen des Unicorn-Status mit einer Bewertung von 2 Mrd. USD nach der Serie-C-Runde (100 Mio. USD). Mehr als 10.000 Organisationen nutzen die Plattform.

2023: Größte Finanzierungsrunde (Serie D, 235 Mio. USD) mit strategischen Investoren aus der gesamten Tech-Branche. Bewertung steigt auf 4,5 Mrd. USD.

2025: Übernahme von Pollen Robotics (humanoide Robotik, Frankreich) im April 2025. Anfang 2025 Umstrukturierung mit Entlassung von ca. 4 % der Belegschaft, verbunden mit einer strategischen Verlagerung von kundenspezifischen Enterprise-Deployments hin zu wiederkehrenden Umsätzen über APIs und Abonnements.

2026: Übernahme von GGML.ai im Februar 2026. Die Plattform verzeichnet über 50.000 nutzende Organisationen.

Team und Führung

NamePosition
Clément DelangueMitgründer & CEO
Julien ChaumondMitgründer & CTO
Thomas WolfMitgründer & CSO (Chief Science Officer)
Anthony MoiHead of Infrastructure

Alle drei Gründer stammen aus Frankreich. Clément Delangue leitete vor Hugging Face Produkt- und Marketingteams bei verschiedenen Technologieunternehmen. Julien Chaumond verantwortet die technische Architektur, Thomas Wolf die wissenschaftliche Ausrichtung des Unternehmens.

Investoren und Finanzierung

RundeDatumBetragLead-InvestorWeitere Investoren
Serie ADezember 201915 Mio. USDLux CapitalA.Capital, Betaworks, SV Angel
Serie BMärz 202140 Mio. USDAddition VCLux Capital, A.Capital, Betaworks
Serie CApril 2022100 Mio. USDSequoia CapitalAIX Ventures, Coatue, Lux Capital
Serie DAugust 2023235 Mio. USDSalesforceGoogle, Amazon, Nvidia, Intel, AMD, Qualcomm, IBM, Sound Ventures

Gesamtfinanzierung: ca. 395–400 Mio. USD über 8 Runden von 34 Investoren.

Bemerkenswert ist die breite strategische Investorenbasis in der Serie D: Mit Google, Amazon, Nvidia, Intel, AMD, Qualcomm und IBM haben nahezu alle großen Chip- und Cloud-Hersteller in Hugging Face investiert – ein Zeichen für die zentrale Rolle der Plattform im KI-Ökosystem.

Unter den Angel-Investoren finden sich u.a. Greg Brockman (Mitgründer von OpenAI), Richard Socher (ehem. Chief Scientist bei Salesforce) und Olivier Pomel (CEO von Datadog).

Hinweis zur Exit-Prognose: Hugging Face hat ausschließlich VC-Finanzierungen erhalten. Es ist kein Private-Equity-Investor mit explizit genanntem Fondsnamen bekannt, daher wird keine Exit-Prognose erstellt. Ein IPO gilt mittelfristig als mögliches Szenario.

Konkurrenz

Hugging Face operiert in einem breiten Wettbewerbsumfeld, das sich in mehrere Segmente gliedert:

KI-Plattformen und Model Hubs:

  • Replicate – Hosted API für Open-Source-Modelle mit einfacher Bereitstellung
  • Together AI – Gehostete APIs für Open-Source-LLMs wie LLaMA und Mixtral
  • Weights & Biases – MLOps-Plattform für Experiment-Tracking und Modell-Management

Cloud-ML-Plattformen:

  • Google Vertex AI – Enterprise-MLOps mit integrierten Pipelines
  • Amazon SageMaker – Vollständige ML-Entwicklungsumgebung in AWS
  • Microsoft Azure ML – ML-Plattform im Azure-Ökosystem

Inference-Spezialisten:

  • Groq – Spezialisierte Inferenz-Hardware für extrem niedrige Latenz
  • SiliconFlow – Schnelle Inferenz mit bis zu 2,3× höherer Geschwindigkeit
  • Cerebras Systems – Wafer-Scale-Chips für KI-Workloads

Proprietäre KI-Anbieter:

  • OpenAI – Enterprise-APIs mit proprietären Modellen (GPT-Serie)
  • Anthropic – Claude-Modelle mit Fokus auf Sicherheit

Hugging Face differenziert sich durch den Community-Ansatz und die konsequente Open-Source-Strategie, während Cloud-Anbieter und proprietäre Plattformen stärker auf geschlossene Enterprise-Lösungen setzen.

Quellen