Was ist ein Hyperscaler? Hyperscale-Rechenzentren erklärt

Schlüsselzahlen
Haupterkenntnisse
- 1Ein Hyperscaler ist ein Unternehmen, das Rechenzentren mit 5.000+ Servern betreibt und Kapazitäten automatisch nach Bedarf skalieren kann. AWS, Azure, Google Cloud und Meta sind die vier größten.
- 2Der Bau eines Standard-Hyperscale-Rechenzentrums kostet 2025 zwischen $10–12 Mio. pro Megawatt. Eine KI-optimierte Anlage kostet $20 Mio. oder mehr pro MW, mit Campus-Projekten bis zu $45–55 Mrd. pro GW.
- 3Alle großen KI-Modelle einschließlich GPT-4, Gemini und Llama 3 wurden auf Hyperscale-Infrastruktur trainiert. AWS, Azure, Google und Meta planen gemeinsam $290 Mrd. an Rechenzentrum-Investitionen bis 2027.
Ein Hyperscaler ist ein Unternehmen, das Rechenzentren in einem Ausmaß entwirft, baut und betreibt, das gewöhnliche Unternehmensinfrastruktur nicht erreichen kann. Die entscheidende Schwelle ist funktional: Anlagen mit 5.000 oder mehr Servern auf über 930 Quadratmeter Fläche, mit der Architektur, Kapazität auf Abruf hinzuzufügen, ohne von Grund auf neu zu bauen. Amazon Web Services, Microsoft Azure, Google Cloud und Meta sind die vier größten Hyperscaler. Apple, IBM und Alibaba Cloud operieren ebenfalls im Hyperscale-Bereich.
Das Ausmaß der Investitionen ist inzwischen außerordentlich. Laut CBRE Research planen AWS, Microsoft, Google und Meta zusammen 290 Milliarden US-Dollar für neue Rechenzentren und IT-Infrastruktur bis 2027 auszugeben. Allein 2025 erreichten die US-amerikanischen Rechenzentrum-Baubeginne 77,7 Milliarden US-Dollar, ein Anstieg von 190 Prozent im Jahresvergleich, so ConstructConnect.
Dieser Artikel erklärt, was Hyperscaler sind, wie sich ihre Anlagen von Standard-Rechenzentren unterscheiden, welche Unternehmen im Hyperscale-Bereich tätig sind, was der Bau dieser Anlagen kostet und warum Hyperscale-Infrastruktur zur unverzichtbaren Grundlage für KI-Modelltraining und -Deployment in 2025 und 2026 geworden ist.
In diesem Artikel
- 1Was ist ein Hyperscaler?
- 2Wie ein Hyperscale-Rechenzentrum funktioniert
- 3Die fünf größten Hyperscaler: AWS, Azure, Google, Meta, Alibaba
- 4Was der Bau eines Hyperscale-Rechenzentrums kostet
- 5Warum Hyperscaler die Grundlage von KI sind
- 6Drei häufige Missverständnisse über Hyperscaler
- 7Der Hyperscaler-Ausblick bis 2028
Was ist ein Hyperscaler?
Ein Hyperscaler ist ein Unternehmen, das Recheninfrastruktur in einem Ausmaß betreibt, das groß genug ist, um Millionen oder Milliarden von Nutzern gleichzeitig zu bedienen, mit der Fähigkeit, die Kapazität automatisch als Reaktion auf die Nachfrage zu erweitern. Der Begriff bezieht sich sowohl auf das Unternehmen als auch auf den Typ des Rechenzentrums, das es betreibt.
Die technische Mindestschwelle, wie sie von Branchenanalysten bei Nlyte Software und CoreSite definiert wird, beträgt 5.000 Server und 930 Quadratmeter Fläche pro Anlage. In der Praxis halten die größten Hyperscale-Standorte Hunderttausende von Servern auf Campus-Flächen von über 90.000 Quadratmetern und verbrauchen 50 Megawatt oder mehr pro Standort.
Drei Eigenschaften unterscheiden Hyperscale-Infrastruktur von Standard-Unternehmensrechenzentren. Erstens automatisierter Betrieb: Server werden durch Software bereitgestellt, überwacht und stillgelegt, nicht durch Techniker, die durch die Gänge laufen. Zweitens verteilte Architektur: Workloads laufen auf vielen Maschinen und können in Millisekunden zwischen Servern oder geografischen Standorten migrieren. Drittens eigene Hardware: Hyperscaler entwerfen ihre eigenen Chips, Server-Racks, Netzwerke und Kühlsysteme, anstatt handelsübliche Standardausrüstung zu kaufen.
| Merkmal | Unternehmensrechenzentrum | Hyperscale-Rechenzentrum |
|---|---|---|
| Serveranzahl | 100 bis 4.999 | 5.000 oder mehr |
| Fläche | Unter 930 m² | 930 m² bis 90.000+ m² |
| Leistungskapazität | 1 bis 10 MW | 20 MW bis 5 GW (Campus) |
| Hardware-Design | Standard-Handelware | Kundenspezifisch pro Betreiber |
| Skalierungsmethode | Manuelle Beschaffung, Wochen | Automatisiert, Minuten |
| Hauptbetreiber | Unternehmen, Universitäten | AWS, Azure, Google, Meta |
| Architektur | Zentralisiert, einzelner Standort | Verteilt, mehrere Regionen |
Wie ein Hyperscale-Rechenzentrum funktioniert
Hyperscale-Rechenzentren erreichen ihre Größe durch sechs Kernkomponenten, die als integriertes System zusammenarbeiten. Jede ist so konzipiert, dass sie ausgetauscht, aufgerüstet oder erweitert werden kann, ohne den Rest der Anlage abzuschalten.
- Server-Reihen: Standard-Server werden in Racks gestapelt und in Reihen angeordnet. Jeder Server führt virtuelle Maschinen oder Container aus, die Cloud-Workloads hosten. Die Dichte in KI-Anlagen erreicht 10 bis 30 Kilowatt pro Rack, verglichen mit 3 bis 5 kW in herkömmlichen Setups.
- Stromverteilung: Redundante Stromversorgung kommt vom Versorgungsnetz über Transformatoren und unterbrechungsfreie Stromversorgungen (USV). Generatoren stellen die Sicherung sicher. Elektrische Systeme machen 40 bis 50 Prozent der Baukosten aus (Construct Elements, 2025).
- Kühlsysteme: Heiße Luft aus Server-Abwärme wird erfasst und abgeführt, entweder durch Luftbehandlungsgeräte, Kaltgang-Eindämmung oder direkte Flüssigkühlung für dichte KI-Racks. Die Kühlung macht 15 bis 20 Prozent der Baukosten aus.
- Netzwerkstruktur: Ein Hochgeschwindigkeits-internes Netzwerk verbindet alle Server in der Anlage. Die meisten Hyperscaler verwenden 25 Gbps- oder 100 Gbps-Links zwischen Servern. Laut Vertiv erwarten 93 Prozent der Hyperscale-Unternehmen 40 Gbps oder schnellere Netzwerkverbindungen in ihren Anlagen.
- Software-Orchestrierung: Kubernetes, proprietäre Scheduler oder verteilte Computing-Frameworks verwalten, wo Workloads laufen. Diese Schicht ist das, was eine Hyperscale-Anlage von einem großen Colocation-Rechenzentrum unterscheidet.
- Physische Sicherheit: Biometrische Zugangskontrollen, Videoüberwachung und Perimetersicherheit schützen Anlagen, die Daten von Millionen Kunden halten.
Kühlung: Die entscheidende Einschränkung für KI-Workloads
KI-Trainings-Server erzeugen weit mehr Wärme als Standard-Webserver. Eine einzelne NVIDIA H100 GPU verbraucht 700 Watt. Ein Rack mit acht H100 GPUs zieht 5,6 Kilowatt allein von den GPU-Karten, ohne CPUs, Arbeitsspeicher und Speicher zu berücksichtigen. Dies zwingt Hyperscaler dazu, bestehende Anlagen mit direkter Flüssigkühlung nachzurüsten oder neue KI-optimierte Hallen von Grund auf zu bauen, zu einem Kostenaufschlag von 25 Millionen US-Dollar oder mehr pro Megawatt (Construct Elements, 2025).
Die fünf größten Hyperscaler: AWS, Azure, Google, Meta, Alibaba
Fünf Unternehmen machen den Großteil der globalen Hyperscale-Kapazität aus: Amazon Web Services, Microsoft Azure, Google Cloud, Meta und Alibaba Cloud. Jedes betreibt sein eigenes globales Netzwerk von Rechenzentren und hat in eigene KI-Chips investiert, um die Abhängigkeit von NVIDIA zu reduzieren.
| Unternehmen | Cloud-Dienst | Eigener KI-Chip | Capex 2025 | Wichtige Anlage |
|---|---|---|---|---|
| Amazon | Amazon Web Services | Trainium 2 | ~$100 Mrd. gesamt (2025) | AWS-Regionen in 33 Ländern |
| Microsoft | Azure | Maia 100 | $80 Mrd. (Jan. 2026) | 300+ Rechenzentrum-Standorte |
| Google Cloud | TPU v5p | $75 Mrd. (Feb. 2025) | 40+ Cloud-Regionen | |
| Meta | Meta KI-Infrastruktur | MTIA v2 | $60–65 Mrd. (Jan. 2025) | Hyperion-Campus, Louisiana |
| Alibaba | Alibaba Cloud | Hanguang 800 | $14 Mrd. (2025) | 89 Verfügbarkeitszonen |
Microsoft kündigte seinen Plan für 80 Milliarden US-Dollar Rechenzentrum-Investitionen im Januar 2026 an, mit mehr als der Hälfte für Anlagen in den USA. Google verpflichtete sich zu 75 Milliarden US-Dollar Kapitalaufwand für 2025, ein Anstieg von 43 Prozent gegenüber seinen Ausgaben 2024, laut der Februar-2025-Gewinnmitteilung des Unternehmens.
Meta baut die ambitionierteste Einzelanlage: einen 5-Gigawatt-KI-Campus in Louisiana namens Hyperion, der bis 2028 fertiggestellt sein soll.
"Der Hyperion-Rechenzentrum-Campus wird fast so groß sein wie der Fußabdruck von Manhattan." (Meta-Infrastruktur-Ankündigung, Januar 2025)
Zusammen machen AWS, Azure, Google und Meta die 290 Milliarden US-Dollar an kombiniertem Hyperscale-Capex aus, der bis 2027 geplant ist (CBRE Research, 2025).
Was der Bau eines Hyperscale-Rechenzentrums kostet
Der Bau eines Standard-Hyperscale-Rechenzentrums kostet 2025 zwischen 10 und 12 Millionen US-Dollar pro Megawatt Kapazität, laut Construct Elements. Dieser Wert steigt auf etwa 11,3 Millionen US-Dollar pro MW im Jahr 2026. Eine Standard-50-Megawatt-Anlage kostet zwischen 800 Millionen und 1 Milliarde US-Dollar insgesamt. Eine KI-optimierte Anlage mit gleicher Leistungskapazität übersteigt 1 Milliarde US-Dollar.
Für Campus-Projekte mit einem Ziel von 1 Gigawatt oder mehr Kapazität erreichen die Baukosten 45 bis 55 Milliarden US-Dollar pro Gigawatt (Construct Elements, 2025). Metas Hyperion-Campus mit einem Ziel von 5 GW entspricht einer Gesamtinvestition in dieser Größenordnung.
Die Kostenaufschlüsselung nach Komponente bei einem Hyperscale-Bau 2025:
| Komponente | Kosten pro m² | Anteil am Gesamtbudget |
|---|---|---|
| Elektrische Systeme | $3.000–$4.950 | 40 bis 50 % |
| Mechanik und Kühlung | $1.345–$2.315 | 15 bis 20 % |
| Tragwerk und Kern | Rest | 30 bis 45 % |
| KI-GPU-Ausstattungsaufschlag | $25 Mio.+ pro MW | Zusätzlich zu den Grundkosten |
Die durchschnittlichen Gesamtbaukosten pro Quadratmeter erreichten Ende 2025 rund 11.100 US-Dollar, fast das Doppelte des Niveaus von 2024, laut Turner & Townsend.
"Rechenzentren werden bis 2029 mehr als 900 Milliarden US-Dollar an globalen Investitionen benötigen, um die Nachfrage nach KI und Cloud-Computing zu decken." (S&P Global 451 Research, 2025)
Die Zahl, die die meisten Ratgeber nicht zeigen
Das ergibt sich aus dem Vergleich von Standard- und KI-optimierten Anlagen: Bei $10–12 Mio. pro MW für Standard und $20+ Mio. pro MW für KI-Anlagen kaufen die 290 Milliarden US-Dollar, die die vier großen Hyperscaler bis 2027 planen, deutlich weniger physische Kapazität als dieselbe Summe im Jahr 2022 gekauft hätte. Das $20 Mio.-pro-MW-KI-Niveau bedeutet, dass eine bescheidene 50-MW-KI-Trainingsanlage 1 Milliarde US-Dollar kostet, bevor ein einziger GPU-Server installiert wird. Die gestiegenen Baukosten erklären, warum die kombinierten $290 Mrd. in Capex weniger MW liefern werden als erwartet.
Warum Hyperscaler die Grundlage von KI sind
Jedes große KI-Modell, das heute in Produktion ist, wurde auf Hyperscale-Infrastruktur trainiert. GPT-4 wurde auf Microsoft Azure trainiert. Gemini wurde auf Googles TPU-Clustern trainiert. Llama 3 wurde auf Metas internen GPU-Clustern trainiert. Keine Organisation außerhalb der fünf großen Hyperscaler hat ein Frontier-KI-Modell von Grund auf trainiert, weil die Rechenanforderungen das übersteigen, was jeder andere Infrastrukturtyp bereitstellen kann.
Das Training eines großen Sprachmodells in der Größenordnung von GPT-4 erfordert Tausende von GPUs, die wochenlang parallel laufen. Der Kommunikationsaufwand zwischen GPUs ist so hoch, dass die Server im selben Gebäude sein müssen, verbunden durch Hochgeschwindigkeits-InfiniBand oder eigene Netzwerkstrukturen. Nur Hyperscale-Rechenzentren mit dedizierten KI-Hallen erfüllen diese Anforderung.
Die Infrastrukturinvestition spiegelt diese Abhängigkeit wider. Laut der Birm Group wird der Bau von KI-Infrastruktur allein 2026 400 Milliarden US-Dollar erreichen, wobei weltweit mehr als 150 neue Hyperscale-Rechenzentren in diesem Jahr in Betrieb gehen.
Für KI-Inferenz (die Bereitstellung von Vorhersagen für Endnutzer anstelle des Trainings) verarbeitet dieselbe Hyperscale-Infrastruktur die Rechenlasten. Wenn Sie ChatGPT, Claude oder Gemini nutzen, wird Ihre Anfrage auf GPU-Hardware in einer Hyperscale-Anlage verarbeitet. Laut Goldman Sachs Research (2024) werden KI-Inferenz-Workloads bis 2030 einen wachsenden Anteil am Hyperscale-Stromverbrauch ausmachen.
Drei häufige Missverständnisse über Hyperscaler
Missverständnis 1: Hyperscaler sind nur sehr große Rechenzentren
Hyperscale-Anlagen sind keine größeren Versionen traditioneller Rechenzentren. Sie verwenden grundlegend andere Architektur. Standard-Unternehmensrechenzentren basieren auf Handelsservern, proprietären Netzwerkgeräten und manuellem Betrieb. Hyperscaler entwerfen ihre eigenen Chips, bauen ihre eigenen Server, schreiben ihre eigenen Betriebssysteme und automatisieren alles von der Server-Bereitstellung bis zur Fehlerbehebung. Laut Data Center Knowledge bedeutet dieser architektonische Unterschied, dass eine Hyperscale-Anlage in Sekunden durch Software von einem ausgefallenen Server erholen kann, während eine Unternehmensanlage einen Techniker benötigt, der die Hardware physisch austauscht.
Missverständnis 2: Nur die größten Technologieunternehmen können auf Hyperscale-Infrastruktur zugreifen
Jede Organisation, die AWS, Azure oder Google Cloud nutzt, führt Workloads auf Hyperscale-Infrastruktur aus. Das gesamte Modell des Public-Cloud-Computing basiert darauf, Bruchteile von Hyperscale-Kapazität zu mieten. Ein Startup mit zehn Mitarbeitern kann Anwendungen auf derselben physischen Infrastruktur wie ein Unternehmen aus dem Fortune-500-Index ausführen. Laut CoreSite bieten Hyperscale-Betreiber durch ihre Public-Cloud-Produkte "praktisch unbegrenzte Skalierbarkeit" für Organisationen jeder Größe.
Missverständnis 3: Energieeffizienz ist ein nachrangiges Anliegen
Power Usage Effectiveness (PUE) ist ein primäres Designmerkmal für jeden Hyperscale-Betreiber. PUE misst, wie viel Gesamtanlagenleistung im Vergleich zur an die Rechenausrüstung gelieferten Leistung verwendet wird. Ein PUE von 1,0 ist perfekte Effizienz. Die besten Hyperscale-Anlagen betreiben PUE-Werte zwischen 1,1 und 1,2, verglichen mit 1,5 bis 2,0 für typische Unternehmensrechenzentren. Google berichtete 2024 über einen durchschnittlichen jährlichen PUE von 1,10 in seiner globalen Rechenzentrumsflotte (Google Environmental Report, 2024).
Der Hyperscaler-Ausblick bis 2028
Der Hyperscale-Sektor befindet sich in einer Phase rasanter physischer Expansion, die direkt durch die KI-Computernachfrage angetrieben wird. Drei Trends prägen die nächsten zwei Jahre.
Erstens ist das Bauvolumen auf Rekordhöhe. Laut der Birm Group wird 2026 einen Bau von KI-Infrastruktur im Wert von 400 Milliarden US-Dollar sehen, wobei weltweit mehr als 150 neue Hyperscale-Zentren eröffnen. In den USA wurden mehr als 60 Projekte mit einem Gesamtwert von über 50 Milliarden US-Dollar für den Baubeginn nach Oktober 2025 geplant.
Zweitens gestalten Strombeschränkungen um, wo Anlagen gebaut werden. Hyperscaler verlagern sich weg von etablierten Märkten wie Northern Virginia, wo die Netzanschluss-Warteschlangen der Versorgungsunternehmen mehr als drei Jahre lang dauern, hin zu stromreichen Regionen mit verfügbarer Netzkapazität. Bundesstaaten mit Überschuss an Wasserkraft wie Washington und Oregon sowie Regionen mit Zugang zu Erdgasinfrastruktur wie Louisiana und Texas verzeichnen eine beschleunigte Entwicklung.
Drittens weitet sich die Kostenlücke zwischen Standard- und KI-optimierten Anlagen aus. Standard-Hyperscale-Bau kostet 10 bis 12 Millionen US-Dollar pro MW. KI-optimierte Anlagen, die für die 30- bis 100-kW-Rack-Dichten von GPU-Clustern ausgelegt sind, kosten 20 Millionen US-Dollar pro MW oder mehr. Das bedeutet, dass die kombinierten 290 Milliarden US-Dollar Capex der vier großen Hyperscaler bis 2027 deutlich weniger physische Kapazität kaufen werden als dieselbe Summe 2022 gekauft hätte.
Die Anzahl der Hyperscale-Rechenzentren weltweit beträgt ab 2025 etwa 800 (CoreSite). Diese Zahl soll bis Ende 2027 auf weit über 1.000 wachsen, wobei die Mehrheit der Neubauten in den USA liegt, gefolgt von Westeuropa und Südostasien.
Häufig gestellte Fragen
Was ist ein Hyperscaler?
Ein Hyperscaler ist ein Unternehmen, das Rechenzentren in massivem Maßstab baut und betreibt, typischerweise mit 5.000 oder mehr Servern auf über 930 Quadratmetern Fläche pro Anlage, mit der Fähigkeit, die Kapazität auf Abruf durch automatisierte Systeme zu erweitern. Die wichtigsten Hyperscaler sind Amazon Web Services, Microsoft Azure, Google Cloud, Meta und Alibaba Cloud. Diese Unternehmen betreiben Hunderte von Rechenzentrum-Standorten weltweit und bedienen Millionen von Kunden über Public-Cloud-Dienste.
Wie viele Hyperscale-Rechenzentren gibt es weltweit?
Es gibt ab 2025 weltweit etwa 800 Hyperscale-Rechenzentren, laut CoreSite. Die Mehrheit befindet sich in den USA, mit bedeutenden Konzentrationen in Northern Virginia, Phoenix, Dallas und dem pazifischen Nordwesten. Westeuropa (Irland, Niederlande, Deutschland) und Südostasien (Singapur, Japan) machen den Großteil des Rests aus. Mehr als 150 neue Hyperscale-Anlagen werden allein 2026 in Betrieb gehen, laut der Birm Group.
Was ist der Unterschied zwischen einem Hyperscaler und einem Cloud-Anbieter?
Alle Hyperscaler betreiben Cloud-Dienste, aber nicht alle Cloud-Anbieter sind Hyperscaler. Ein Hyperscaler bezieht sich speziell auf die physische Infrastrukturschicht: Unternehmen, die Rechenzentren mit 5.000+ Servern pro Anlage mit eigener Hardware besitzen und betreiben. Cloud-Anbieter können auch Unternehmen sein, die Kapazität von Hyperscalern weiterverkaufen (sogenannte Managed Service Provider oder Reseller), ohne eigene Rechenzentren zu besitzen. AWS, Azure und Google Cloud sind Hyperscaler, die auch Public-Cloud-Dienste verkaufen. Ein kleinerer Cloud-Anbieter könnte virtuelle Maschinen anbieten, indem er Kapazität von einem dieser Hyperscaler mietet.
Was kostet der Bau eines Hyperscale-Rechenzentrums?
Ein Standard-Hyperscale-Rechenzentrum kostet 2025 zwischen 10 und 12 Millionen US-Dollar pro Megawatt Kapazität, laut Construct Elements. Eine Standard-50-MW-Anlage kostet insgesamt zwischen 800 Millionen und 1 Milliarde US-Dollar. KI-optimierte Anlagen für GPU-Trainings-Workloads kosten 20 Millionen US-Dollar pro MW oder mehr. Campus-Projekte mit einem Ziel von 1 Gigawatt Kapazität kosten 45 bis 55 Milliarden US-Dollar pro GW. Die durchschnittlichen Baukosten pro Quadratmeter erreichten Ende 2025 fast das Doppelte des Niveaus von 2024.
Welche Unternehmen sind die größten Hyperscaler?
Die fünf größten Hyperscaler nach globaler Kapazität und Umsatz sind Amazon Web Services, Microsoft Azure, Google Cloud, Meta und Alibaba Cloud. AWS hält den größten Anteil am Public-Cloud-Markt, mit Azure an zweiter und Google Cloud an dritter Stelle, laut Synergy Research Groups Q4-2024-Bericht über Cloud-Infrastruktur. Meta betreibt Hyperscale-Rechenzentren hauptsächlich für seine eigenen sozialen Medien und KI-Workloads, anstatt Cloud-Dienste an Dritte zu verkaufen. Alibaba Cloud ist der dominante Hyperscaler in Asien.
Warum sind Hyperscaler wichtig für KI?
Alle Frontier-KI-Modelle werden auf Hyperscale-Infrastruktur trainiert. GPT-4 wurde auf Microsoft Azure trainiert, Gemini auf Googles TPU-Clustern und Llama 3 auf Metas internen GPU-Clustern. Das Training eines großen Sprachmodells erfordert Tausende von GPUs, die wochenlang parallel laufen, verbunden durch schnelle Netzwerke, die nur Hyperscale-Anlagen bereitstellen. Für KI-Inferenz (die Beantwortung Ihrer Anfragen) läuft jeder wichtige KI-Dienst auf Hyperscale-GPU-Hardware. Die kombinierten 290 Milliarden US-Dollar Capex von AWS, Azure, Google und Meta bis 2027 werden fast ausschließlich durch die KI-Computernachfrage angetrieben.