Ein Wendepunkt: KI-Skalierung trifft auf Physik und Stromnetze
2024 stieg Nvidia zeitweise zum wertvollsten börsennotierten Unternehmen der Welt auf – ein Symbol für den Boom rund um KI-GPUs unter CEO Jensen Huang. Gleichzeitig mehren sich Signale, dass das einfache Höherschrauben von Rechenleistung an harte Grenzen stößt: Fertigungskosten steigen, Energiebedarf explodiert, und die physikalische Miniaturisierung nähert sich ihren Limits.
Moore’s Law unter Druck – und was das konkret bedeutet
Moore’s Law – die historische Verdopplung der Transistorzahl etwa alle zwei Jahre – hat jahrzehntelang sinkende Kosten pro Rechenoperation ermöglicht. Heute verlangsamt sich dieser Trend deutlich. Führende Hersteller führen Gate-All-Around-Transistoren bei 2‑nm‑Klassenknoten ein, doch diese Knoten gehen erst ab 2025/2026 in die breite Produktion. Gleichzeitig sind Maskensätze, EUV-Lithografie und Packaging so teuer geworden, dass die Kosten pro Transistor nicht mehr verlässlich fallen. Nvidia‑Chef Jensen Huang erklärte bereits 2022 sinngemäß, dass die Preiskurve von Moore’s Law nicht mehr trägt – ein Kernmotiv hinter „beschleunigtem Rechnen“ mit spezialisierten Architekturen.
Die neue Knappheit heißt Energie
Der Engpass verlagert sich von Transistoren zu Terawattstunden: Laut internationalen Energieanalysen verbrauchten Rechenzentren in den USA 2024 bereits rund 183 TWh Strom – über 4 % des US‑Gesamtverbrauchs – mit stark steigender Tendenz bis 2030. Neben Servern schlägt vor allem Kühlung zu Buche; Wasserbedarf und Netzanschlusskapazitäten werden zu Standortfaktoren. OpenAI‑Chef Sam Altman betonte 2025 öffentlich, die Kosten für „Intelligenz“ würden langfristig mit den Energiekosten konvergieren. Für Unternehmen heißt das: Energieeffizienz ist nicht nur ein ESG‑Thema, sondern bestimmt direkt die wirtschaftliche Machbarkeit kommender KI‑Generationen.
Warum „Rechnen mit Licht“ jetzt relevant wird
Photonische Chips nutzen Licht statt Elektronen, um zentrale Operationen neuronaler Netze – vor allem Matrixmultiplikationen und Faltungen – als analoge optische Prozesse abzubilden. Der Vorteil: Lichtwellen können lineare Algebra mit extrem geringer Signallaufzeit und potenziell sehr niedriger Energie pro Operation ausführen. In der Praxis braucht das System natürlich weiterhin Energie für Laserquellen, Modulatoren, Detektoren und Steuerung – aber die Energie pro MAC kann gegenüber rein elektronischen Pfaden um Größenordnungen sinken. Genau deshalb investieren Halbleiter- und Hyperscaler‑Ökosysteme massiv in Siliziumphotonik.
Stand der Technik: Von der Datenbewegung zur Berechnung
Der schnellste Markteintritt erfolgt derzeit bei der Datenbewegung. Co‑Packaged Optics (CPO) und siliziumphotonische Switches verlagern serielle, verlustbehaftete Kupfer‑I/O auf integrierte Lichtpfade. Hersteller wie Nvidia haben 2025 entsprechende Photonics‑Switches angekündigt, mit Verfügbarkeit ab 2025/2026 in Netzwerkprodukten. Parallel bringen Start-ups wie Lightmatter und Lightelligence photonische Interconnect‑ und Beschleunigerlösungen für Rechenzentren auf den Markt. Das Ziel: mehr Bandbreite pro Watt und Cluster, die tausende bis zehntausende Beschleuniger wie ein einziges System koppeln.
Bei der eigentlichen photonischen Berechnung zeigen Labor‑ und Vorserien‑Systeme beachtliche Fortschritte: Optische Matrix‑Multiplikatoren auf Basis von Interferometer‑Gittern und Ringresonatoren liefern hohe Durchsätze bei geringer Latenz. Offene Herausforderungen sind jedoch Präzision (Stichwort: analoges Rauschen), robuste Nichtlinearitäten und vor allem Speicher.
Der Knackpunkt Speicher – und warum sich das ändert
„Speichern mit Licht“ galt lange als Achillesferse. 2024/2025 demonstrierten Forschungsteams jedoch integrierte photonic‑electronic Speicherbausteine: etwa memristiv gekoppelte Mikroring‑Resonatoren sowie neuartige optische Latches auf Siliziumphotonik‑Basis. Phase‑Change‑ und ferrolelektrische Materialien ermöglichen dabei nichtflüchtige, multibitfähige Zustände direkt im optischen Pfad. Diese Bausteine sind noch nicht in Massenchips angekommen, zeigen aber, dass präzisionsfähige, integrierte In‑Memory Photonic Computing technisch realistisch wird – ein potenzieller Game‑Changer für energiearme, latenzkritische KI‑Workloads.
Realistische Erwartung: Schulterschluss statt „Ablösung über Nacht“
Photonik wird elektronische GPUs nicht kurzfristig ablösen – wohl aber schrittweise ergänzen: zuerst als optische Interconnect‑Ebene (CPO, On‑Package‑Optics), dann als domänenspezifische Beschleuniger für besonders datenbewegungsintensive oder linear‑algebraische Teilaufgaben. Für Training im hohen Präzisionsbereich (z. B. FP8/FP16) ist Hybrid‑Co‑Design aus Elektronik und Photonik der wahrscheinlichste Pfad. Mittelfristig könnten optische Neuronen mit komplexeren Wellen‑Dynamiken sogar neue KI‑Modelle ermöglichen, die über heutige Perzeptron‑Vereinfachungen hinausgehen – ein qualitativ anderer Fortschritt, nicht nur ein schnellerer.
Was Unternehmen und Investorinnen jetzt tun sollten
- Energie zur Chefsache machen: Strom- und Kühlkapazitäten frühzeitig sichern, Effizienzmetriken (PUE, Energie pro Token/MAC) in die TCO‑Rechnung integrieren.
- Netzwerk‑Roadmaps prüfen: CPO/Photonics‑Switches und optische Interconnects reduzieren den Energieanteil der Datenbewegung – besonders relevant für LLM‑Training und Retrieval‑Workloads.
- Hybrid‑Stacks pilotieren: Frühe Tests mit photonischen Beschleunigern und Speicher‑IP einplanen; Software‑Ökosystem (Kompiler, Quantisierung, Fehlerkorrektur) ist entscheidend.
- Risikomanagement: Roadmap‑Unsicherheit bleibt; deshalb modulare Architekturen und Mehrlieferanten‑Strategien verfolgen.
Fazit
Die GPU‑Ära wird nicht „enden“, sie wird erweitert. Wenn Datenzentren an Energie‑ und I/O‑Grenzen stoßen, eröffnet Siliziumphotonik den nächsten großen Effizienzhebel – erst beim Transport, dann bei der Berechnung und schließlich beim Speicher. Wer heute Energie, Netzwerk und Rechenarchitektur gemeinsam denkt, schafft die Grundlage, damit KI‑Leistung in den späten 2020ern und frühen 2030ern weiter wirtschaftlich skalieren kann – nicht trotz, sondern dank Licht.

