ADMIN

2026

02

2026-01-27T12:00:00

Hybrid Work

PRAXIS

048

High-Performance-Computing

Künstliche Intelligenz

Photonisches Computing

Photonische Prozessoren

Rechnen mit Licht

von Daniel Richey

Veröffentlicht in Ausgabe 02/2026 - PRAXIS

Der Bedarf an Rechenleistung durch KI wächst unaufhörlich. Klassische Prozessoren stoßen dabei an ihre Grenzen. Das Stuttgarter Startup Q.ANT setzt auf einen radikal neuen Ansatz: Rechnen mit Licht statt Elektronen. Mit seinem photonischen Prozessor verspricht das Unternehmen bis zu 30-fach höhere Energieeffizienz und eine neue Dimension an Rechendichte.

Künstliche Intelligenz und High-Performance-Computing treiben den Energieverbrauch von Rechenzentren in die Höhe. Gleichzeitig wächst die Nachfrage nach Rechenleistung für KI-Training, Inferenz und Simulationen in nahezu allen Branchen. Vor diesem Hintergrund stellt sich die Frage, wie sich Rechenzentren künftig skalieren lassen, ohne den Energiebedarf ins Unermessliche steigen zu lassen.
Das Stuttgarter Unternehmen Q.ANT [1] will auf diese Herausforderung eine Antwort geben. Mit einer photonischen Prozessorarchitektur, die Rechenoperationen direkt mit Licht statt mit Elektronen ausführt, will es eine neue Ära der Datenverarbeitung einleiten. Innerhalb weniger Jahre hat das 2018 gegründete Spin-off des Werkzeugmaschinen- und Laserspezialisten TRUMPF aus einem Forschungsthema marktreife Hardware entwickelt – und ist nach eigener Aussage das erste Unternehmen weltweit, das photonisches Computing in Rechenzentren bringt.
Herzstück der Technologie ist die von Q.ANT entwickelte Architektur LENA ("Light Empowered Native Arithmetics"). Sie basiert auf Dünnschicht-Lithiumniobat (Thin Film Lithium Niobate, TFLN) auf Isolator und ermöglicht eine präzise Steuerung von Licht auf Chipebene. Optische Elemente übernehmen mathematische Operationen nativ, also ohne Umweg über digitale Transistorstrukturen.
Künstliche Intelligenz und High-Performance-Computing treiben den Energieverbrauch von Rechenzentren in die Höhe. Gleichzeitig wächst die Nachfrage nach Rechenleistung für KI-Training, Inferenz und Simulationen in nahezu allen Branchen. Vor diesem Hintergrund stellt sich die Frage, wie sich Rechenzentren künftig skalieren lassen, ohne den Energiebedarf ins Unermessliche steigen zu lassen.
Das Stuttgarter Unternehmen Q.ANT [1] will auf diese Herausforderung eine Antwort geben. Mit einer photonischen Prozessorarchitektur, die Rechenoperationen direkt mit Licht statt mit Elektronen ausführt, will es eine neue Ära der Datenverarbeitung einleiten. Innerhalb weniger Jahre hat das 2018 gegründete Spin-off des Werkzeugmaschinen- und Laserspezialisten TRUMPF aus einem Forschungsthema marktreife Hardware entwickelt – und ist nach eigener Aussage das erste Unternehmen weltweit, das photonisches Computing in Rechenzentren bringt.
Herzstück der Technologie ist die von Q.ANT entwickelte Architektur LENA ("Light Empowered Native Arithmetics"). Sie basiert auf Dünnschicht-Lithiumniobat (Thin Film Lithium Niobate, TFLN) auf Isolator und ermöglicht eine präzise Steuerung von Licht auf Chipebene. Optische Elemente übernehmen mathematische Operationen nativ, also ohne Umweg über digitale Transistorstrukturen.
Das Prinzip lässt sich an einer simplen Operation verdeutlichen: Eine 8-Bit-Multiplikation erfordert in der CMOS-Technologie rund 1200 Transistoren. In der photonischen Architektur von Q.ANT übernimmt ein einziges optisches Element diese Aufgabe. Auch komplexere Transformationen, etwa Fourier-Operationen, lassen sich direkt im Lichtpfad ausführen. Damit entfallen zahlreiche Rechenschritte, die in klassischen Prozessoren Energie kosten und Zeit beanspruchen.
Die Chips kommen nicht als exotische Einzelmodule, sondern in einem für den Rechenzentrumsbetrieb vertrauten Formfaktor. Q.ANT liefert seine Technologie als PCIe-Beschleunigerkarte oder in einem kompletten Native Processing Server (NPS), der in Standard-Racks integriert werden kann. Über das Q.ANT Toolkit lässt sich der Coprozessor in gängige Frameworks wie PyTorch, TensorFlow oder Keras einbinden.
Effizienzsprünge in mehreren Dimensionen
Q.ANT kommuniziert Effizienzgewinne auf mehreren Ebenen. Im Vergleich zu konventioneller Halbleitertechnik sollen photonische Prozessoren mindestens 30-mal energieeffizienter arbeiten. In ersten Anwendungsfällen sprechen die Entwickler sogar von bis zu 90 Prozent weniger Stromverbrauch pro Rechenoperation. Da die Chips selbst keine Abwärme erzeugen, entfällt zudem der Bedarf an komplexen Kühlinfrastrukturen.
Neben dem Energieaspekt betont Q.ANT die höhere Rechendichte. Durch die optische Signalführung und den Wegfall thermischer Limits sei eine bis zu 100-fache Leistungssteigerung pro Rack möglich. In Kombination bedeutet das: mehr Kapazität auf gleichem Raum, geringere Betriebskosten und ein insgesamt besserer PUE-Wert (Power Usage Effectiveness). Auch bei der Präzision will Q.ANT keine Abstriche machen. Die photonischen Chips sollen Rechenoperationen mit 16-Bit-Gleitkomma und einer Genauigkeit von 99,7 Prozent ausführen – Werte, die im HPC- und KI-Umfeld als praxisnah gelten.
Benchmarks und erste Tests
Um die Leistungsfähigkeit zu untermauern, hat Q.ANT verschiedene Benchmarks vorgestellt. Tests mit dem bekannten MNIST-Datensatz zur Zahlenerkennung zeigten eine vergleichbare Genauigkeit zu klassischen Netzen, jedoch bei deutlich geringerem Energieeinsatz.
Bei Simulationen mit Kolmogorov-Arnold-Networks (KAN) wurden 43 Prozent weniger Parameter und 46 Prozent weniger Operationen benötigt, um eine vergleichbare Genauigkeit zu erzielen. In der Bildklassifikation reichten 0,1 Millionen Parameter und 0,2 Millionen Operationen für exakte Ergebnisse – während herkömmliche Ansätze selbst mit 5,1 Millionen Parametern und zehn Millionen Operationen Probleme hatten, akzeptable Resultate zu liefern.
Für die Praxis bedeutet das: Photonisches Computing eignet sich nicht nur für Spezialaufgaben, sondern kann gängige KI-Workloads effizienter abbilden. Besonders profitieren Anwendungen, die von nichtlinearen Operatoren und spektralen Transformationen abhängen – also Inferenz und Training von Deep-Learning-Modellen, Bildverarbeitung, Zeitreihenanalyse oder physikalische Simulationen.
Chancen und Herausforderungen für den Praxiseinsatz
Für IT-Entscheider stellt sich die Frage: Lohnt es sich, die Technologie frühzeitig zu evaluieren? Mögliche Potenziale sind:- Deutliche Reduzierung der Energiekosten für KI-Inferenz und Simulationen.- Vereinfachte Kühlkonzepte durch geringere Wärmeentwicklung.- Höhere Rechendichte pro Rack, was Platz- und Investitionskosten senken kann.- Integration in bestehende Software-Stacks, sodass bekannte Workflows erhalten bleiben.Die Herausforderungen auf der anderen Seite:- Herstellerangaben zu Effizienz und Leistung müssen sich in realen Workloads bestätigen.- Hybrid-Betrieb erfordert neue Scheduling-Strategien zwischen CPU, GPU und NPU.- Monitoring, Telemetrie und Security-Mechanismen für analoge Signalpfade müssen etabliert werden.- Lieferfähigkeit, Supportstrukturen und Langzeit-Roadmaps sind noch im Aufbau.Für Unternehmen, die ihre Recheninfrastruktur energieeffizienter gestalten wollen, empfiehlt sich ein Proof-of-Concept mit klar abgegrenzten Workloads. Besonders geeignet sind Pipelines mit starkem Anteil nichtlinearer Berechnungen, etwa Bildverarbeitung oder physikalische Simulationen.
Erste öffentliche Demonstration auf der ISC 2025
Einen Meilenstein markierte die ISC 2025, eine der führenden Konferenzen für High-Performance-Computing. Dort präsentierte Q.ANT erstmals eine interaktive Livedemonstration des Native Processing Servers. Besucher konnten photonische Rechenoperationen direkt ansteuern und erlebten laut Hersteller Effizienzgewinne bei komplexen KI-Workloads und Simulationen.
Kommuniziert wurden Kennzahlen wie 16-Bit-Präzision, 40 bis 50 Prozent weniger Rechenoperationen für gleichwertige Ergebnisse sowie der vollständige Verzicht auf aktive Kühlung. Analysten von Yole Group und Hyperion Research bezeichneten die Technologie als relevanten Schritt, um Präzision, Integration und Effizienz im photonischen Computing in Einklang zu bringen.
Einsatz im Rechenzentrum: LRZ Garching
Den Sprung aus dem Labor in die Praxis vollzog Q.ANT Mitte 2025. Am Leibniz-Rechenzentrum (LRZ) in Garching wurde der NPS erstmals in einer produktionsnahen HPC-Umgebung installiert. Damit gilt das LRZ als weltweit erstes Rechenzentrum, das photonisches Computing im Echtbetrieb testet.
Die Integration erfolgte mit Unterstützung des Bundesministeriums für Forschung, Technologie und Raumfahrt. In der ersten Evaluierungsphase sollen Benchmarks für KI-Inferenz, Computer Vision und Physiksimulationen erstellt werden. Später folgen weitere NPS-Generationen für umfangreichere Tests, darunter Anwendungen wie Klimamodellierung, medizinische Echtzeitbildgebung und Materialsimulationen.
Photonik-Prozessor der zweiten Generation
Mitte November hat Q.ANT dann mit der NPU 2 die zweite Generation seines photonischen Prozessors vorgestellt. Der neue nichtlineare Verarbeitungskern führt komplexe mathematische Operationen nativ mit Licht aus, reduziert dadurch Parameter und Trainingstiefe und steigert gleichzeitig die Genauigkeit. Die NPU 2 wird als schlüsselfertiger 19-Zoll-Server mit x86-Host, Linux und PCIe-Anbindung geliefert und integriert sich per C/C++- und Python-APIs in bestehende HPC- und KI-Umgebungen. Sie soll bis zu 30-mal energieeffizienter arbeiten und bis zu 50-mal höhere Performance ermöglichen. Q.ANT präsentiert die Technik erstmals auf der Supercomputing 2025 in St. Louis mit einer bildbasierten KI-Demonstration auf Basis der Photonic Algorithm Library Q.PAL.
Fazit
Photonisches Computing galt lange als Zukunftsvision, die in Forschungslaboren verharrte. Q.ANT hat in wenigen Jahren gezeigt, dass sich die Technologie in marktfähige Produkte überführen lässt – inklusive Softwareintegration, Standard-Schnittstellen und ersten Referenzinstallationen. Ob die kommunizierten Faktoren von 30-facher Effizienzsteigerung und 100-facher Rechendichte im breiten Praxiseinsatz Bestand haben, hängt stark von Workload-Profilen und Systemintegration ab. Klar ist jedoch: Mit dem NPS existiert erstmals eine Plattform, mit der Unternehmen die Potenziale real testen können. Photonisches Computing könnte sich als Schlüsseltechnologie erweisen, um die Skalierungsprobleme der KI-Ära zu lösen.
(dr)
Links