Dank technologischen Innovationen wie Cloud Computing oder Videostreaming hinterlassen Datenzentren seit 2017 den am schnellsten wachsenden CO2-Fussabdruck innerhalb der ICT-Branche. Diese wiederum produziert 2% der globalen CO2 Emissionen, etwa gleich viel wie der globale Luftverkehr. Und Datenzentren werden in den nächsten Jahrzehnten erheblich weiter wachsen. Innovationen und Regulierungen in der Energieeffizienz wären in diesem Bereich deshalb dringend gefordert, aber vorerst kommt der Vorstoss hauptsächlich von den Techgiganten wie Google oder Microsoft. Diese experimentieren mit künstlicher Intelligenz und Datenzentren unter Wasser, um Energie zu sparen. 

Datenzentren sind Computer-Warenhäuser, die grosse Mengen von Daten für den täglichen Gebrauch von verschiedenen Firmen lagern. Sie betreiben Server für das Sammeln der Daten und eine Netzwerk-Infrastruktur für den Transfer.

Sie laufen 24 Stunden und 365 Tage im Jahr, und sind sehr energieintensiv: 538-2153 W pro Quadratmeter, in Peakzeiten 10 KW pro Quadratmeter. Zum Vergleich: ein typisches Solarpanel produziert etwa 150-200 Watt pro Quadratmeter, und ein ganzer 4-Personen Schweizer Einfamilienhaushalt verbraucht durchschnittlich 620 Watt (insgesamt  5200 KwH/Jahr).

Kühlung verbraucht am meisten Energie

Der intensive Energieverbrauch besteht vor allem aus der IT-Infrastruktur, Beleuchtung und Energieverteilung. Die Kühlung frisst mit Abstand am meisten Energie, durchschnittlich 40% des Verbrauchs. Die effizientesten Kühlungen verbrauchen nur 24%, die weniger optimierten 61%.

Die ICT-Branche verbraucht 7% der globalen Elektrizität, ein Wert, der gemäss einer neuen Studie bis 2030 auf 13% klettern wird. Der Datenverkehr wird zu 60% von Videostreaming, Mobilgeräten und Online Gaming beansprucht, bis 2020 angeblich 80%. Datenzentren alleine verbrauchen etwa 1.4% der globalen Elektrizität und wachsen am stärksten verglichen mit dem Rest der ICT Branche.

Aufgrund der hohen Zahl an neuen Datenzentren ist schwierig zu eruieren, welches gerade das wirklich grösste in Planung ist. Möglicherweise das Kolos Data Center in Norwegen.

Aufgrund der hohen Zahl an neuen Datenzentren ist schwierig zu eruieren, welches gerade das wirklich grösste in Planung ist. Möglicherweise das Kolos Data Center in Norwegen.

 

Datenzentren machen, was sie wollen

Es gibt noch keine Gesetze oder Richtlinien, wie ein effizientes Datencenter gebaut werden soll. Theoretisch liegt es im eigenen ökonomischen interesse einer Firma, ein Datencenter so zu bauen, dass es möglichst energieeffizient ist. Verlässt man sich aber nur auf die unsichtbare Hand des Marktes, können Firmen statt ökologischer Effizienz einfach in Gebiete ziehen, wo der Strom billig ist. Gleichzeitig werden viele redundante Kühlsysteme einbaut, um die Zuverlässigkeit zu erhöhen und Veränderungen in der Kapazität zuzulassen.

Das grösste Potential für Einsparungen liegt in sogenannten Gratis-Kühlungs-Technologien. Diese nutzen das äussere kühle und trockene Klima, um die Kühler zu entlasten. Wenn die Umgebungs-Temperatur tief genug ist, fliesst die Hitze natürlicherweise nach aussen.

Energieeffizienz ist Definitionssache

Die Energieeffizienz eines Datenzentrums wird meistens mit dem PUE (power usage effectiveness) gemessen. Dieser zeigt den Gesamtenergieverbrauch des Datenzentrums im Vergleich zu den reinen Energieverbrauch des IT-Equipments. Ein Wert von 1 wäre der theoretische Optimalfall. Ein Wert von 2 würde dagegen bedeuten, dass das Datencenter für Kühlung etc. doppelt so viel Energie braucht wie für das reine IT-Equipment.

Der PUE Wert bringt 2 Nachteile mit sich. Wenn ein Datenzentrum sein IT-Equipment durch effizienteres ersetzt und seinen Energieverbrauch absolut senkt, wird der Wert trotzdem schlechter, wenn er zum Beispiel die Kühlung nicht ersetzt. Und: Wie der Wert gemessen wird, ist den Datencenter selber überlassen. PR-Kommunikationen über spektakulär tiefe PUEs bei Techgiganten sind standard. Und sie betonen auch gerne, dass ihre Datenzenter zu 100% mit erneuerbarer Energie laufen, wie z.B. Apple. Die Techgiganten treiben aber die Energieeffizienz von Datenzentren mit Innovation voran.

Microsofts Lösung: Kühlen unter Wasser

Microsofts Unterwasser-Datenzentrum wird in den Ozean versenkt.

Microsofts Unterwasser-Datenzentrum wird in den Ozean versenkt.

Microsoft experimentiert zur Zeit mit Datenzentern unter Wasser und will damit gleich dreierlei erreichen: Erstens die erneuerbare Energie von den aufstrebenden Gezeitenkraftwerken nutzen. Zweitens die Datencenter dorthin verlegen, wo der grösste Teil der Verbraucher lebt, nämlich in Küstennähe. Und drittens die natürliche Gratis-Kühlung des Wassers nutzen.

Das experimentelle Unterwasser-Datenzentrum ist autonom und unbemannt.

Das experimentelle Unterwasser-Datenzentrum ist autonom und unbemannt.

Unter dem Namen Projekt Natick kooperiert Microsoft mit einer französischen Firma, Naval Group. Nach einer ersten erfolgreichen Testphase in den warmen, ruhigen Wassern vor Kalifornien ging das Projekt in Phase 2 über. Beim European Marine Energy Centre im Norden Schottlands wurde das Datencenter am ersten Juni für einen mehrmonatigen Testlauf versenkt. Das Experiment kann mit Live Kameras verfolgt werden.

Live-Feed des Unterwasser-Datenzentrums.

Live-Feed des Unterwasser-Datenzentrums.

Googles Lösung: Künstliche Intelligenz

2014 kaufte Google DeepMind, eine Firma spezialisiert auf Künstliche Intelligenz. Mit dieser schaffte es der Techgigant angeblich, die Energie für seinen Rechenzentren um 40 Prozent zu verringern.

Google erkannte, dass die Gesamtheit aller Faktoren beim Energieverbrauch von Rechenzentren komplex sind. Die IT Infrastruktur selber ist schon kompliziert. Dann kommt hinzu, wie individuell Menschen diese nutzen. Die Architektur jedes Datenzentrums ist auch einzigartig, und schnelle interne oder externe Veränderungen wie die Wetterlage oder Serverauslastung vollenden die Komplexität.

Kurz: Datencenter sind zu nicht-linear für Datamining – solange dieses nur von Menschen ausgewertet wird.

Energieeffizienz-Auswirkung im Tagesverlauf mit den DeepMind-Kontrollen ein- und wieder ausgeschaltet.

Energieeffizienz-Auswirkung im Tagesverlauf mit den DeepMind-Kontrollen ein- und wieder ausgeschaltet.

Unter dem Strich bleibt der Energieverbrauch gleich

DeepMind wandte deshalb Machine Learning an. Sie trainierten neuronale Netzwerke mit der Gesamtheit der Rechenzentrums-Daten, also Temperaturen, Energieverbrauch, Pumpgeschwindigkeiten, und so weiter. Ein zweites neuronales Netzwerk berechnete alle 5 Minuten neue Aktionen, die potentiell den Energieverbrauch verringern würden, und sendet diese an das Kontrollsystem des Datenzentrums, welches die Aktionen vornimmt.

Relativ hat Google seinen Energieverbrauch so reduziert. Absolut sind seine Datenzentren zwar genau auf demselben Energieniveau wie vor 5 Jahren, aber mit 3.5mal so viel Rechenleistung.

Der steigende Datenverkehr ist nicht nur schlecht

Das starke Anwachsen der Datencenter und ihrem CO2-Fussabdruck mag dramatisch klingen, es bringt aber auch Vorteile. Der grösste Teil des Datenverkehrs nimmt Videostreaming ein, und einen Film zu streamen ist umweltfreundlicher, als eine DVD herzustellen, mit dem Auto in den Verleih oder Laden zu fahren und diese dort zu holen.

Andererseits hat durch Streaming-Services auch der Konsum von Videos zugenommen. Natürlich ist es aber ökologisch besser (und erwiesenermassen auch für den IQ), ein Buch zu lesen. Ob auf dem e-Reader oder auf Papier steht noch zu Debatte.