Neulich plauderte ich mit ChatGPT. Ich stellte ihr grosse Fragen wie: Was war zuerst da – Ei oder Huhn? Gibt es Gott? Und wenn ja, wie finde ich ihn? Die Antworten waren durchaus aussagekräftig, doch ich war nicht mit jedem Punkt einverstanden und fing an zu debattieren. Am Schluss bedankte ich mich für den anregenden Chatverlauf und wünschte einen schönen Tag. Die KI bedankte sich ebenfalls.
Lustig, was man mit so einem KI-Tool alles anstellen kann, nicht wahr? Allerdings benötigen solche und andere Spielereien – etwa das Generieren von absurden Bildern – auch ziemlich viel Energie. Für jede Anfrage, ob sinnvoll oder nicht, laufen irgendwo Rechenzentren heiss, um mir ein möglichst schlaues Ergebnis zu präsentieren. Und wenn ich meine Anfragen mit Bitte und Danke umschreibe und Smalltalk betreibe, hat das dummerweise zur Folge, dass noch ein bisschen Extrastrom verbraten wird. Tja, so leicht wird man zum Energieverschwender, dabei wollte ich nur höflich sein. Auf diese Weise geht richtig viel Strom flöten, weil nicht nur ich, sondern Millionen von Menschen höflich und nett mit Sprachmodellen reden.
ChatGPT benötigt keine Nettigkeiten. Sie ist ja kein Mensch, sondern eine Rechenmaschine. Und damit diese Maschine brauchbare Ergebnisse liefert, ist eine präzise Aufgabenstellung wichtig. Darum als kleiner Tipp: Reden Sie Klartext mit ChatGPT. Keine Floskeln, Metaphern und Zweideutigkeiten. Und stellen Sie nicht mehrere Fragen aufs Mal, sondern teilen Sie längere und komplexere Aufgaben in Häppchen auf.
Zehnmal mehr Strom
Auf Fachportalen kursiert die Aussage, dass eine KI-Anfrage zehnmal mehr Strom verbraucht als eine einfache Google-Suche. Doch so genau lasse sich dies nicht beziffern, und natürlich hänge der Stromverbrauch von der Komplexität der Aufgabe ab. Die KI-Konzerne beschwören derweil, dass ihre Technologie nicht nur viel Energie verbraucht, sondern auch hilft, Energie einzusparen, indem zum Beispiel Prozesse in der verarbeitenden Industrie optimiert werden.
Wie auch immer: Der Strombedarf steigt jedenfalls gewaltig an. Ein aktueller Bericht der Internationalen Energieagentur prognostiziert für die Tech-Branche eine Verdoppelung des Stromverbrauchs in den nächsten fünf Jahren. Hauptverursacher dieses Anstiegs sind KI-Anwendungen. Der Bericht nennt auch eine Zahl: 945 Terrawattstunden Strom wird 2030 in Rechenzentren vertilgt – so viel wie Japan heute pro Jahr verbraucht.
Im Vergleich zum weltweiten Stromverbrauch mag dies noch relativ wenig sein. Doch wir stehen ja erst am Anfang des KI-Zeitalters. Wer weiss, was für Technologien noch folgen werden. Ausserdem sollen sich in Zukunft auch Autos, LKWs, Bagger, Schiffe und sogar Flugzeuge möglichst mit Strom fortbewegen.
Ganz klar das Huhn
Doch woher kommt all diese Elektrizität? Und das Wasser, um die vielen Rechenzentren zu kühlen? Tech-Giganten wie Google, Microsoft und Amazon setzen auf Atomstrom, um so die gelobte Klimaneutralität hochzuhalten. Sie investieren Milliardenbeträge in die Entwicklung von Mini-Reaktoren, die es allerdings erst als Prototypen gibt. Geht das auf?
Ich habe jedenfalls keine Sorge, dass KI bald die Weltherrschaft übernimmt. Der Strom geht ihr dafür viel zu früh aus. Übrigens: Meiner Meinung nach war das Huhn zuerst da – auch wenn mir ChatGPT etwas anders verklickern will.

Diskutieren Sie mit
Login, um Kommentar zu schreiben