Worum geht es? Die künstliche Intelligenz (KI) soll helfen, wo der Mensch zu langsam, die Arbeit zu langweilig oder die Maschine genauer ist. Doch bei der Anwendung von KI geht oft vergessen, dass für Training und Betrieb von KI-Computersystemen enorme Mengen an Energie nötig sind. Denn Rechenleistung braucht immer Strom. Und je komplexer die Berechnungen sind, umso mehr Strom brauchen die Server und Computer. Und: Berechnungen von KI sind immer komplex – schliesslich erwartet der Anwender, die Anwenderin auf eine spezifische Frage eine spezifische, detaillierte und womöglich personalisierte Antwort.
Je schlauer eine Antwort sein soll, umso grösser ist die nötige Rechenleistung und damit der Stromverbrauch.
Warum so viel Strom? Allein jede einzelne Abfrage einer Userin oder eines Users, beispielsweise bei ChatGPT, verbraucht viel Strom – schliesslich werden dadurch weitreichende Rechenoperationen auf möglicherweise dutzenden Servern ausgelöst. Doch schon bevor ein System überhaupt so weit ist, um möglichst schlaue Antworten ausspucken zu können, muss es trainiert werden. «Um beispielsweise ein Sprachmodell zu trainieren, muss es Berechnungen mit tausenden Milliarden Wörtern durchführen», sagt SRF-Digitalredaktor Guido Berger. Und: «Je schlauer eine Antwort sein soll, umso grösser ist die nötige Rechenleistung und damit der Stromverbrauch.» Bei Foto- oder Video-Anwendungen ist der Stromverbrauch nochmals höher.
Es ist völlig offen, ob die Anbieter von KI überhaupt jemals etwas verdienen werden.
Wer bezahlt diesen Strom? «Derzeit verbrennen die KI-Anbieter ihr Investitionsgeld in ihren Rechenzentren», stellt Guido Berger fest. Ob die Anbieter den Stromverbrauch dereinst den Nutzern verrechnen können – etwa, indem Anfragen etwas kosten – ist noch völlig offen. «Es ist auch offen, ob die Anbieter von KI überhaupt jemals etwas verdienen werden», so Berger. All diese Unsicherheiten machen es schwierig, Voraussagen zur Anzahl Abfragen in Zukunft zu machen – und damit zum künftigen Stromverbrauch von KI. Denn es scheint klar, dass es umso weniger Anfragen bei KI-Diensten sein werden, je teurer das für die User wird.
Stromverbrauch verringern? Weil die Anbieter von KI-Diensten die Rechenleistung und den Strom selber bezahlen müssen, haben sie ein grosses Interesse daran, diesen zu verringern. Entsprechend wird im Bereich der Effizienz viel geforscht. Ein Weg könnte sein, dass man kleinere KI-Sprachmodelle zum Einsatz bringt. Sie würden viel weniger Trainingsdaten, Rechenleistung und damit Strom verbrauchen. Bedingung: Die kleineren Modelle müssten immer noch gut genug sein, um ihre spezifische Anwendung leisten zu können. Berger hält es im Übrigen für unrealistisch, dass der Stromverbrauch durch KI derart massiv steigen wird, wie manche Experten das prophezeien. Denn: «Das könnte gar niemand mehr bezahlen.»