In der Präambel (§1) des Energiewirtschaftsgesetzes (EnWG) ist gesetzlich festgelegt, dass Energieversorgungsunternehmen verpflichtet sind, „eine möglichst sichere, preisgünstige und umweltverträgliche leitungsgebundene Versorgung mit Elektrizität und Gas im Interesse der Allgemeinheit“ sicherzustellen.
Dies bedeutet für die Versorgungsunternehmen, dass effiziente Preissysteme entwickelt werden müssen, die einerseits die verursachten Kosten adäquat berücksichtigen und andererseits eine effiziente Kapazitätsplanung mit einschließen. Wie die großen Stromausfälle in New York (14.08.2003) und London (28.08.2003) aber gezeigt haben, stehen die Unternehmen sehr oft vor dem Problem, wie eine solche optimale Preis- und Kapazitätsplanung verwirklicht werden soll.
Die Gründe liegen in den spezifischen Eigenschaften der elektrischen Energie. Strom ist ein Produkt, welches insbesondere einer zyklisch schwankenden Nachfrage unterworfen ist und welches nicht in großen Mengen oder nur unter immens hohen Lagerkosten auf Vorrat produziert und gespeichert werden kann. Dies macht Strom zu einem „Just-in-Time“-Produkt. Er muss in genau dem Moment erzeugt werden, in dem die Verbraucher und Stromabnehmer ihn benötigen. Die Stromversorgungsunternehmen müssen aufgrund dieser Tatsache immer eine solche Kapazität an elektrischer Energie bereitstellen, die in der Lage ist, die Spitzennachfrage nach Strom zu decken. Dementsprechend müssen natürlich auch Schwachlastzeiten in die Kapazitätsplanung mit einbezogen werden.
Nur durch diese Vorgehensweise ist es den Unternehmen möglich, Wirtschaftlichkeit und Planungssicherheit zu erreichen und den Verbrauchern eine sichere Stromversorgung gewährleisten zu können. Jegliche Ineffizienz in der Preis- und Kapazitätsplanung birgt die Gefahr einer Netzüberlastung bzw. eines Netzzusammenbruchs mit erheblichen negativen Konsequenzen sowohl für die Unternehmen selbst (Gewinneinbussen), als auch für die Verbraucher (z.B. Plünderungen etc.).
Der Frage, wie eine solche optimale Preis- und Kapazitätsplanung unter einer zyklisch schwankenden Nachfrage in die Realität umgesetzt werden kann, wird in der Literatur mit dem sog. Peak-Load-Pricing (Spitzenlasttarifierung) nachgegangen. Diese Arbeit befasst sich grundlegend mit dem Konzept des Peak-Load-Pricing. Die Hauptzielsetzung besteht darin, aufzuzeigen, welche Preise unter zyklisch schwankender Nachfrage optimal sind und welche Kapazität unter diesen Voraussetzungen bereitgestellt werden soll.
Inhaltsverzeichnis
1 Einleitung
1.1 Problemrelevanz
1.2 Aufbau der Arbeit
2 Das natürliche Monopol
2.1 Eigenschaften eines Unternehmens im natürlichen Monopol
2.1.1 Subadditivität der Kostenfunktion
2.1.2 Größenersparnisse bzw. Skalenvorteile
2.1.3 Fallender Verlauf der Durchschnittskostenkurve
2.1.4 Verbundvorteile (Economies of Scope)
2.2 Das natürliche Monopol aus gesamtgesellschaftlicher Sicht
2.3 Problemstellung: Ökonomische Effizienz vs. Eigenwirtschaftlichkeit
3 Die Theorie des Peak-Load-Pricing
3.1 Begriffsabgrenzung und Zielsetzung
3.2 Die Grundmodelle der Spitzenlastpreisbildung
3.2.1 Der Ansatz von Marcel Boiteux (1949, 1960)
3.2.1.1 Kostenverläufe für Anlagen flexibler sowie starrer Kapazität
3.2.1.2 Kurz- und langfristige Gleichgewichtslösungen unter konstanter Nachfrage
3.2.1.3 Kurz- und langfristige Gleichgewichtslösungen unter schwankender
Nachfrage
3.2.2 Der Ansatz von P. O. Steiner (1957)
3.2.2.1 Grundlegende Modellannahmen
3.2.2.2 Preissetzung bei einer konstanten Nachfrage während der gesamten
Periode
3.2.2.3 Preissetzung bei einer Nachfrage in nur einem Periodenabschnitt
3.2.2.4 Preissetzung bei einer unterschiedlichen Nachfrage in beiden Periodenabschnitten
3.2.2.4.1 Der Firm-Peak-Fall
3.2.2.4.2 Der Shifting-Peak-Fall
3.3 Exkurs: optimale Bereitstellung des öffentlichen Gutes
3.4 Kritik an den Grundmodellen zum Peak-Load-Pricing
3.5 Erweiterungen der klassischen Spitzenlastmodelle
3.5.1 Der Ansatz von O. E. Williamson (1966)
3.5.1.1 Konstante Nachfrage während der gesamten Periode
3.5.1.2 Wirksame Nachfrage in nur einem Periodenabschnitt
3.5.1.2.1 Der Firm-Peak-Fall
3.5.1.2.2 Der Shifting-Peak-Fall
3.5.1.3 Die Berücksichtigung ungleich langer Periodenabschnitte
3.5.1.4 Ergebnisse bei Annahme unvollständig teilbarer Anlagen
3.5.1.5 Kritik am Modell von Williamson
3.5.2 Spitzenlastpreisbildung und Rationierung
3.5.3 Spitzenlastpreisbildung unter der Zielsetzung der Gewinnmaximierung
3.5.4 Spitzenlastpreise unter zunehmenden Skalenerträgen (Ramsey-Preisregel)
3.5.5 Spitzenlastpreisbildung bei abhängiger (verbundener) Nachfrage
4 Peak-Load-Pricing in der Praxis
4.1 Die Elektrizitätswirtschaft
4.1.1 Das Tarifsystem der Electricité de France (EdF)
4.1.1.1 Der Tarif Bleu – Option “Tempo”
4.1.1.2 Die Tarifoption “Heures Pleines/Heures Creuses – HP/HC”
4.1.2 Das Tarifsystem der E.ON-Bayern AG
4.1.3 Vergleich des französischen mit dem deutschen Preissystem
4.2 Der Verkehrssektor
4.2.1 Das Road-Pricing-Konzept von Singapur
4.2.2 Das Road-Pricing-Konzept von Trondheim
4.2.3 Das Warnow-Projekt in Rostock
4.3 Die Telekommunikationsbranche
5 Zusammenfassung und Ausblick
Literatur
Abbildungsverzeichnis
Abbildung 2-1: Skalenvorteile (Economies of Scale) eines Einproduktunternehmens
Abbildung 2-2: Das natürliche Monopol aus gesamtgesellschaftlicher Sicht
Abbildung 2-3: Das Problem der Eigenwirtschaftlichkeit
Abbildung 3-1: Tageslastkurven vor und nach Einführung des Tarif vert
Abbildung 3-2: Kostenverläufe flexibler Anlagen
Abbildung 3-3: Kostenverläufe starrer Anlagen
Abbildung 3-4: langfristiges GGW flexible Anlage29
Abbildung 3-5: langfristiges GGW starre Anlage
Abbildung 3-6: langfristiges GGW bei starren Anlagen (schwankende Nachfrage)
Abbildung 3-7: Konstante Nachfrage während der gesamten Periode (I)
Abbildung 3-8: Konstante Nachfrage während der gesamten Periode (II)
Abbildung 3-9: Nachfrage herrscht nur in Periodenabschnitt 1
Abbildung 3-10: Unterschiedliche Nachfrage in beiden Periodenabschnitten (Firm-Peak-Fall)
Abbildung 3-11: Unterschiedliche Nachfrage in beiden Periodenabschnitten (Shifting-Peak-Fall)
Abbildung 3-12: Optimale Staatstätigkeit bei einem öffentlichen Gut
Abbildung 3-13: Nachfrage herrscht nur in einem Periodenabschnitt (Williamson)
Abbildung 3-14: Der Firm-Peak-Fall bei Williamson
Abbildung 3-15: Der Bereich optimaler Spitzenlastpreise nach Crew und Kleindorfer
Abbildung 4-1: Übersicht über die jeweiligen Farben der Tage eines Jahres
Abbildung 4-2: Der Tarif „Tempo“
Abbildung 4-3: Option „Heures Pleines/Heures Creuses – HP/HC“
Abbildung 4-4: Der Allgemeine Tarif der E.ON-Bayern AG
Abbildung 4-5: Die Gebühren des WALS
Abbildung 4-6: Staffelung der Mautgebühren für Pkw in Trondheim
Abbildung 4-7: Aktuelle Mautgebühren für Pkw in Trondheim
Abbildung 4-8: Aktuelle Mautgebühren für den Warnow-Tunnel
Abbildung 4-9: Spitzenlastpreise europäischer Telekommunikationsanbieter
1 Einleitung
1.1 Problemrelevanz
In der Präambel (§1) des Energiewirtschaftsgesetzes (EnWG) von 1998 ist gesetzlich festgelegt, dass die Energieversorgungsunternehmen verpflichtet sind, „eine möglichst sichere, preisgünstige und umweltverträgliche leitungsgebundene Versorgung mit Elektrizität und Gas im Interesse der Allgemeinheit“[1] sicherzustellen. Dies bedeutet für die Versorgungsunternehmen, dass effiziente Preissysteme entwickelt werden müssen, die einerseits die verursachten Kosten adäquat berücksichtigen und andererseits eine effiziente Kapazitätsplanung mit einschließen. Wie die aktuellen großen Stromausfälle in New York (14.08.2003) und London (28.08.2003) aber gezeigt haben, stehen die Versorgungsunternehmen sehr oft vor dem Problem, wie eine solche optimale Preis- und Kapazitätsplanung verwirklicht werden soll. Die Gründe liegen in den spezifischen Eigenschaften der elektrischen Energie. Strom ist nämlich ein Produkt, welches insbesondere einer zyklisch schwankenden Nachfrage unterworfen ist und welches nicht in großen Mengen oder nur unter immens hohen Lagerkosten auf Vorrat produziert und gespeichert werden kann. Dies macht Strom zu einem „Just-in-Time“-Produkt. Er muss in genau dem Moment erzeugt werden, in dem die Verbraucher und Stromabnehmer ihn benötigen. Die Stromversorgungsunternehmen müssen aufgrund dieser Tatsache immer eine solche Kapazität an elektrischer Energie bereitstellen, die in der Lage ist, die Spitzennachfrage nach Strom zu decken. Dementsprechend müssen natürlich auch Schwachlastzeiten in die Kapazitätsplanung mit einbezogen werden. Nur durch diese Vorgehensweise ist es den Unternehmen möglich, Wirtschaftlichkeit und Planungssicherheit zu erreichen und den Verbrauchern eine sichere Stromversorgung gewährleisten zu können. Jegliche Ineffizienz in der Preis- und Kapazitätsplanung birgt die Gefahr einer Netzüberlastung bzw. eines Netzzusammenbruchs mit erheblichen negativen Konsequenzen sowohl für die Unternehmen selbst (Gewinneinbussen), als auch für die Verbraucher (z.B. Chaos in den Großstädten, Plünderungen etc.).
Doch nicht nur im Bereich der Stromversorgung ist diese Problematik relevant. Auch in der Telekommunikationsbranche oder im Verkehrswesen können bei auftretenden Nachfrageschwankungen ineffiziente Preis- und Kapazitätssysteme sehr schnell zu Netzüberlastungen oder zu Staus führen. Auch hier müssen die Versorgungsunternehmen exakt abschätzen, welche Preise in einer solchen Situation optimal sind und welche effiziente Menge an Kapazität der jeweiligen angebotenen Leistung bereitgestellt werden muss. Der Frage, wie eine solche optimale Preis- und Kapazitätsplanung unter einer zyklisch schwankenden Nachfrage in die Realität umgesetzt werden kann, wird in der Literatur mit dem sog. Peak-Load-Pricing (Spitzenlasttarifierung) nachgegangen.
Diese Arbeit befasst sich grundlegend mit dem Konzept des Peak-Load-Pricing. Die Hauptzielsetzung besteht darin, aufzuzeigen, welche Preise unter zyklisch schwankender Nachfrage optimal sind und welche Kapazität unter diesen Voraussetzungen bereitgestellt werden soll. Dabei liegt der Schwerpunkt darin, dass sowohl aus volkwirtschaftlicher Sicht, als auch aus Sicht der Versorgungsunternehmen eine akzeptable Lösung erzielt werden kann, die die durchaus unterschiedlichen Zielsetzungen gleichermaßen berücksichtigt.
1.2 Aufbau der Arbeit
Die Arbeit gliedert sich in fünf Hauptkapitel. In den Kapiteln 2 und 3 wird zunächst ein sehr ausführlicher Überblick über die theoretischen Grundlagen gegeben, die für das Verständnis der Peak-Load-Problematik unerlässlich sind. Begonnen wird dabei mit der Darstellung der wesentlichen Eigenschaften eines sog. natürlichen Monopols, die sehr oft auf öffentliche Versorgungsunternehmen zutreffen. Auf Basis dieser Überlegungen wird anschließend explizit auf die Notwendigkeit des Peak-Load-Pricing als eine sog. „Sekond-Best-Lösung“ hingewiesen und die Theorie der Spitzenlastpreisbildung detailliert erläutert. Hierbei werden die Grundmodelle der Spitzenlasttarifierung sehr ausführlich dargestellt und sehr interessante Modellerweiterungen in die Analyse mit einbezogen.
Nach diesem theoretischen Teil erfolgt im 4. Kapitel eine Darstellung der praktischen Umsetzung des Peak-Load-Pricing. Der Schwerpunkt liegt dabei auf dem Elektrizitätssektor, dem öffentlichen Verkehrswesen und der Telekommunikationsbranche. Im Bereich der Energieversorgung und der Telekommunikationsbranche werden die Tarifsysteme von deutschen und ausländischen Unternehmen in Bezug auf das Peak-Load-Pricing vergleichend gegenübergestellt. Die Analyse des Verkehrssektors stützt sich auf die Darstellung von drei ausgewählten Road-Pricing-Konzepten. Abschließend werden die gewonnenen Erkenntnisse im 5. Kapitel noch einmal zusammengefasst und kritisch beurteilt.
2 Das natürliche Monopol
Sehr viele öffentliche Unternehmen mit einem Versorgungsauftrag, welche insbesondere klassische Spitzenlastgüter wie z.B. Strom produzieren, besitzen ganz spezifische Produktionstechnologien (z.B. Leitungsnetze für Abwasser, Strom oder Gas). Mit den Eigenschaften dieser Technologien, zu denen v.a. die Unteilbarkeit und die Vernetzung der Produktionsanlagen gehört, ist es für die Unternehmen unter Umständen kostengünstiger, die Produktion in einem Unternehmen zu organisieren und nicht in mehreren, also auch den Markt kostengünstiger zu bedienen als mehrere Unternehmen zusammen. Dies impliziert aber auch, dass in Sektoren wie diesen eine Wettbewerbssituation zu erheblichen Ressourcenverschwendungen führen würde und somit eine optimale Allokation der vorhandenen Ressourcen nicht mehr möglich ist. Durch das Errichten von bestimmten Markteintrittsschranken kann das Unternehmen andere Konkurrenten vom Markeintritt abhalten und somit im Idealfall den Markt vollkommen alleine beherrschen. Man spricht in einem solchen Fall von einem sog. natürlichen Monopol.[2]
Natürliche Monopolunternehmen weisen im Vergleich zu anderen Unternehmen, die z.B. in einer vollkommenen Konkurrenz existieren, ganz bestimmte Eigenschaften auf, mit denen es ihnen möglich ist, die eben angesprochene Marktmacht zu erreichen. Im nächsten Gliederungspunkt dieser Arbeit wird explizit auf diese Eigenschaften eingegangen werden. Es wird sich anschließend zeigen, dass natürliche Monopole aufgrund ihrer marktbeherrschenden Stellung sowohl aus gesamtgesellschaftlicher Sicht als auch aus Sicht der Konsumenten ineffizient sind.
Um zu verhindern, dass der Monopolist seine Markmacht nicht zum Nachteil der Konsumenten ausnutzen kann, ist eine Regulierung seitens des Staates erforderlich. Die Regulierung kann z.B. die Preisstruktur oder auch die Produktqualität betreffen. Ende der 70er und Anfang der 80er Jahre waren allerdings manche Ökonomen der Meinung, dass beim Vorliegen eines natürlichen Monopols nicht zwangsläufig eine Regulierungsbedarf vorherrscht. Ihrer Ansicht nach genüge in natürlichen Monopolmärkten ein potentieller Wettbewerb, also die alleinige Drohung des Markteintritts, so dass eine optimale Allokation trotzdem möglich sei. Diese Theorie ist allgemein bekannt unter dem Begriff der „ contestable markets “, zu deren Verfechtern z.B. W. J. Baumol, R. D. Willig und J. C. Panzar gehörten und die dieser Theorie ihr Werk[3] zugrunde legten.
Über die „ contestable markets “ lässt sich zweifelsohne streiten. Es scheint schlüssiger zu sein, dass das Ausnutzen von Marktmacht zweifelsohne zu volkswirtschaftlichen Ineffizienzen führt und dass deshalb auch reguliert werden muss. Nichts desto trotz hat diese Theorie laut Borrmann/Finsinger zu „einem besseren Verständnis der Wirkungen eines freien Marktzutritts geführt.“[4]
Unabhängig von dieser zugegeben sinnvollen Diskussion über den Sinn oder Unsinn des eben beschriebenen „ contestable markets “-Ansatz werden im nächsten Abschnitt die grundlegenden Eigenschaften von Unternehmen in einem natürlichen Monopol dargestellt, mit welchen sich auch die „contestable markets“-Ökonomen intensiv auseinander setzten. Diese Eigenschaften sind für das Thema dieser Arbeit immens wichtig, da sie als Grundlage für die weitere Betrachtung angesehen werden müssen.
2.1 Eigenschaften eines Unternehmens im natürlichen Monopol
2.1.1 Subadditivität der Kostenfunktion
Das in der Literatur wohl am häufigsten genannte Merkmal für das Vorliegen eines natürlichen Monopols ist in der Kostenstruktur des zu betrachtenden Unternehmens begründet. Gesetzt dem Fall, dass ein einziger Anbieter eine insgesamt produzierbare Menge x auf einem Markt zu niedrigeren Kosten anbieten kann, als dies bei jeder beliebigen Aufteilung dieser Menge auf mehrere Anbieter der Fall wäre, so spricht man von einer sog. global additiven Kostenfunktion: „[...] there is natural monopoly in a particular market if and only if a single firm can produce the desired output at lower cost than any combination of two or more firms.“[5] Ein natürliches Monopol ist dann innerhalb einer Industrie gegeben, wenn die Kostenfunktion im gesamten Bereich der nachgefragten Mengen subadditiv ist.
Wenn die Kostenfunktion der gesamten produzierbaren Menge x mit C(x) bezeichnet wird und x1 ... xm Teilmengen von x darstellen, so lässt sich die Subadditivität eines Einproduktunternehmens darstellen als:
Abbildung in dieser Leseprobe nicht enthalten
Allein durch diese Definition ist aber schon ersichtlich, dass die Abgrenzung eines natürlichen Monopols mit Schwierigkeiten verbunden ist. Es ist immer eine große Menge an Informationen bezüglich der Kostenfunktion eines Unternehmens notwendig, um geeignete Aussagen über das Merkmal der Subadditivität treffen zu können. Baumol/Panzar/Willig stellen treffend fest: „[...] the data requirements of a statistical test of subadditivity can be very severe indeed. “[6] Es sind hierbei nicht nur die lokalen Eigenschaften der Kostenfunktion relevant, sondern v.a. auch der Verlauf. Es muss bekannt sein, wie der Verlauf für alle Outputmengen ist, die kleiner als das tatsächliche Ausbringungsniveau sind.[7] Außerdem muss beachtet werden, dass sich Kostenfunktionen sehr leicht durch produktionstechnische Neuerungen verändern können (z.B. durch technischen Fortschritt). Wenn sich die Präferenzen der Konsumenten ändern, so ändern sich auch die Nachfragefunktionen, so dass es jederzeit zu einer Auflösung des Merkmals der Subadditivität kommen kann, da die Subadditivität im Wesentlichen durch bestimmte Kosten- und Nachfragefunktionen determiniert ist.
2.1.2 Größenersparnisse bzw. Skalenvorteile
Ein weiteres Charakteristikum für das Vorliegen eines natürlichen Monopols sind Größenersparnisse bzw. Skalenvorteile (Economies of Scale). Für ein Einproduktunternehmen liegen Skalenvorteile immer dann vor, wenn die Durchschnittskosten größer als die Grenzkosten sind und somit größere Stückzahlen wesentlich günstiger produziert werden können. Man spricht in einem solchen Fall auch von steigenden Skalenerträgen (increasing returns to scale), d.h. dass eine proportionale Vermehrung des Einsatzes aller Produktionsfaktoren zu einer überproportionalen Erhöhung des Outputs führt. Der Output steigt also bei einer Erhöhung des Faktoreinsatzniveaus ebenfalls an.[8]
Skalenvorteile bestimmen außerdem die mindesteffiziente Betriebsgröße eines Unternehmens (minimum efficiency of scale), d.h. diejenige Produktionshöhe, bei der die Durchschnittskosten geringfügig oder nicht mehr sinken. Economies of Scale determinieren des Weiteren die Anzahl der Unternehmen, die auf einem Markt unter gegebenen Kosten- und Nachfragebedingungen operieren können. Die Abbildung 2-1 soll den bisher erörterten Sachverhalt noch einmal anschaulich darstellen. Es wird dabei von einem Einproduktunternehmen ausgegangen.
X stellt die produzierte Menge dar. Die Durchschnittskosten werden mit C(x)/x bezeichnet. Die Grenzkosten ergeben sich aus der 1. Ableitung der Kostenfunktion nach x. In der Abbildung sind die Grenzkosten bis zur Outputmenge m kleiner als die Durchschnittskosten. Somit liegen im Bereich von 0 bis m steigende Skalenerträge und Skalenvorteile vor. Die mindesteffiziente Betriebsgröße wird bei einem Output in Höhe von m erreicht. Der Output m stellt gemäß obiger Feststellung diejenige Produktionsmenge dar, bei der die Durchschnittskosten nicht mehr oder nur noch geringfügig sinken. Bis zum Output m ist die Steigung der Durchschnittskostenkurve negativ.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2-1: Skalenvorteile (Economies of Scale) eines Einproduktunternehmens (Quelle: Borrmann/Finsinger (1999), S. 104)
Skalenvorteile können diverse Ursachen haben. Zum einen können sie aus Erfahrungs- bzw. Lernkurveneffekten hervorgehen. Bei sehr vielen Gütern und Produkten hängt das Fertigungs-Know-How sehr stark von der produzierten Menge ab. Die Stückkosten sind dann umso niedriger, je größer die gesamte Produktionsmenge des jeweiligen Gutes oder Produkts eines Unternehmens ist. Empirisch belegt ist hierbei die Tatsache, dass die realen – d.h. die um die Preissteigerung bereinigten – Kosten der Wertschöpfung mit jeder Verdopplung der kumulierten Produktion um 20-30 % sinken.[9] Es handelt sich bei dem Erfahrungskurvenkonzept um sog. dynamische Größenvorteile. Durch sie verschiebt sich im Zeitablauf die Durchschnittskostenkurve derart, dass die „neue“ Durchschnittskostenkurve unterhalb der „alten“ verläuft. Ganz allgemein liegen dynamische Größenvorteile immer dann vor, wenn ein negativer Zusammenhang zwischen der kumulierten Ausbringungsmenge und den Durchschnittskosten besteht.[10]
Weitere Ursachen von Skalenvorteilen können statischer Natur sein. Hierzu zählen z.B. stochastische Größenersparnisse, Mindesteinsatzmengen bei den Produktionsfaktoren oder auch die sog. „Zwei-Drittel-Regel“. Stochastische Ersparnisse ergeben sich aus dem Sachverhalt, dass es mit ansteigender Betriebsgröße wesentlich leichter ist, zufallsbedingte Ereignisse zu kalkulieren. Dadurch kann z.B. der Ersatzteilbedarf von Maschinen oder Anlagen besser geplant und der Lagerbestand optimiert werden. Mindesteinsatzmengen bei Produktionsfaktoren sind in der Praxis sehr verbreitet. Wird der Auslastungsgrad der Maschinen oder Fertigungsanlagen erhöht, so werden die Kosten dieser Ressourcen auf eine größere Outputmenge verteilt (Fixkosten-Degression). Größenersparnisse aufgrund der „ Zwei-Drittel-Regel “ beruhen ausschließlich auf technischer Basis. Bei sehr vielen Kapitalgütern (z.B. Kabel, Leitungen, Tanks, Röhren) kann die Kapazität durch eine Vergrößerung des Umfangs erhöht werden. Gesetzt dem Fall, dass sich die Kapazität verdoppelt, erhöhen sich die Materialkosten in etwa nur um den Faktor zwei Drittel. Auch hier fallen die Durchschnittskosten bei einer Zunahme des Outputs. Da die meisten öffentlichen Versorgungsunternehmen solche Kapitalgüter einsetzen, sind Größenersparnisse aufgrund der „Zwei-Drittel-Regel“ für sie sehr leicht zu realisieren.[11]
2.1.3 Fallender Verlauf der Durchschnittskostenkurve
Unternehmen im natürlichen Monopol zeichnen sich v.a. auch durch einen fallenden Verlauf ihrer Durchschnittskostenkurve aus. Dieser Verlauf ergibt sich in erster Linie aus den schon erwähnten steigenden Skalenerträgen in der Produktion. Sinkende Durchschnittskosten sind also in der Regel eine Folge aus Unteilbarkeiten, die immer dann auftreten, wenn aufgrund technischer Gegebenheiten die Kapazität bestimmter Ressourcen nur in großen Sprüngen variiert werden kann. Schleth liefert hierzu den analytischen Beweis[12]:
Zunächst einmal stellt Schleth den Zusammenhang zwischen einer Kostenfunktion und steigenden Skalenerträgen dar. Eine Kostenfunktion weist demnach dann steigende Skalenerträge auf, wenn gilt:
Abbildung in dieser Leseprobe nicht enthalten
Dies bedeutet, dass bei einer l-fachen Steigerung der Produktion Y die anfallenden Kosten geringer sind als die Produktionskosten der Menge Y, die mit dem gleichen Faktor l multipliziert wurden. Wenn die Preise konstant sind, heißt dies, dass der Einsatz der Produktionsfaktoren unterproportional zur Produktionssteigerung zugenommen hat. Wenn der oben stehende Term durch l·Y dividiert wird, kann man als Ergebnis folgendes festhalten:
Falls die produzierte Menge um das l-fache gesteigert wird, sinken die Durchschnittskosten in der Produktion. Die Durchschnittskosten sind somit eine fallende Funktion der produzierten Menge. Folglich liegen bei einer solchen Kostenkonstellation die anfallenden Grenzkosten unterhalb den Durchschnittskosten. Bei konstanten Inputpreisen führt jede proportionale Steigerung der Inputs zu einer überproportionalen Steigerung der Outputs, so dass die Kosten der Erzeugung einer Output-Einheit bei zunehmender Produktionsmenge zurückgehen.[13]
Durch die fallenden Kostenverläufe ist es dem Unternehmen möglich, durch die Produktionsausweitung die Preise ohne Verlust senken zu können und somit niedriger zu setzen als mögliche Konkurrenten. Eine solche Preissetzung wird im Allgemeinen auch als „ limit pricing“ bezeichnet. Aus Sicht des Unternehmens bleibt im Idealfall nur noch ein einziger Anbieter übrig. Dies kann durch einen rigorosen Verdrängungswettbewerb aber auch durch eine Fusionswelle geschehen.[14]
2.1.4 Verbundvorteile (Economies of Scope)
Neben Skalenvorteilen können auch sog. Verbundvorteile (Economies of Scope) die Bildung von natürlichen Monopolen begünstigen. Verbundvorteile entstehen im Mehr-Güter-Fall immer dann, wenn ein Unternehmen Vorteile bei der Produktion einer Produktpalette gegenüber der Erzeugung einzelner Produkte besitzt. Es ist in einem solchen Fall kostengünstiger, bestimmte Mengen von zwei oder mehreren Produkten oder Güter in einem Unternehmen gemeinsam zu produzieren anstatt separat in mehreren. Die Produktion eines Güterbündels ist aufgrund der möglichen Teilung gemeinsamer Inputressourcen im Produktionsprozess wesentlich vorteilhafter als die separate Herstellung.[15]
Verbundvorteile können bei nicht voll ausgelasteten Anlagen bzw. Kapazitäten entstehen, welche für verschiedene Güter genutzt werden können. Eine Bahnstrecke kann sowohl für Speditionsaufträge als auch für die Beförderung von Passagieren verwendet werden. Eine eigene Bahnstrecke für die jeweiligen Verwendungszwecke wäre aus Kosten- und Nutzenüberlegungen wohl sinnlos. Ähnliches gilt für Transport- und Kommunikationsnetze bzw. für EDV-Anlagen.[16]
Eine weitere Ursache von Economies of Scope sind Portfolioeffekte bei der Forschung und Entwicklung von Produkten. Durch die gleichzeitige Entwicklung verschiedener Produkte ist es einem Mehrproduktunternehmen möglich, die technischen Risiken bei einem Produkt zu minimieren. Wenn Unsicherheit darüber besteht, ob das Produkt auf dem Markt akzeptiert wird, kann durch die simultane Forschung und Entwicklung unterschiedlicher Produkte ebenfalls eine Risikominimierung erzielt werden, indem die Risiken „auf mehrere Schultern“ verteilt werden (Portfolioeffekt).[17]
Können Unternehmen auf Verbundvorteile zurückgreifen, ist es für sie möglich, diese als Markteintrittschranke gegenüber potentiellen Konkurrenten zu nutzen und den Markt im Idealfall alleine bedienen zu können.
Bei den eben dargestellten Charakteristika eines natürlichen Monopols muss aber auf jeden Fall noch ausdrücklich darauf hingewiesen werden, dass selbst beim alleinigen Vorliegen dieser Eigenschaften die Existenz eines natürlichen Monopols noch lange nicht sichergestellt ist. Dies kann verschiedene Gründe haben:
- Beim Vorliegen von Skalenvorteilen ist deren Ausmaß sowie der Verlauf der Nachfragefunktion ausschlaggebend für die Existenz eines natürlichen Monopols.
- Verbund- und Skalenvorteile müssen als zwei vollkommen verschiedene Phänomene angesehen werden, die allerdings erhebliche Interdependenzen aufweisen. So führen Economies of Scope nicht unbedingt zur Konzentration auf der Anbieterseite des Marktes. Erst wenn die Kostenfunktion eines Unternehmens gleichzeitig Größenvorteile beinhaltet, kann sich ein natürliches Monopol bilden. Dies impliziert auch, dass Verbundvorteile allein nie ein natürliches Monopol etablieren können.[18]
- Bei der fallenden Durchschnittskostenkurve muss beachtet werden, dass diese ab einem bestimmten Punkt wieder ansteigen kann, da hier die Größenvorteile – welche ja für diesen Verlauf ausschlaggebend sind – nicht unerschöpflich sind. Bei einem Anstieg der Durchschnittskostenkurve kann die nachgefragte Menge unter Umständen von mehreren Anbietern befriedigt werden, die jeweils im Minimum der Durchschnittskosten produzieren. Die Marktmacht des ursprünglichen Monopolisten verringert sich oder geht vollständig verloren. Als Grund für den Anstieg kann z.B. eine mit der Betriebsgröße überproportionale Erhöhung der unternehmensinternen Transaktionskosten angesehen werden.
- Die Frage, ob ein Unternehmen eine unangreifbare Marktposition – wie sie im Monopol gegeben ist – erlangen kann, hängt außerdem von der Höhe der sog. versunkenen Kosten (sunk costs) ab und nicht allein von den eben genannten Eigenschaften. Diese Kosten beziehen sich auf Produktionsfaktoren, die keine Alternativverwendung im Unternehmen finden können bzw. in einer Sekundärverwendung einen wesentlich geringeren Wert aufweisen. Da sie aufgrund von irreversiblen Entscheidungen generiert sind, werden sie auch als irreversible Kosten bezeichnet. Für Investitions- und Marktzutrittsentscheidungen bedeutet dies, dass sie – wenn sie einmal angefallen sind – nicht mehr rückgängig gemacht werden können. Solche Kosten können z.B. bei der Verlegung von Leitungen für Strom, Gas oder Wasser entstehen, sie können auch allgemein als Kosten bzw. Aufwendungen für den Markteintritt aufgefasst werden.[19]
Liegen für potentielle Neueintreter in den Markt sehr hohe sunk costs vor, so wird durch sie ein Eintritt in den Markt erschwert, da diese Kosten zunächst einmal aufgewendet werden müssen, um Investitionsentscheidungen treffen zu können. Hohe sunk costs dienen somit dem etablierten Unternehmen als Markteintrittsschranke und gleichzeitig als Hilfe, die vorhandene Marktmacht zu sichern. Die Bildung von natürlichen Monopolen hängt folglich insbesondere von der Höhe der versunkenen bzw. irreversiblen Kosten ab. Wenn neben Bündelungsvorteilen auch gleichzeitig sehr hohe irreversible Kosten vorliegen, wird diese Markeintrittsschranke in der Literatur auch als monopolistisches Bottleneck bezeichnet.[20]
Nach diesem Überblick über die wesentlichen Eigenschaften von Unternehmen im natürlichen Monopol wird in den nächsten beiden Gliederungspunkten dargestellt, welche Auswirkungen ein natürliches Monopol aus gesamtgesellschaftlicher Sicht mit sich bringt und vor welchem Problem v.a. öffentliche Versorgungsunternehmen stehen, wenn sie in diesem Zusammenhang ein für sie effizientes Preissystem etablieren wollen.
2.2 Das natürliche Monopol aus gesamtgesellschaftlicher Sicht
Ein Unternehmen in einer vollkommenen Konkurrenz wird entsprechend der Grenzkostenpreisregel handeln. Bei einer gegebenen Nachfragekurve N wird ein solches Unternehmen einen Preis pro abgesetzter Einheit in Höhe von pW verlangen, der genau mit dem Grenzkostenpreis übereinstimmt. Der Preis pW ergibt sich aus dem Schnittpunkt der Nachfragekurve mit der Grenzkostenkurve MC (Marginal Costs). Die zu diesem Preis optimale produzierte Menge wird mit xw notiert [vgl. Abb. 2-2].
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2-2: Das natürliche Monopol aus gesamtgesellschaftlicher Sicht (Quelle: eigene Zusammenstellung)
Bei einer solchen Preissetzung herrscht eine effiziente Allokation der vorhandenen Ressourcen vor, d.h. es kommt zu keinerlei Ressourcenverschwendung; es wird sowohl technisch als auch allokativ effizient produziert. Dieser Zustand wird auch als pareto-optimal bezeichnet. Dies bedeutet, dass in einer solchen Situation keine Möglichkeit besteht, ein Individuum besser zu stellen – also seinen Nutzen zu erhöhen – ohne zugleich mindestens ein weiteres Individuum schlechter zu stellen. Oder anders ausgedrückt: Wenn ein Individuum eine Erhöhung seines Nutzenniveaus erfährt, so darf dadurch kein anderes Individuum benachteiligt werden.[21] Ansonsten spricht man von einer Pareto-Ineffizienz.
Aus volkswirtschaftlicher Sicht wird die Lösung Preis gleich Grenzkosten auch als First-Best-Lösung angesehen, da es bei einer solchen Preissetzung zu keinerlei Wohlfahrtsverlusten und Ineffizienzen kommt.
In der Literatur ist man der Meinung, dass ein Unternehmen, welches im öffentlichen Interesse handelt, welches also dem effizienten Einsatz der Ressourcen in einem Land verpflichtet ist oder verpflichtet sein sollte (alle öffentlichen Versorgungsunternehmen), normalerweise gemäß der Grenzkostenpreisregel handeln muss.[22]
Sind jedoch die bereits angesprochen Voraussetzungen für das Vorliegen eines natürlichen Monopols gegeben, so ergibt sich ein vollkommen anderer Sachverhalt:
Während Unternehmen in einer vollkommenen Konkurrenz den Preis als ein fest vorgegebenes Datum ansehen und daher als Mengenanpasser agieren, kann der Monopolist die gesamte angebotene Menge kontrollieren und somit durch diese Menge den Marktpreis steuern. Das Unternehmen im natürlichen Monopol wird v.a. eigenwirtschaftliche Interessen verfolgen, d.h. es wird versuchen, seine Markmacht zu erhalten bzw. auszubauen. Dies ist ihm möglich, indem es den Monopolpreis setzt, also denjenigen Preis, der ihm unter den gegebenen Kosten- und Nachfragebedingungen die Maximierung des betriebswirtschaftlichen Gewinns ermöglicht. Diese Verhaltensweise kennzeichnet ganz allgemein den sog. „ Cournot’schen “ Monopolisten.
In der Abbildung 2-2 ist zu erkennen, dass sich der Monopolpreis (pM) indirekt aus dem Schnittpunkt der Grenzkostenkurve mit der Grenzerlöskurve MR ergibt (durch Hochloten vom Punkt C auf die Nachfragekurve). Die Grenzerlöskurve gibt dabei an, wie sich der Umsatz mit dem Preis verändert. Sie besitzt exakt die halbe Steigung im Vergleich zur Nachfragekurve.
Man sieht sehr leicht, dass dieser Preis im Vergleich zum Wettbewerbspreis wesentlich höher ist und dass die zu diesem Preis produzierte Menge (xM) einen deutlich geringeren Wert aufweist als bei Anwendung der Grenzkostenpreisregel. Der Output im natürlichen Monopol ist folglich zu gering. Durch diese monopolistische Outputdeduktion ist – aus gesamtgesellschaftlicher Sicht – ein in Geldeinheiten gemessener statischer Wohlfahrtsverlust entstanden. Dieser wird auch deadweight loss genannt und ergibt sich in der Abbildung durch die Dreiecksfläche ABC. Wenn der Monopolpreis erhöht wird, steigt natürlich ceteris paribus auch der Wohlfahrtsverlust an, da dann die monopolistische Outputreduktion noch verschärft wird. Für die Konsumenten besteht durch den überhöhten Monopolpreis die Gefahr, dass sie vom Monopolisten ausgebeutet werden. Sie sind mehr oder weniger von der Willkür in der monopolistischen Preisfestlegung abhängig und haben sich dieser unterzuordnen.
Es ist eindeutig, dass ein solcher Zustand keine Pareto-Effizienz darstellen kann. Der sich ergebende Wohlfahrtsverlust – und somit auch die Pareto-Ineffizienz – lassen sich nur vollkommen durch das Setzen des Grenzkostenpreises beseitigen.
Ein natürliches Monopol ist also aus gesamtgesellschaftlicher Sicht ineffizient. Der Staat muss in einem solchen Fall regulierend eingreifen, um den deadweight loss minimieren bzw. aufheben zu können. Wenn es sich bei einem öffentlichen Versorgungsunternehmen um ein natürliches Monopol handelt, so kann der Monopolist dieser Regulierung freiwillig entgegenkommen, indem er – natürlich unter Abstrichen beim Gewinn – ein Preissystem entwickelt, mit welchem auch der Regulierer zufrieden ist, d.h. welches zu keinen gesamtgesellschaftlichen Ineffizienzen führt. In einem solchen Preissystem müssen aber nach den oben gemachten Überlegungen Grenzkostenpreise enthalten sein. Dies stellt den Monopolisten jedoch, wie im nächsten Abschnitt dargestellt wird, vor diverse Probleme. Diese Schwierigkeiten ergeben sich insbesondere aus der schon erwähnten fallenden Durchschnittskostenkurve.
2.3 Problemstellung: Ökonomische Effizienz vs. Eigenwirtschaftlichkeit
Im Gliederungspunkt 2.1.3 wurde festgestellt, dass der fallende Verlauf der Durchschnittskostenkurve als wesentliche Eigenschaft für ein Unternehmen im natürlichen Monopol angesehen werden kann. Bei ständig fallenden Durchschnittskosten liegen die Grenzkosten unterhalb der Durchschnittskostenkurve, da bei abnehmenden Durchschnittskosten die Erstellung einer zusätzlichen Einheit eines Gutes (= Grenzkosten) weniger Aufwand erfordern muss, als für die bereits produzierte Menge pro Stück angefallen ist (= Durchschnittskosten).[23] Jeder Monopolist wird versuchen, seine Preise so zu setzen, dass er einen Gewinn erzielt, indem die Gesamtkosten pro abgesetzter Einheit gedeckt werden. Nur so kann Eigenwirtschaftlichkeit erreicht werden, die als wesentliches Ziel eines Unternehmens im natürlichen Monopol gilt.
Wenn der Monopolist – wie es aus gesamtgesellschaftlicher Sicht wünschenswert wäre – die Grenzkostenpreisregel anwenden würde, so könnten die notwendigen Erträge zur Deckung der Gesamtkosten nicht mehr erwirtschaftet werden. Er würde einen Verlust erzielen [vgl. Abb. 2-3].
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2-3: Das Problem der Eigenwirtschaftlichkeit (Quelle: in Anlehnung an Fritsch/Wein/Ewers (2003), S. 193)
Bei einem Grenzkostenpreis in Höhe von pGK würde das Unternehmen zwar ein allokativ effizientes Outputniveau erzielen, es würde aber aufgrund der sinkenden Durchschnittskostenkurve einen Verlust in Höhe des Rechtecks ABCD erwirtschaften. Dies ist für den Monopolisten nicht akzeptabel, da er ohne ausreichende Subventionen seitens des Staates Gefahr läuft, seine Marktmacht ganz zu verlieren und aus dem Markt gedrängt zu werden.
Welche Möglichkeiten bieten sich somit dem Unternehmen im natürlichen Monopol? Die First-Best-Lösung kommt aufgrund des Defizits nicht in Frage. Da der Monopolist positive Gewinne erzielen möchte, muss er zwangsläufig auf oder oberhalb der Durchschnittskostenkurve produzieren. Wenn er einen Preis entsprechend seinen Durchschnittskosten setzt (pDK), kann er zwar seine gesamten anfallenden Kosten decken, er erzeugt aber wiederum im Vergleich zur Wettbewerbslösung einen zu geringen Output. Der deadweight loss ist jedoch wesentlich kleiner als bei der reinen “Cournot-Preisbildung” im natürlichem Monopol. Zu erwähnen ist hierbei noch, dass der Punkt (pDK/xDK) nach seinen Entdeckern auch Ramsey-Boiteux-Punkt genannt wird.[24]
Eine Preisfestlegung gemäß den Durchschnittskosten ist aufgrund des Wohlfahrtsverlustes ganz eindeutig der First-Best-Lösung unterlegen. Da der deadweight loss in diesem Fall wesentlich akzeptabler ist als bei einer monopolistischen Preissetzung und der Monopolist nun wegen der Kostendeckung nicht mehr subventioniert werden muss, wird diese Lösung als Second-Best-Lösung bezeichnet.
Für den Monopolisten ist der Sekond-Best-Fall zwar besser als die Wettbewerbslösung, aber dennoch suboptimal. Deshalb wird er einen Preis anbieten, der sich aus dem Schnittpunkt der Grenzerlöskurve mit der Grenzkostenkurve ableiten lässt, was mit gesamtgesellschaftlichen Zielsetzungen nicht vereinbar ist.
Ein öffentliches Versorgungsunternehmen steht aus diesen Überlegungen heraus vor einem immensen Zielkonflikt. Zum einen will es natürlich seine Eigenwirtschaftlichkeit erreichen, indem es einen möglichst hohen Gewinn erwirtschaftet, um die anfallenden Kosten decken zu können. Zum anderen jedoch wird seitens des Staates und aus gesamtgesellschaftlicher Sicht heraus von dem Unternehmen verlangt, dass es ökonomisch effizient und ohne Wohlfahrtsverluste produzieren soll. Hält sich das Unternehmen nicht daran, wird es reguliert werden. Diese beiden Zielsetzungen widersprechen sich und können auf den ersten Blick nur durch gegenseitigen Verzicht (Gewinnverzicht und Wohlfahrtsverlust) „unter einen Hut“ gebracht werden.
Der Monopolist muss nach Möglichkeiten suchen, um diesen Zielkonflikt zu minimieren. Die beste Möglichkeit besteht in der Ausgestaltung eines optimalen Tarif- und Kapazitätssystems, welches ihm sowohl Kostendeckung gewährleistet als auch Wohlfahrtsverluste verringert oder ganz verhindert. Aus diesem Grund haben in der Praxis kostendeckende Tarife mehr und mehr an Bedeutung gewonnen.
Ein solcher Ansatz zur Kostendeckung ist die Preis- und Kapazitätsplanung gemäß der Theorie des Peak-Load-Pricing. Es handelt sich dabei um eine Second-Best-Lösung, mit der es möglich ist, den Interessengegensatz zwischen dem monopolistischen Unternehmen und der Gesamtgesellschaft entschärfen zu können. In der reinen Theorie wird das Peak-Load-Pricing sogar als First-Best-Fall angesehen, da es keinerlei Wohlfahrtsverluste herbeiführt und dem Unternehmen den Erhalt der Eigenwirtschaftlichkeit gewährleistet.
In den nächsten Abschnitten dieser Arbeit werden die theoretischen Grundlagen des Peak-Load-Pricing sehr detailliert erläutert. Nach einer einführenden Begriffsabgrenzung liegt der Schwerpunkt der Ausführung zunächst auf den klassischen Modellen zur Spitzenlasttarifierung, welche Marcel Boiteux und Peter O. Steiner zugrunde liegen. Im Anschluss daran wird in einem eigenen Kapitel auf die in der Literatur anerkanntesten Modellerweiterungen der klassischen Spitzenlastansätze eingegangen.
3 Die Theorie des Peak-Load-Pricing
3.1 Begriffsabgrenzung und Zielsetzung
Die Spitzenlastpreisbildung (Peak-Load-Pricing) gilt als ein Teilbereich der Preis- und Allokationstheorie, wobei man sich hierbei des mikroökonomischen Ansatzes der Theorie der privaten Unternehmung bedient. Außerdem wird das Peak-Load-Pricing als ein Spezialfall der zeitlichen Preisdifferenzierung angesehen. Zeitliche Preisdifferenzierung liegt definitionsgemäß dann vor, „wenn ein Anbieter für Varianten eines Produkts, die hinsichtlich der räumlichen, leistungs- und mengenbezogenen Dimensionen identisch sind, zum gleichen Zeitpunkt oder im Verlauf einer bestimmten zeitlichen Periode verschiedene Preise fordert.“[25]
Ganz allgemein stellt das Peak-Load-Pricing eine Weiterentwicklung der traditionellen Grenzkostenpreisregel auf Situationen dar, die durch periodische Nachfrageschwankungen gekennzeichnet sind. Diese Nachfrageschwankungen betreffen eine in allen Nachfrageperioden gleiche Produktionskapazität und beziehen sich auf Güter, die aus technischen Gründen oder angesichts immens hoher Kosten nicht lagerfähig bzw. speicherbar sind.[26]
Ein weiteres Merkmal von klassischen Spitzenlastgütern ist die Unteilbarkeit der Produktionsfaktoren, die zu einer kurzfristig invariablen Kapazität und zu möglicherweise sehr hohen Fixkosten führen kann. Um in einem solchen Fall eine zusätzliche Nachfrage trotzdem noch unter Vollauslastung der Produktionsanlagen befriedigen zu können, sind in Spitzenzeiten Kapazitätserweiterungen unumgänglich. In nachfrageschwachen Zeiten hingegen ist eine Ausweitung der Kapazität im Normalfall nicht notwendig.[27] Beispiele solcher Güter finden sich meist in den traditionell regulierten Sektoren einer Volkswirtschaft. Dazu zählt zweifelsohne die Elektrizitätswirtschaft, die Telekommunikationsbranche oder auch der Verkehrssektor. In all diesen Sektoren steht man vor dem großen Problem, die Kapazitätsplanung z.B. aufgrund von technischen, institutionellen oder rechtlichen Vorgaben an der Spitzenlast ausrichten zu müssen, da sonst ein Zusammenbruch des Netzes droht (Elektrizitäts- und Telekommunikationsbranche) bzw. mit erheblichen Stauproblemen gerechnet werden muss (Verkehrssektor).
Durch die Spitzenlasttarifierung ist es den betroffenen Unternehmen möglich, den angesprochenen Problemen entgegenzutreten und eine optimale Angebotspolitik zu entwickeln, die zum einen aus gesamtwirtschaftlicher Sicht wünschenswert ist und zum anderen die unternehmensinternen Zielsetzungen zu verwirklichen vermag.
In Bezug auf die gesamtgesellschaftlich optimale Angebotspolitik stellt Schellhaaß als Hauptzielsetzung sehr treffend fest, dass das Peak-Load-Pricing auf die Maximierung der gesamtwirtschaftlichen bzw. gesamtgesellschaftlichen Wohlfahrt ausgerichtet ist.[28] Auf diese beiden Begriffe wird später noch gesondert und kritisch eingegangen. An dieser Stelle ist es ausreichend, zunächst einmal darauf hinzuweisen.
Bei der Spitzenlasttarifierung stehen somit zwei wesentliche Probleme im Mittelpunkt des Interesses: Erstens müssen bei auftretenden Spitzenlasten optimale Preissysteme etabliert werden und zweitens muss zu diesen Preisen eine ebenso optimale Kapazität bereitgestellt werden. Jedes dieser Probleme lässt sich mit dem Peak-Load-Pricing lösen. Durch zeitabhängige bzw. zeitvariable Tarife (Time-of-Use-Pricing – TOU) kann sowohl aus Unternehmens-, als auch aus gesamtgesellschaftlicher Sicht ein effizienter Zustand erzielt werden.
Die Notwendigkeit von TOU-Tarifen wird sehr deutlich, wenn man sich die traditionellen Preissetzungskonzepte näher vor Augen führt. Traditionell war es oft üblich, einen im Zeitablauf konstanten zeitinvariablen Einheitspreis zu setzen und mittels dieses Preises die Kapazitätsplanung an der Spitzenlast zu orientieren. Der Einheitspreis führt aber im Vergleich zu zeitabhängigen Tarifen dazu, dass die vorhandene Kapazität nur während eines Bruchteils der Zeitperiode voll ausgelastet ist, während sie jedoch zu den übrigen Zeiten zu wenig beansprucht wird oder im Extremfall vollkommen brach liegt, obwohl eine Vollauslastung aus produktionstechnischen Gesichtspunkten möglich wäre.[29] Durch diese Art der Preissetzung entsteht eine unerwünschte stark variierende Kapazitätsschwankung.[30] Dies impliziert eine Notwendigkeit zur Kapazitätsvorhaltung während des Spitzenlastzeitpunktes, was insgesamt die Frage offen lässt, ob eine solche Tarifierung zu einer Deckung der Gesamtkosten führt.
Mit zeitabhängigen Tarifen wie dem Peak-Load-Pricing ist es möglich, eine im Zeitablauf gleichmäßige Kapazitätsnutzung gewährleisten zu können, indem die Preise der jeweiligen Nachfrageintensität angepasst werden. Mitchell/Manning/Acton[31] haben diesen Sachverhalt sehr anschaulich dargestellt [vgl. Abb. 3-1]. Die Autoren untersuchten die Auswirkungen, die sich durch die Einführung eines zeitabhängigen Tarifs (Tarif vert) bei der französischen Elektrizitätsgesellschaft Electricité de France ergeben haben.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 3-1: Tageslastkurven vor und nach Einführung des Tarif vert (Quelle: Michell/Manning/Acton (1978), S. 138)
Die Abbildung zeigt ein Lastdiagramm, welches in einem Elektrizitätsversorgungssystem die leistungs- und energiemäßige Netzbelastung während eines bestimmten Zeitraums (hier 24 Stunden) angibt. Es werden zwei Lastkurven einander gegenüber gestellt, die den Fall vor (1952) und nach (1975) der Einführung des TOU-Tarifs darstellen.
Aus der Abbildung ist erkennbar, dass durch den Tarif vert die Spitzenlastnachfrage als Anteil der durchschnittlichen Tagesnachfrage erheblich abgebaut werden konnte. Durch diese Maßnahme konnte man Kapazitäten einsparen und gleichzeitig die nunmehr geringere Menge besser auslasten. Die Streuung der Nachfragemenge in den Spitzen- und Schwachlastbereichen konnte somit durch das Peak-Load-Pricing reduziert werden und der Auslastungsgrad der benötigten Kapazitäten erheblich verbessert werden.
Durch dieses Beispiel lässt sich sehr schön illustrieren, dass eine weitere Zielsetzung des Peak-Load-Pricing in der Glättung der Nachfrage liegt. Dies bedeutet, dass durch eine effiziente Preissteuerung und die Anlastung der volkswirtschaftlich richtigen Kosten langfristig die Schwachlastnachfrage angehoben und die Spitzenlastnachfrage gesenkt werden soll. Diese Glättung führt – wie gezeigt wurde – zu einer gleichmäßigeren Kapazitätsauslastung und zu geringeren Kosten. Durch optimale Preis- und Kapazitätsplanung kann folglich eine gesamtgesellschaftliche Wohlfahrtssteigerung erzielt werden.[32]
Wenn eine Preissetzung mittels eines zeitabhängigen Tarifs die relevanten Kosten einer Kapazitätserweiterung adäquat widerspiegelt, so ist es dadurch möglich, „dass Kapazitätserweiterungen nur so weit erfolgen, als die Konsumenten bereit sind, die dadurch verursachten Kosten über den Preis bzw. Tarif des konsumierten Gutes zu bezahlen.“[33]
Nachdem im obigen Zusammenhang des Öfteren die Begriffe „Spitzenlastnachfrage“ sowie „Schwachlastnachfrage“ erwähnt wurden, ist es im Rahmen der Abgrenzung des Peak-Load-Pricing-Begriffs notwendig, noch kurz auf die wesentlichen Eigenschaften der beiden Nachfragebereiche einzugehen.
In der Literatur wird für gewöhnlich für die Spitzenlastnachfrage das Synonym „ On-Peak “ oder auch „ Peak “ verwendet, während die Schwachlastnachfrage mit „ Off-Peak “ bezeichnet wird. Die Off-Peak-Periode ist dadurch gekennzeichnet, dass die Nachfrage unterhalb der verfügbaren Kapazität liegt, wohingegen im Peak-Bereich die Nachfrage an die Kapazitätsgrenze stößt.
Wie bereits in diesem Abschnitt angesprochen wurde, gilt die Maximierung der gesamtgesellschaftlichen Wohlfahrt als eine Hauptzielsetzung des Peak-Load-Pricing. Was ist nun genau darunter zu verstehen?
Für die Ausdrücke „gesamtgesellschaftliche“ bzw. „gesamtwirtschaftliche Wohlfahrt“ werden in der Regel auch die Begriffe „ sozialer Überschuss “ oder „ Surplus-Ansatz “ verwendet. Diese Begriffe sind operationalisiert und bedeuten, dass sich der Gesamtnutzen aller Individuen in einer Volkwirtschaft aus der Summe der Konsumentenrente und der Produzentenrente zusammensetzt.
Die Konsumentenrente gibt die über den Gleichgewichtspreis hinausgehende Nutzenschätzung der Konsumenten an, die durch die individuelle Nachfragefunktion vorgegeben ist. Die individuelle Nachfragefunktion zeigt dabei an, welchen Preis der einzelne Konsument äußerstenfalls zu zahlen bereit ist. Aufgrund des Gesetzes des abnehmenden Grenznutzens der Güter ist sie somit Ausdruck der Zahlungsbereitschaft der Konsumenten (Fläche unterhalb der Nachfragekurve abzüglich der Ausgaben) und die Zahlungsbereitschaft ceteris paribus ein geeignetes Mittel zur Wohlfahrtsmessung in einer Volkwirtschaft.[34] Marshall definiert die Konsumentenrente eines Nachfragers als „ the excess of the price which he would be willing to pay rather than go without the thing, over that which he actually does pay.”[35] Die Produzentenrente spiegelt den Gewinn des Produzenten wider, d.h. die Differenz aus seinem Erlös und seinen Kosten in der gesamten Periode. Bei der Bewertung des Nutzens wird beim sozialen Überschuss-Kriterium aufgrund der einfachen Aggregation der beiden Renten ein rein kardinaler Ansatz herangezogen.
[...]
[1] i. I. Deutsche Gesetzestexte
[2] Vgl. Borrmann/Finsinger (1999), S. 101
[3] Vgl. Baumol/Willig/Panzar (1988)
[4] Borrmann/Finsinger (1999), S. 101
[5] Sharkey (1989), S. 54
[6] Baumol/Willig/Panzar (1982), S. 171
[7] Vgl. Panzar (1991), S. 221 f.
[8] Vgl. Fritsch/Wein/Ewers (2003), S. 186 f.
[9] Vgl. Kaufer (1980), S. 70
[10] Vgl. Borrmann/Finsinger (1999), S. 103
[11] Vgl. Fritsch/Wein/Ewers (2003), S. 181 f.
[12] Vgl. Schleth (1987), S. 18
[13] Vgl. Fritsch/Wein/Ewers (2003), S. 188
[14] Vgl. Schleth (1987), S. 19 f.
[15] Vgl. Borrmann/Finsinger (1999), S. 113 sowie Wirl (1991), S. 63 f.
[16] Vgl. Wirl (1991), S. 63
[17] Vgl. Fritsch/Wein/Ewers (2003), S. 190
[18] Vgl. Fritsch/Wein/Ewers (2003), S. 186
[19] Vgl. Borrmann/Finsinger (1999), S. 110
[20] Vgl. Knieps/Brunekreeft (2000), S. 7 ff.
[21] Vgl. Hanusch (1998), S. 450 sowie Sohmen (1976), S. 30
[22] Vgl. Meier (1983), S. 20
[23] Vgl. Fritsch/Wein/Ewers (2003), S. 191 f.
[24] Vgl. Baumol/Bailey/Willig (1977), S. 350 ff.
[25] Faßnacht (1996), S. 65
[26] Vgl. Schellhaaß (1978), S. 463
[27] Vgl. Waldmann (1981), S. 1
[28] Vgl. Schellhaaß (1978), S. 463
[29] Vgl. Waldmann (1981), S. 1
[30] Vgl. Finsinger (1979), S. 3
[31] Vgl. Michell/Manning/Acton (1978), S. 138
[32] Vgl. Aberle/Eisenkopf (2000), 238
[33] Meier (1983), S. 25
[34] Vgl. Külp (1992), S. 198
[35] Marshall (1920), S. 103; mit dem Begriff „Preis“ meint der Autor die Gesamtausgaben der Konsumenten für das betreffende Gut.
- Quote paper
- Manuel Tschamler (Author), 2003, Zeitvariable Preise unter den Bedingungen einer zyklisch schwankenden Nachfrage – das Peak-Load-Pricing, Munich, GRIN Verlag, https://www.grin.com/document/88106
-
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X.