Eine ökonomische Analyse einer Universaldienstverpflichtung des Breitbandsektors


Masterarbeit, 2012

105 Seiten, Note: 2,0


Leseprobe


Inhalt

Abkürzungsverzeichnis

Abbildungsverzeichnis

Tabellenverzeichnis

Formelverzeichnis

1 Einleitung

2 Technische und wirtschaftliche Grundlagen von Breitbandnetzen
2.1 Technische Grundlagen des Breitbandnetzes
2.1.1 Netzstruktur
2.1.2 Glasfasernetze
2.1.3 Hybridnetze
2.1.4 LTE als funkbasierende Breitbandübertragung
2.2 Ökonomische Grundlagen des Breitbandausbaus
2.2.1 Sunk Costs im Breitbandausbaus
2.2.2 Dichtevorteile in der Breitbandinfrastruktur
2.2.3 Universaldienste

3 Breitbandausbau und Telekommunikationsgesetz : Status Quo
3.1 Stand des Breitbandsektors 2011/12
3.2 Auswirkungen der unterschiedlichen Breitbandtechnologien
3.2.1 FTTC
3.2.2 HFC
3.2.3 FTTH
3.2.4 LTE
3.3 Bevölkerungsverteilung und Migration

4 Kosten des Universaldienst
4.1 Determinanten und Ausgestaltungskosten des Universaldienstmechanismus
4.1.1 Unionsrechtliche und verfassungsrechtliche Voraussetzungen
4.1.2 Ausgestaltung einer Universaldienstverpflichtung im Breitbandsektor
4.1.3 Konsequenzen der Etablierung eines Universaldienstmechanismus
4.2 Kosten der Universaldienstinfrastruktur
4.2.1 Grundlagen zur Kostenermittlung eines Breitbandnetzes
4.2.2 Breitbandnetzausbau unter Wettbewerb
4.2.3 Infrastruktur Kosten der Breitbanduniversaldienstverpflichtung

5 Nutzen eines Breitband-Universaldienstes

6 Fazit

Literaturverzeichnis

Rechtsquellen-Verzeichnis

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

Abbildungsverzeichnis

Aufbau des Internets nach dem NGA-Modell

NGA-Ebenenmodell

Glasfasertopologie P2P und xPON

Aufbau des Mobilfunknetzes

Dichtevorteile durch Besiedlungsdichte

Bevölkerungsdichte nach potentiellen FTTH-Teilnehmern

Kritische Penetrationsrate.

Grenzkosten-Grenznutzen-Vergleich

Tabellenverzeichnis

Das Verhältnis zwischen verfügbaren und tatsächlich genutzten Bandbreiten 2011

Angenommene ARPU

Monatliche Kostenanteile an den Gesamtkosten bei 70 % Penetration.

Kritische Penetrationsraten der Teilnehmer im Green- bzw. Brownfield-Roll-Out.

Kritische Penetrationsraten für VDSL.

Kostendifferenz zwischen Universaldienst und Wettbewerb.

Formelverzeichnis

Inkrementalkosten des Universaldienstes.

Universaldiensteinahmen

Universaldienstlast

Breitbandqualität

Kostendifferenz zwischen Universaldienst und Wettbewerb.

Universaldienstpreissetzung

1 Einleitung

Deutschland ist im Vergleich zu anderen Ländern eine Wirtschaftsnation, die aufgrund ihrer Innovationen eines der exportstärksten Länder der Welt ist. Dabei nimmt das Internet eine entscheidende Rolle bei der Informationsgewinnung und -weiterleitung sowie Bereitstellung von Dienstleistungen ein. Mit der nächsten Netzwerkgeneration NGA/NGN stehen größere Datenkapazitäten über das Internet schneller zur Verfügung. Dies steigert den Austausch von Informationen und somit die Innovationsfähigkeit Deutschlands. Die deutsche Bundesregierung hat 2009 deshalb ein Strategiepapier vorgelegt, welches einen flächendeckenden Ausbau des Breitbandnetzes vorsieht. Doch bis jetzt ist die erste Zielsetzung eines flächendeckenden Breitbandausbau bis 2010 immer noch nicht erfüllt. Dies führte zu politischen Debatten, in denen das Regulierungsinstrument der Universaldienstverpflichtung diskutiert wurde, um einen flächendeckenden Breitbandausbau in Deutschland durchzusetzen. Dies wird andererseits stark kritisiert, da dies mit einem Eingriff in Marktmechanismen in denen sich bereits ein Wettbewerb etabliert hat, einhergeht.

Anhand dieser Diskussion ergibt daher die zentrale Frage der vorliegenden Ausarbeitung: Ist eine Universaldienstverpflichtung der Breitbandanbieter auf Infrastrukturebene in Deutschland für eine flächendeckende Breitbandversorgung ökonomisch sinnvoll?

Aus dieser Fragestellung werden weitere Fragen abgeleitet:

- Welche Ausgangsbedingungen herrschen in Deutschland?
- Welche Technologien sind für den Breitbandausbau verfügbar?
- Wie hoch ist der Kostenumfang durch die Finanzierung einer Universaldienstverpflichtung?
- Welcher Nutzen entsteht durch eine Universaldienstverpflichtung?
- Welche relativierenden Faktoren gibt es?

Schwerpunktmäßig soll in dieser Analyse die Kostenstruktur des Universaldienstes dargestellt und mit dem sich daraus ergebenden Nutzen verglichen werden. Darüber hinaus sollen relevanten Faktoren, die einen Einfluss auf die Relevanz von Universaldienstverpflichtung haben, vorgestellt werden. Die dabei verwendeten Zahlen und Rechnungen dienen lediglich zur Veranschaulichung von möglichen Kosten und Einnahmen bzw. Nutzen des Universaldienstes. Vielmehr wird der Fokus darauf gelegt werden, ob der Universaldienst generell im deutschen Breitbandsektor etabliert werden sollte.

Zu Beginn der Untersuchung sollen die in Deutschland gängigen Breitbandtechnologien Glasfaser, VDSL, Kabelnetze und LTE sowie die Infrastruktur dargestellt werden. Im Anschluss werden die ökonomisch relevanten Faktoren Sunk Costs, Economy of Density und Universaltdienst und deren Einfluss auf den flächendeckenden Breitbandausbau aufgezeigt.

Der folgende Abschnitt stellt den aktuelle Stand des Informations- und Telekommunikationssektors und den Breitbandausbau dar. Ebenso soll die derzeitige Bevölkerungs- und Teilnehmerstruktur in Deutschland sowie deren Entwicklung verdeutlicht werden, um mögliche Auswirkungen auf den Breitbandausbau absehen zu können.

Das anschließende Kapitel behandelt die Universaldienstkosten. Dabei werden die Kosten des Universaldienstmechanismus selbst und die Infrastrukturkosten betrachtet. Ebenso sollen die gesetzlichen Rahmenbedingungen für eine Universaldienstverpflichtung sowie deren Ausgestaltung und Konsequenzen für den Breitbandsektor in Deutschland aufgezeigt werden. Für die Infrastrukturkostenberechnung werden anhand der ermittelten Technologiekosten im Rahmen verschiedener Studien die Infrastrukturkosten einer Universaldienstverpflichtung für einen flächendeckenden Ausbau näherungsweise vorgestellt.

Anschließend sollen die ermittelten Einflussfaktoren und Universaldienstkosten dem Einkünften bzw. Nutzen einer Universaldienstverpflichtung gegenübergestellt werden. Abschließend soll zudem eine Handlungsempfehlung bezüglich der Frage, ob die Etablierung eines Breitband-Universaldienstes in Deutschland sinnvoll ist, gegeben werden.

2 Technische und wirtschaftliche Grundlagen von Breitbandnetzen

2.1 Technische Grundlagen des Breitbandnetzes

Bevor ein Überblick über die technischen Gegebenheiten des Breitbandsektors erfolgen kann, muss Breitband bzw. Bandbreite definiert werden. Breitband umfasst alle Arten schneller Datenübertragung im Internet. Allerdings variieren die Anforderungen an die Mindestübertragungsrate der Datenübertragungsrate je nach Institution bzw. Nation zwischen 256 kBit/s[1] und 1 MBit/s[2]. Durch dynamische Prozesse und Dienstleistungen wie Cloud Computing[3] ist davon auszugehen, dass der Bedarf an einer funktionsfähigen Infrastruktur mit hoher Bandbreite und geringer Verzögerung steigen wird.[4] Zunehmende Bandbreiten und geringe Latenz sind erforderlich, um die Funktionsfähigkeit der heterogenen Internetdienste zu garantieren. Dabei sind die Kriterien einer ausreichend großen Bandbreite sowie die Latenz und teilweise die Symmetrie der Down- und Uploadgeschwindigkeiten von entscheidender Bedeutung. In den Hauptnutzungszeiten besteht für einige Dienstleistungen nicht genügend Kapazität zur Verfügung. Dadurch ist die Nutzung hochwertiger Internetdienste eingeschränkt und führt zu einer Reduzierung der Wohlfahrt[5].[6]

Zum besseren technischen Verständnis soll in den folgenden Abschnitten eine Übersicht über die technischen Anforderungen und Eigenschaften der Breitbandinfrastruktur sowie der in Deutschland am häufigsten eingesetzten Breitbandtechnologien gegeben werden.

2.1.1 Netzstruktur

Das Internet ist ein dezentrales Netzwerk, welches über verschiedene Übertragungsmedien Daten in Paketform zwischen den Nutzern und den Anbietern von Applikationen über sogenannte Router und Datenstationen überträgt. Für die folgende Betrachtung ist eine horizontale sowie vertikale Segmentierung dieses Systems notwendig, um die relevanten Kostenträger zu identifizieren und ein besseres Verständnis über den Einfluss bestimmter Segmente auf die Kostenstruktur zu bekommen.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Aufbau des Internets nach dem NGA-Modell[7]

Wie anhand der Abbildung 1 zu erkennen ist, gliedert sich die Infrastruktur des Internets in drei Netzbereiche[8]. Diese Bereiche sind das Kernnetz, das Konzentrationsnetz und das Zugangsnetz, wobei Letzteres im Fokus der Untersuchung steht. Kern- und Konzentrationsnetz werden aufgrund ihres geringen Einflusses auf die Kostenstruktur hinsichtlich ihrer Kostenanteile für einen flächendeckenden Breitbandausbau nicht weiter betrachtet.[9] Das Zugangsnetz umfasst die Schnittstelle vom Konzentrationsnetz über die Hauptverteiler, den Kabelverzweiger[10], das Gebäudenetzwerk bis zum Nutzeranschluss. Bei funkbasierenden Technologien umfasst das Anschlussnetz die Schnittstelle vom Kernnetz über das Sendemodul bis hin zum Empfangsgerät. Das Gebäudenetzwerk wird als Teil des Zugangsnetzes gesehen, aber in einigen Modellen als separater Bestandteil für die Kostenanalyse betrachtet.[11] In der weiteren Betrachtung steht das Anschlussnetz im Mittelpunkt der Universaldienstanalyse.

Im NGA-Modell[12] gibt es diverse Überschneidungen der jeweiligen Technologien zwischen den Netzbereichen, sodass funktionsgleiche Ebenen abstrakt in einem Schichtmodell zusammengefasst werden. Anhand dieses Modells wird eine vertikale Eingrenzung vorgenommen, im die relevanten Elemente der Kostenstruktur zu ermitteln.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: NGA-Ebenenmodell[13]

Abbildung 2 zeigt, dass die vertikale Segmentierung, ähnlich wie im ISO/OSI-Modell, in Schichten dargestellt wird.[14] Das NGA-Schichtmodell wird vereinfachter als das ISO/OSI Modell aufgezeigt, um alle Breitbandtechnologien[15] mit ihren jeweiligen Besonderheiten abstrakt darstellen zu können. Anwendungsschicht, Darstellungsschicht, Sitzungsschicht und Transportschicht werden im NGA-Modell in einer Schicht, dem sogenannten Layer 4, zusammengefasst. Diese Anwendungsebene ist für die Infrastrukturkostenuntersuchung irrelevant und wird nicht weiterführend betrachtet. Relevant sind die Schichten Layer 0 bis 3. In Layer 0 werden alle physikalischen Übertragungsmedien, wie Glasfaserkabelbäume, Leerrohre, Gebäudeverkabelung, Antennenmasten sowie weitere Medien, die die physikalische Übertragung von Datensignalen[16] ermöglichen, zusammengefasst.[17] Die gesamte Infrastruktur, die notwendig ist, um eine aktive Datenübertragung gewährleisten zu können, wird in den folgenden Kapiteln als passive Infrastruktur[18] bezeichnet. Durch die Art der Glasfaserverlegung[19] wird festgesetzt, welche Glasfaserübertragungstechnologie in den nachgelagerten Ebenen genutzt werden kann.[20]

Die Layer 1 bis 3 bilden zusammen die aktive Infrastruktur und umfassen alle Einrichtungen bzw. Anlagen, die die Bereitstellung von dedizierten Bandbreiten bzw. Wellenlängen der jeweiligen Anbieter (Layer 1), die Erstellung der virtuellen Verbindung zum Teilnehmer (Layer 2) sowie die paketbasierende Übertragungstechnologie (Layer 3) für die in Layer 4 verwendeten Dienste ermöglichen.[21] Unternehmen, die sich im Bereich der Infrastruktur aktiv und passiv bewegen, werden auch als Carrier bezeichnet. Alle Begriffe, die sich auf Telekommunikationsunternehmen beziehen, werden synonym für Carrier verwendet. Zusammenfassend wurden die Layer 0 und 1 im Schichtenmodell, die die aktive und passive Infrastruktur des Anschlussnetzes bilden als relevanter Bereich für die folgende Untersuchung identifiziert.

Im nächsten Abschnitt werden die verschiedenen Übertragungsarten bzw. -technologien vorgestellt.

2.1.2 Glasfasernetze

Glasfaser ist die modernste kabelgebundene Datenübertragungstechnologie, die derzeit verfügbar ist. Sie überträgt optische Signale durch Wellenlängenmultiplex[22] mit einer Übertragungsfrequenz bis zu 60 THz und ist somit um den Faktor 60.000 leistungsfähiger als ein normales Koaxialkabel. Die Glasfaserinfrastruktur ist in einer FTTH Architektur angelegt, was bedeutet, dass Glasfaser vom Hauptverteiler bis hin zum Teilnehmeranschluss verlegt worden ist. Man unterscheidet drei Varianten: P2P, Active Ethernet und PON. Relevant für die Untersuchung sind P2P und PON. Bei P2P wird eine durchgängige Leitung vom Hauptverteiler bis hin zum Endkunden bereitgestellt. xPON hingegen splittert sich am Kabelverzweiger in weitere Leitungen auf.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3: Glasfasertopologie P2P und xPON[23]

Wie in der Abbildung 3 vereinfacht dargestellt, wird bei einer Punkt-zu-Punkt-Verbindung jeder Kunde mit einer für ihn reservierten, durchgängigen Leitung vom Hauptverteiler bis zum Nutzeranschluss versorgt. Es können Strecken von 40 km bis 80 km zwischen Hauptverteiler und Nutzer liegen, ohne dass ein Signalverstärker zwischengeschaltet werden muss. Ebenso können Bandbreiten je nach Kundenwunsch von 100 MBit/s bis 10 GBit/s pro Faser bereitgestellt werden.[24]

Bei einer Punkt-zu-Multipunkt-Verbindung wird die Glasfaserleitung aus dem Feeder-Segment über einen passiven Splitter auf mehrere Fasern aufgeteilt. Dadurch wird die Übertragungskapazität der Faser ebenfalls aufgesplittet. Technisch liegen die Verhältnisse bei 1:32. In diesem Verhältnis teilt sich auch die Übertragungskapazität der Glasfaser auf die Nutzer auf. Die Übertragungskapazität beträgt bei GPON 2,5 GBit/s im Download- und 1,25 GBit/s im Upload-Bereich. Die maximale Distanz zwischen Hauptverteiler und Nutzer beträgt in dieser Topologie 20 km.[25] Die Vor- und Nachteile der jeweiligen Anordnungen werden in Abschnitt 3.2.3 ausführlicher behandelt.

Im nächsten Abschnitt werden die Hybridvarianten aus konventionellen und neuen Übertragungsmedien dargestellt.

2.1.3 Hybridnetze

Wie die Abbildung 1 verdeutlicht, sind Hybridnetze, die in einer FTTC-Architektur den Zwischenschritt zwischen den konventionellen Kabel- und Telefonnetzen und den modernen FTTH-Glasfasernetzen bilden. Die Glasfaser ist netzseitig im Feedersegment bis zum Kabelverzweiger ausgebaut. Im Dropsegment, ab dem Kabelverzweiger, werden Kupferdoppeladerleitungen des alten Telekommunikationsnetzes genutzt.[26]

Die Breitbandübertragungstechnologie VDSL basiert auf der FTTC-Architektur des ehemaligen Telefonnetzes und erreicht durch die hybride Netzstruktur Übertragungsgeschwindigkeiten zwischen 52 MBit/s und 100 MBit/s im Down- und Uploadbereich. Um diese Bandbreiten zu gewährleisten, darf die Distanz der Kupferdoppelader zwischen Kabelverzweiger und Nutzeranschluss maximal 500 m betragen.[27]

Das Breitbandkabelnetz oder auch Hybrid Fiber Coax genannt, entwickelte sich aus dem ehemals analogen Fernsehkabelnetz und wurde durch die Innovation neuer Hardware rückkanalfähig. Es ist mit Signalverstärker ausgerüstet, die eine höhere Trassenlänge[28] zulassen. Die Datenübertragung findet auf Basis von DOCSIS 3.0 statt, welche eine Bandbreite von bis zu 400 MBit/s im Downloadbereich und bis zu 108 MBit/s im Upload-Bereich ermöglicht.[29] DOCSIS ist ein Datenübertragungsprotokoll, welches im Kabelnetz eingesetzt wird.

Im nächsten Abschnitt wird Long Term Evolution als funkbasierende Breitbandübertragungstechnologie vorgestellt.

2.1.4 LTE als funkbasierende Breitbandübertragung

Anders als leitungsgebundene Technologien basiert LTE auf einer Datenübertragung per Funk. Diese Datenübertragung findet im normalen Mobilfunknetz statt und ist folglich auch dessen Architektur und Aufbau unterworfen.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 4: Aufbau des Mobilfunknetzes[30]

Wie in Abbildung 4 dargestellt, besteht das Mobilfunknetz aus einzelnen Zellen, deren Kern die Basisstation bildet. Hierbei handelt es sich um einen Funkmast, der mit Sende- und Empfangsmodulen für die jeweiligen Übertragungstechniken ausgestattet ist. Dieser Funkmast ist über eine Glasfaserleitung direkt mit dem Kernnetz verbunden. Die Signalstärke des Funksignals und die damit einhergehende Empfangsqualität nehmen mit steigender Entfernung des Nutzers zur Basisstation ab. Der Abstand, mit welchem ein Empfangsgerät noch mit einer vorgegebenen Mindestqualität versorgt werden kann, bildet den Radius der Funkzelle. Innerhalb dieser Funkzelle werden alle sich darin befindlichen Empfangsgeräte durch die Basisstation der Funkzelle versorgt. Überschreitet ein Nutzer mit seinem Empfangsgerät diesen Radius, wechselt das Empfangsgerät des Nutzers die Funkverbindung selbstständig zur nächsten Basisstation mit dem stärkeren Signal.[31] Um Störungen zwischen den Funkzellen zu vermeiden, müssen in direkt benachbarten Funkzellen unterschiedliche Frequenzbänder genutzt werden, was den Bedarf des Frequenzspektrums deutlich erhöht.[32]

Long Term Evolution stellt die momentan aktuellste Mobilfunkgeneration, auch 4G genannt, dar. Im Gegensatz zu der älteren Mobilfunkgeneration kann mit LTE, wie bei UMTS, jede Zelle mit den gleichen Frequenzen ausgestattet und die Störungsanfälligkeit mit optimieren Signalverarbeitungsverfahren reduziert werden.[33] Der Zellradius der Funkzellen hängt von den genutzten Frequenzen ab. Mit LTE kann eine mittlere Nutzerdatenrate[34] von 1,3 MBit/s bis 13 MBit/s im Download- und 720 kBit/s bis 7 MBit/s im Upload-Bereich erreicht werden. Dies entspricht einer Funkzellenbandbreite zwischen 172,8 MBit/s und 300 MBit/s. Um diese Bandbreiten zu erreichen, werden voneinander unabhängige gleichgroße Kanäle genutzt.[35]

Mit der Übersicht über die funkbasierende Breitbandtechnologie LTE wurden alle relevanten und in Deutschland hauptsächlich verwendeten Breitbandübertragungstechnologien vorgestellt. Zwar gibt es noch die Möglichkeit, Datenübertragung über Satellit durchzuführen, was jedoch im Rahmen dieser Betrachtung nicht von Relevanz ist.

Aufgrund der eben vorgestellten Technologien sind einige ökonomische Effekte von besonderer Bedeutung für die weitere Betrachtung. Diese werden im anschließenden Abschnitt dargestellt.

2.2 Ökonomische Grundlagen des Breitbandausbaus

Netzinfrastrukturen weisen besondere ökonomische Merkmale wie Sunk Costs und Dichtevorteile auf. Ebenso soll der Universaldienst in seinen Grundzügen dargestellt werden.

2.2.1 Sunk Costs im Breitbandausbau

Kosten oder auch Sunk Costs ergeben sich aus der Irreversibilität der betroffenen Ressourcen. Dabei kann es sich um Investitionen bzw. Aufwendung handeln, deren Irreversibilität dadurch gekennzeichnet ist, dass in diesen Fällen eine mehrperiodige Verwendung vorgesehen ist und nur eingeschränkte bzw. keine Alternativen vorhanden sind. Dadurch tendiert ihr Liquidationswert gegen Null oder ist Null. Der irreversible Anteil ergibt sich aus der Differenz des Anschaffungswerts und des Liquidationswerts des Investitionsobjekts bzw. der Aufwendung.[36]

Grund dieser Irreversibilität ist die Art ihrer Verwendungsspezifität und ihre Verweildauer am Markt. Je spezifischer der Spezialisierungsgrad der erlangten Ressource, desto geringer ist die Anzahl der möglichen Abnehmer bei einer Weiterveräußerung. Ebenso spielt der Faktor Mobilität der Ressource eine wichtige Rolle, da eine Immobilie oder Anlage nicht anderen Orts wieder errichtet werden kann. Dadurch sinkt der Kreis der potentiellen Abnehmer.[37] Man unterscheidet zwischen Industrie-, Markt-und Transaktionsirreversibilität.[38] Grundsätzlich sind die Anschlussnetze als marktirreversibel zu betrachten, da ein anderer Carrier durchaus noch Interesse an dieser Sauce haben kann. Bei passiver Infrastruktur im Mobilfunkbereich können die verwendeten Einrichtungen immer noch für den Betrieb von UMTS- oder GSM-Netzen genutzt werden. Anlagen zur Vermittlung von Datendiensten, wie Router und sonstige aktive Infrastrukturen sind industrieirreversibel, da sie noch für die gesamte Industrie als mobile Ressourcen verfügbar sein können.[39]

Durch die Sunk Costs existiert für potentielle Markteilnehmer eine Markteintrittsbarriere in Form des Investitionsrisikos.[40] Ein potentieller Markteilnehmer muss, im Gegensatz zu einem bereits etablierten Unternehmen, erst Investitionen[41] in eine geeignete Infrastruktur tätigen, bevor er diese betreiben kann. Werden jedoch zu geringe Einnahmen generiert, kann der potentielle Wettbewerber die entstehenden Kosten nicht decken.[42] Stehen verschiedene Regionen mit unterschiedlichen Bevölkerungsdichten zur Auswahl, wird der potentielle Markteilnehmer sein Datennetz in Regionen errichten, in denen eine hohe ungedeckte Nachfrage nach Bandbreite existiert. Hier kann er erwarten, dass durch die Nachfrage und die damit verbundenen Zahlungen die Kosten für die vorangegangenen Investitionen gedeckt werden. Folglich wird er dicht besiedelte Regionen den schwach besiedelten vorziehen, um das Risiko der Insolvenz zu minimieren.[43]

Optional können Sunk Costs und das damit einhergehende Risiko in Form von Quersubventionen, Langzeitverträgen oder bei Universaldienstverpflichtungen[44] mit Subventionen reduziert werden.[45]

Die eben erwähnte unternehmerische Präferenz basiert auf dem ökonomischen Effekt von Dichtevorteilen, die im anschließenden Abschnitt thematisiert werden.

2.2.2 Dichtevorteile in der Breitbandinfrastruktur

Gerade in Sektoren mit einer leitungsgebundenen Infrastruktur wie Gas, Elektrizität, Wasser und Telekommunikation ist es besonders relevant, ob Skalen- oder Bündelungseffekte vorhanden sind, da diese Infrastrukturen von hohen Investitionen und Fixkosten dominiert werden.[46] Skaleneffekte, die sich auf Vorteile durch räumliche Dichte beziehen, werden auch Dichtevorteile oder Economy of Density genannt.[47]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 5: Dichtevorteile durch Besiedlungsdichte[48]

Abbildung 5 verdeutlicht, wie Sunk Costs und Fixkosten bei einer hohen Besiedlung pro angeschlossenen Haushalt mit steigender Dichte sinken.[49] Die in Rot dargestellte Kostenfunktion C gibt die antizipierten monatlichen Kosten eines Teilnehmers an. Diese setzen sich aus den Investitions- und Betriebskosten der Infrastruktur zusammen. Dabei wurde anhand der wirtschaftlichen Lebensdauer des Investitionsobjekts und der monatlichen Betriebskosten ein Durchschnittswert pro Haushalt[50] für die jeweilige Besiedlungsdichte gebildet. Wie zu erkennen ist, sinken die auf der Ordinate angegebenen Kosten pro Haushalt mit steigender Besiedlungsdichte, welche auf der Abszisse angegeben ist. Die in Schwarz dargestellte durchschnittliche Einkommensfunktion ARPU ergibt sich aus den unterschiedlichen Anteilen der genutzten Tarifpreise für Einzel-, Bündel- und Geschäftskundentarife, die in Deutschland vorhanden sind. Sie wird zur Vereinfachung als unabhängig von der Besiedlungsdichte angenommen und ist somit konstant für alle Besiedlungsdichten. Vergleicht man die Kosten- mit der Einkommensfunktion, stellt man fest, dass die Kosten für einen angeschlossenen Haushalt bzw. Teilnehmer bis zum Schnittpunkt S über den durchschnittlichen Einkommen liegen. Es entsteht ein Defizit in Höhe der rot markierten Fläche für die betroffenen Regionen mit geringer Siedlungsdichte. Dieses Defizit ist darauf zurückzuführen, dass die Zahl der vorhandenen Teilnehmer zu niedrig ist, um Durchschnittskosten zu erreichen, die dem ARPU entsprechen. Erst mit steigender Bevölkerungsdichte sinkt die negative Ertragskostendifferenz pro Haushalt bis zum Punkt S. In diesem Punkt entsprechen die Kosten der Infrastruktur dem möglichen Einkommen.

Ab dem Punkt S sinken die Kosten pro angeschlossenen Haushalt unter die Einkommensfunktion, was für die Infrastrukturbetreiber Gewinne ermöglicht und eine Erschließung mit steigendem potentiellem Gewinn umso wahrscheinlicher ist, je höher die Teilnehmerdichte in der betroffenen Region ist.

Es wird in dicht besiedelten Gebieten zwar insgesamt mehr Leitungsstrecke verlegt und mehr investiert, jedoch sinkt die Länge der Leitungen und die damit verbundenen Investitionen pro Haushalt deutlich gegenüber einem Haushalt in schwach besiedelten Regionen. Dies ist zum einen auf die Länge der Leitung zu den jeweiligen Haushalten und zum anderen auf die Anzahl der Kabel bzw. Leitungen, die sich einen Kabelgraben bzw. ein Leerrohr teilen, zurückzuführen. Insgesamt sind die Kosten für die Erschließung dicht besiedelter Gebiete höher, jedoch sind durch die kürzeren Strecken zwischen den einzelnen Haushalten und den Knotenpunkten die Kosten pro angeschlossenen Haushalt deutlich geringer und es werden mehr Leitungen je Kabelgraben gelegt.[51]

Mit sinkenden Anschlusskosten pro Haushalt reduziert sich damit auch das in Abschnitt 2.2.1. beschriebene Risiko, dass die irreversiblen Kosten vollständig entfallen. Je höher diese Dichtevorteile sind, umso niedriger ist die benötigte Penetrationsrate[52] angeschlossener Nutzer, um ein NGA-Netzwerk kostendeckend zu betreiben.[53] Die Grafik zeigt somit deutlich, dass die Gebiete, die eine Teilnehmerdichte aufweisen, die höher ist als die Teilnehmerdichte im Punkt S, durch den Wettbewerbsmechanismus vom Markt erschlossen werden. Problematisch wird es für die Gebiete, die über eine geringere Teilnehmerdichte verfügen und sich links vom Punkt S befinden. In der Universaldienstdiskussion sind es diese Gebiete, die durch konventionelle Marktmechanismen vermutlich nicht erschlossen werden, da sie auf der Infrastrukturebene Defizite für die Infrastrukturbetreiber erzeugen.

Economy of Density sind ebenso Verbundvorteile. Beispielhaft hierfür ist die Trennung zwischen Telefon-, Kabel- und Datennetz vor 1980. Mittlerweile werden diverse Anwendungen wie Sprachtelefonie, Datentransport und TV-Signale über ein Netz transportiert.[54] Mit jedem weiteren Dienst, der zusätzlich verwendet wird, werden Bündelungsvorteile erzeugt. Verbundvorteile sind auf der Infrastrukturebene eher irrelevant.[55]

Skaleneffekte sind gleichzeitig ein Indikator für Subadditivität[56], was die Existenz eines Monopolisten als allokativ effizientere Option primär befürwortet, da er die Versorgung eines Gebietes kostengünstiger bewerkstelligen kann als eine Vielzahl von Anbietern.[57] Diese nimmt mit steigender Netzgröße ab, wodurch eine Untergliederung der Netze und somit ein Infrastrukturwettbewerb sich als notwendig erweist.[58] Durch die neuen Übertragungstechnologien wie LTE und Kabelinternet entstehen alternative Anschlussmöglichkeiten der Haushalte an das Anschlussnetz. Dieses wird somit in seiner Stellung als sogenanntes Bottleneck[59] zusätzlich erodiert. Ebenso wird das Anschlussnetz entbündelt, sodass andere Internetserviceprovider die Möglichkeit erhalten, über die Infrastruktur der Anschlussnetzinfrastrukturbetreibers Internet anzubieten.[60] Dabei erhält der Infrastrukturbetreiber eine entsprechende Mietgebühr für die Nutzung seiner Infrastruktur.

Weitere Faktoren, die zusätzliche Größenvorteile in der Infrastruktur erzeugen, ergeben sich durch die Kapazität der physikalischen Übertragungsmedien und deren Netzdimensionierung.[61] Bevorzugt man Glasfaser gegenüber Kupfer, können deutlich mehr Daten bei gleichen oder sogar geringeren Kosten übertragen werden. Diese Bündelungsvorteile sind besonders bei leitungsgebundenen Technologien ausprägt, wohingegen Dichtevorteile auf funkbasierenden Übertragungstechnologien geringere Auswirkungen haben als bei leitungsgebundenen Technologien. Jedoch existieren bei funkbasierenden Technologien Größenvorteile durch die Funkzellengröße, die eine Basisstation mit ihrem Funkradius abdeckt.[62]

2.2.3 Universaldienste

Wie bereits in Abschnitt 2.2.1 beschrieben, werden Unternehmen aufgrund der Dichtevorteile vor allem Regionen mit hoher Dichte bevorzugt erschließen, da die Erschließung schwach besiedelter Regionen nicht rentabel ist. Diese könnten gegebenenfalls nicht ausreichend versorgt sein bzw. werden.

Wird Breitband wie Wasser, Elektrizität, Wärme und Sprachtelekommunikation als gesellschaftlich und wirtschaftlich unverzichtbares Gut angesehen, sieht sich der Staat gezwungen, regulierend einzugreifen, sobald eine Unterversorgung in einzelnen Regionen festgestellt worden ist.[63] Um dieses Defizit auszugleichen, nutzt der Staat das Regulierungsinstrument Universaldienst. Damit verpflichtet der Staat ein Unternehmen, welches auf dem relevanten Markt tätig ist, Dienstleistungen in den unterversorgten bzw. nicht versorgten Gebieten bereitzustellen.[64] Im Fall der Bereitstellung von sprachbasierender Telekommunikation ist Universaldienstleistung im Telekommunikationsgesetz als „[…]ein Mindestangebot an Diensten für die Öffentlichkeit, für die eine bestimmte Qualität festgelegt ist und zu denen alle Endnutzer unabhängig von ihrem Wohn-und Geschäftsort zu einem erschwinglichen Preis Zugang haben müssen und deren Erbringung für die Öffentlichkeit als Grundversorgung unabdingbar geworden ist“[65] definiert.

Durch die Etablierung einer solchen Pflicht entstehen zusätzliche Kosten, die sich zum einen durch das staatliche Handeln und den Universaldienstmechanismus, zum anderen aus den zusätzlichen Infrastrukturkosten in Abhängigkeit von der Universaldienstqualität[66] ergeben. Vergleicht man diese mit den möglichen zusätzlichen Einnahmen, ergibt sich aus der negativen Differenz die Universaldienstlast. Potentiell ist ebenfalls eine positive Differenz möglich, sofern die Einnahmen die entstehenden Kosten übersteigen. Bei negativer Differenz muss die entstehende Universaldienstlast finanziert werden. Zusätzlich beeinflusst eine Universaldienstverpflichtung die Errichtung eines flächendeckenden Breitbandausbaus, da Infrastrukturen und Ressourcen in Regionen zur Verfügung gestellt werden müssen, die unter wettbewerblichen Bedingungen zu einem späteren Zeitpunkt, in einem geringeren Umfang oder gar nicht erschlossen werden würden.[67] Die Finanzierung einer Universaldienstverpflichtung unter wettbewerblichen Bedingungen kann durch staatliche Subventionen wie im Energiesektor[68] oder Sektorfonds, die durch die beteiligten Unternehmen getragen werden, ermöglicht werden und ist mit zusätzlichen Kosten verbunden.[69]

Die Bedingungen, Ausgestaltung, Kosten und Konsequenz eines Universaldienstes in Deutschland sollen im Abschnitt 4 ausführlich dargestellt werden. Im anschließenden Kapitel 3 werden die Ausgangsbedingungen, die für den Breitbandsektor relevant sind, aufgezeigt.

3 Breitbandausbau und Telekommunikationsgesetz: Status quo

Die Frage, ob es ökonomisch sinnvoll ist, eine Universaldienstverpflichtung im Breitbandsektor zu etablieren, hängt von mehreren Faktoren ab. Dabei muss sowohl eine statische als auch dynamische Betrachtung bezüglich Umsatzpotenzial, Migration innerhalb der Bundesrepublik und Rahmenbedingung für eine Universaldienstverpflichtung durchgeführt werden. Neben einem Kosten-Nutzen-Vergleich sind diese Faktoren als Ergänzung für eine umfassendere Betrachtung relevant. Daher soll im Folgenden die Lage des gesamten Telekommunikationssektors in Bezug auf den Breitbandausbau und die Nutzungsweise derzeitiger Internetdienste dargelegt werden. Ebenso sollen die Besonderheiten der jeweiligen Übertragungstechnologien und damit verbundene Unternehmen erläutert und deren Einfluss auf die Entwicklung des Breitbandnetzes dargestellt werden. Zudem ist es notwendig, neben den wirtschaftlichen Voraussetzungen auch die Migration innerhalb der Regionen zu betrachten, da diese einen besonderen Einfluss auf die regionale Bevölkerungsdichte hat. Auch sollen die Voraussetzungen, Rahmenbedingungen und Form eines Breitband-Universaldienstes in Deutschland in diesem Kapitel präsentiert werden.

3.1 Stand des Breitbandsektors 2011/12

Der Telekommunikationssektor ist wie fast alle Netzsektoren ein stark regulierter Sektor, in welchem die Bundesnetzagentur als Aufsichtsbehörde tätig ist. Zu ihren Aufgaben zählt es, Berichte über die wettbewerbliche und ökonomische Entwicklung der regulierten Sektoren in Form von Jahres- bzw. Tätigkeitsberichten wiederzugeben.[70]

Die Bundesnetzagentur verzeichnet in ihrem Jahresbericht 2011 sowie Tätigkeitsbericht im Bereich Telekommunikation 2010/11 alle relevanten Entwicklungen innerhalb des Telekommunikationssektors. Die gesamten Außenumsatzerlöse des TK-Sektor beliefen sich im Jahr 2011 auf 58,4 Mrd. €. Davon entfielen 24,32 Mrd. € auf das Angebot von datenbasierenden Dienstleistungen im Telekommunikationsnetz und 3,95 Mrd. € auf Dienstleistungen der Kabelnetzbetreiber. Im Mobilfunksektor stieg der Umsatz von 25,84 Mrd. € im Jahr 2010 auf 26,36 Mrd. € in 2011.Grund für diesen Anstieg ist der zunehmende Verkauf von Smartphones und Tablet-PCs. Insgesamt verzeichnet der gesamte TK-Sektor einen Umsatzrückgang, was auf steigenden Wettbewerbsdruck und sinkende Terminierungsentgelte zurückzuführen ist.[71]

Im Gegensatz zu den sinkenden Umsatzzahlen stiegen die Investitionen von 5,9 Mrd. € auf 6,0 Mrd. € an. Davon entfielen 3,2 Mrd. € auf die Festnetze, 0,7 Mrd. € auf das Kabelnetz und 2,1 Mrd. € auf die Mobilfunknetze. Dies entspricht 10,1 % des gesamten Jahresumsatzes 2011, wobei die Kabelnetzinvestoren mit 17,7 % besonders herausstechen.[72]

Ebenso ist der Anteil der 1,1 Mio. hinzugekommenen Breitbandanschlüsse mit 0,7 Mio. im Kabelnetzbereich nicht unerheblich. Mittlerweile besitzen 27,3 Mio. Haushalte einen Breitbandanschluss, wobei das fast ausgebaute DSL-Netz[73] mit 23,4 Mio. Anschlüssen und 86 % Anteil die dominierende Übertragungstechnologie ist. Das Kabelnetz bedient 2011 3,6 Mio. Anschlüsse, was 13 % des Anschlussmarktes entspricht. Laut Bundesnetzagentur sind die Kabelnetzbetreiber Ende 2012 in der Lage, insgesamt 24 Mio. Haushalte mit 100 MBit/s über das Kabelnetz zu versorgen, wodurch sie einen reale Alternative zu den etablierten DSL in den verfügbaren Bereichen darstellen. Die restlichen 1 % der Anschlüsse entfallen auf die satellitengestützte oder strombasierende Datenübertragung. Insgesamt sind 67,9 %[74] der deutschen Haushalte mit einem Breitbandanschluss versorgt.[75] Nicht zu verwechseln ist diese Zahl mit den 37,98 Mio. Nutzern für Sprachtelefonie.[76] Im Vergleich zu den Vorjahren sinkt die Zahl der Neuanschlüsse, was vermuten lässt, dass ein Sättigungsprozess im Breitband-Anschlussmarkt eintritt. Zudem erschweren die wettbewerblichen Preise die Erschließung neuer Flächen. Gerade die Nachfrage nach DSL ist aufgrund ihrer eingeschränkten Leistungsfähigkeit stark zurückgegangen, da immer mehr hochbitratige Breitbandanschlüsse nachgefragt werden.[77] Schmalbandanschlüsse wie ISDN verlieren immer mehr an Bedeutung in diesem Sektor.[78]

Tabelle 1: Das Verhältnis zwischen verfügbaren und tatsächlich genutzten Bandbreiten 2011[79]

Abbildung in dieser Leseprobe nicht enthalten

Wie anhand Tabelle 1 ersichtlich, nutzen zwei Drittel der 27,3 Mio. angeschlossenen Nutzer, die die Möglichkeit haben, einen Internetanschluss mit einer Bandbreite von 16 MBit/s in Anspruch nehmen zu können, tatsächlich einen Anschluss mit Bandbreiten unterhalb von 10 MBit/s. Nur ein Drittel der Nutzer nutzt tatsächlich Bandbreiten oberhalb von 10 MBit/s. Laut Bundesnetzagentur ist im Rahmen einer Studie das Verhältnis in allen europäischen Nationen herauszuarbeiten.[80] Dabei ist anzumerken, dass die Verfügbarkeit sich auf alle Haushalte bezieht, wohingegen die tatsächlichen Nutzeranteile nur auf alle angeschlossenen Nutzer abstellen.

Zudem veranschaulicht Tabelle 1, dass Breitband mit 1 MBit/s fast überall in Deutschland verfügbar ist. Bei genauerer Betrachtung der Abdeckung fällt jedoch auf, dass gerade ländliche Regionen[81] verhältnismäßig schlechter erschlossen sind als Regionen mit Teilnehmerdichten über 100 Nutzern pro km. Effektiv sind 700.000 Haushalte noch nicht mit einem Breitbandanschluss versorgt.[82] Es ist jedoch zu erwarten, dass durch den Ausbau von LTE im Frequenzspektrum 800 MHz die Zahl der unterversorgten Haushalte in ländlichen Regionen reduzieren wird, da die Auflagen noch nicht für alle Bundesländer erfüllt sind.[83]

Insgesamt nutzen 72 %[84] bis 80 % der Deutschen das Internet, von den restlichen Nichtnutzern streben 3,3 % an, demnächst Internet zu nutzen.[85] Diese Umfrage stützt die Beobachtung dass eine Sättigung im Breitband-Anschlussmarkt eingetreten ist.

Im Mobilfunkmarkt steigt die Zahl der Neuanschlüsse auf 114,13 Mio. Anschlüsse, was einer Penetration von 140 % der Bevölkerung entspricht. Zurückzuführen ist dieser Trend, wie zuvor beschrieben, auf den gestiegenen Anteil an Tablet-PCs, Surfsticks und Smartphones.[86]

Zudem ist ein Anstieg der Nutzung von Onlinediensten wie IPTV und VoIP[87] zu verzeichnen.

Folglich stieg das Datenvolumen im Festnetz um 0,5 Mrd. GB auf 3,7 Mrd. GB und im Mobilfunknetz von 65,41 Mio. GB auf 93 Mio. GB im Jahr 2011 an.[88] Im Mobilfunkbereich erklärt sich der Anstieg um 42 % durch die steigende UMTS-Nutzung von mittlerweile 28,6 Mio. regelmäßigen Nutzern und die steigende Nachfrage von APP-Diensten auf Smartphones, Tablet-PCs und Surfsticks.[89] Der Anteil von LTE ist hier noch zu gering, als dass ihr ein entsprechender Kontingent an der steigenden mobilen Breitbandnutzung zugesprochen werden könnte. Jedoch stellen einige Unternehmen wie Vodafone die Anwendungen ihrer Festnetzkunden auf LTE um, um unabhängiger von den Vorleistungsprodukten der Deutsche Telekom AG zu werden. Ein weiterer Faktor ist die hohe Kostenersparnis, die mit LTE einhergeht. Diese Entwicklung lässt vermuten, dass ein rascher Ausbau des LTE-Netzes zu erwarten ist.[90]

Durch den steigenden Bedarf an Datenvolumen ist es erforderlich, die Kapazitäten der In-frastruktur auf höhere Bandbreiten zu erweitern, um so auch zukünftig die Funktionsfähigkeit der in Anspruch genommenen Internetdienste gewährleisten zu können. Dazu hat die Bundesregierung 2009 ein Strategiepapier zum Breitbandausbau in Deutschland veröffentlicht, in welchen sie folgende Ziele festsetzte: Bis 2010 sollte in Deutschland eine Bandbreite von 1 MBit/s flächendeckend für alle Haushalte zur Verfügung stehen. Zusätzlich soll bis 2014 für 75 % der Teilnehmer eine Bandbreite von 50 MBit/s verfügbar sein und anschließend flächendeckend ausgebaut werden.[91]

Zusammenfassend ist der TK-Sektor mit sinkenden Umsatzerlösen, steigendem Wettbewerb und wachsendem Bedarf an Bandbreite konfrontiert. Zudem entwickelt sich besonders der Bedarf an mobilem Breitband heraus. Entgegen dem steigenden Bedarf an Datenvolumen ist die geringe Nachfrage nach Breitbandanschlüssen oberhalb von 10 MBit/s noch äußerst prägnant, was auch für einen flächendeckenden Ausbau von nicht unerheblicher Relevanz ist.

Im anschließenden Kapitel sollen die Vor- und Nachteile der in Abschnitt 2.1 vorgestellten Architekturen und Übertragungstechnologien verglichen und deren Relevanz für einen flächendeckenden Ausbau mit einhergehender Universaldienstverpflichtung aufgezeigt werden.

3.2 Auswirkungen der unterschiedlichen Breitbandtechnologien

Wie bereits in Kapitel 2.1 aufgezeigt, existieren mittlerweile mehrere Möglichkeiten, Bandbreite zu übertragen. Die heterogenen Übertragungstechnologien weisen unterschiedliche Infrastrukturen und Eigenschaften auf, die nicht nur die Investitionen und laufenden Kosten der Infrastruktur beeinflussen, sondern wegen ihrer Topologie und physischen Besonderheiten weitere Faktoren mit sich bringen, die in einer Kostenbetrachtung nicht erfasst werden können und durchaus einen höheren Nutzen stiften könnten. So können auch Entwicklung und Zukunftsfähigkeit bestimmter Technologien dargestellt und ihre Eignung für einen flächendeckenden Ausbau bzw. eine Universaldienstverpflichtung dargestellt werden.

3.2.1 FTTC

FTTC ist, wie bereits in Abschnitt 2.1.3 beschrieben, eine Hybridvariante aus Glasfaser und Kupferdoppelader.

Dabei wird im Feeder-Segment jeweils eine Faser für den Hin- und Rückweg pro Kabelverzweiger genutzt. Im Kabelverzweiger wird das optische Signal in ein elektronischesSignal umgewandelt und über die herkömmliche Kupferleitung weitergeleitet. Ein besonderes Merkmal von FTTC ist, dass eine permanente Übertragung des gesamten Frequenzspektrums auf allen Leitungen im betroffenen Netz stattfindet, da diese benötigt werden, um die erforderliche Bandbreite zu erzeugen.

In dieser Architektur wird VDSL(2) eingesetzt, welche die modernste und leistungsfähigste DSL-Generation mit bis zu 100 MBit/s im Up- und Downloadbereich ist. Jedoch ist diese Leistungsfähigkeit aufgrund der Dämpfungseigenschaften der Kupferdoppelader auf kurze Distanzen begrenzt. Bereits bei einer Distanz von 1,5 km zwischen Kabelverzweiger und Nutzer sinkt die Bandbreite auf 16 MBit/s, die auch mit den konventionellen Telefonleitungen und ADSL zu erreichen ist.[92] Aus der Sicht des NGA-Forums ist es sinnvoll, als Zwischenschritt die alten Telefonleitungen so lange beizubehalten, bis mit FTTC die Breitbandnachfrage gedeckt werden kann.[93] Dieser Zwischenschritt ist jedoch nur als solcher zu verstehen, da FTTC durch die Schwachstelle Kupferleitung den steigenden Anforderungen an Breitband nur durch kürzere Kupferleitungen gerecht werden kann. Dadurch wird die Anzahl der Zweigstellen erhöht, was wiederum einen Anstieg an Investitionen und laufenden Fixkosten zur Folge hat. Wie der Tätigkeitsbericht der Bundesnetzagentur Telekommunikation für das Jahr 2010/2011 zeigt, wird VDSL wenig nachgefragt.[94]

Eine Verfügbarkeit von VDSL ist vor allem im Ortszentrum und dicht urbanen Gebieten vorzufinden.[95] Bandbreiten oberhalb der 100 MBit/s erfordern eine sehr kurze Kupfertrasse, die eine erneute Restrukturierung der vorhandenen Architektur zur Folge hätte, was wiederum hohe Kosten verursacht. Daher ist die Zukunftsfähigkeit der FTTC-Architekturen eher fragwürdig, da die Qualität des Anschlusses von der Länge der Kupferleitung zwischen Verteiler und Nutzer abhängig ist.

Durch die geringen Kosten gegenüber FTTH ist FTTC/VDSL dennoch attraktiv, da derzeit alle online verwendeten Dienste mehr als ausreichend über die Bandbreite, die durch VDSL bereitgestellt wird, bedient werden können. Analysys Mason (2008a) zeigt zudem, dass eine spätere Migration von FTTC zu FTTH möglich sei, da ungefähr 50 % der ursprünglichen FTTC-Ressourcen bei FTTH weitergenutzt werden können. Problematisch wird dies, wenn mehrere Unternehmen in eine gemeinsame Infrastruktur investiert haben, da gegebenenfalls die Frage nach entsprechenden Entschädigungszahlungen im Raum stehen könnte.[96] Somit ist VDSL als mittelfristige Übertragungstechnologie anzusehen, da der Bedarf an Bandbreite durch neue Dienstleistungen ansteigen wird.[97]

3.2.2 HFC

Das Kabelnetz nimmt im Infrastrukturwettbewerb eine besondere Rolle ein. Durch die Konvergenz der Übertragungsmedien und -techniken ist es mittlerweile möglich, neben dem regulären Fernsehprogramm auch Daten über das Kabelnetz zu übertragen.[98]

Derzeit besitzen die Kabelnetzbetreiber einen Marktanteil von 13 %. Dies ist, verglichen mit den Telekommunikationsanbietern, ein noch geringer Anteil. Doch haben sich 61 % aller Neuanschlüsse 2011 für einen Breitbandzugang über Kabel entschieden. 2009 waren es nur 40 % aller Neukundenanschlüsse.[99] Kabelnetzbetreiber besitzen ein hohes Potenzial, sich mittel- und langfristig als Wettbewerber am Breitbandmarkt zu etablieren.[100] Sie bieten Bandbreiten bis 100 MBit/s zu monatlichen Gebühren zwischen 25 € und 30 € zuzüglich des Kabelanschlussentgeltes an. Telekommunikationsanbieter bieten zu diesem Tarif eine Bandbreite von 16 Bit/s an. Diese Bandbreite kann jedoch nicht allen Kunden gleichzeitig zur Verfügung gestellt werden. Dabei kommt den Kabelanbietern zugute, dass die Nachfrage nach hohen Bandbreiten sehr zögerlich verläuft.[101] Potenziell können, wie bereits in Kapitel 3.1 erwähnt, Ende 2012 60 % aller deutschen Haushalte mit einem Breitbandanschluss über Kabel versorgt werden. Dadurch leisten die Kabelanbieter zum Ausbauziel der Bundesregierung, dass 2014 75 % aller Haushalte Zugang zu einem Breitbandanschluss von 50 MBit/s oder mehr haben sollen[102], einen hohen Beitrag.[103]

Breitbandkabel ist ein sogenanntes shared medium [104]. Wie bei FTTH/PON, ergibt sich die durchschnittliche Bandbreite pro Nutzer aus der Anzahl der Nutzer, die an einen Verteiler angeschlossen sind.[105] Übersteigt der Anteil der hochbitratigen Nutzer in einem Verteilernetzwerk den Wert von 20 %, wird dieser Bereich strukturiert. Dies bedeutet, dass die Kabelbetreiber in der Lage sind, das Verteilernetzwerk in kleinere Netzwerke aufzuspalten. Ebenso ist es ihnen möglich, das Netzwerk etappenweise durch Glasfaserleitungen zu ersetzen, wodurch das Kabelnetz schrittweise in eine FTTH- bzw. FTTB[106] -Architektur transformiert werden kann.[107] Dieser Prozess ist nachfragegetrieben. So können bei Bedarf die entsprechenden Cluster reorganisiert und die nötigen Investitionen für die Reorganisation bzw. den Glasfaserausbau bis hin zum Gebäude aus dem laufenden Cashflow der Kabelanbieter finanziert werden. Dies minimiert gleichzeitig das Risikoprofil der Kabelanbieter.[108] Die nächste Stufe des HFC ist das sogenannte Deep-Fibre. In dieser Anordnung werden in einem Verteilersystem maximal 100 Haushalte versorgt. Gleichzeitig wird die Glasfaserleitung zum Gebäude hin näher angelegt. Ein Umwandlungsmodul, die so genannte Fibre Node, konvertiert die optischen in elektrische Signale und leitet diese an den Gebäudeanschluss und über das Gebäudenetzwerk zu den Nutzeranschlüssen weiter. Die letzte Ausbaustufe ist die sogenannte Radio Frequency over Glas (RFoG) in einer FTTB- Architektur. Diese Ausbaustufe wird in der Regel bei vorher nicht erschlossenen Gebieten verwendet.[109] In allen Stufen kann weiterhin dasselbe Protokoll DOCSIS 3.0 weiterverwendet werden. So bleiben bei einer Strukturierung die zentralen Systemelemente erhalten, während parallel und punktuell die Infrastrukturaufrüstung Nachfrage orientiert erfolgen kann. Voraussetzung für diese effiziente, punktuelle und kontinuierliche Aufrüstung ist eine permanente Kontrolle der Nachfrage nach Breitband in den einzelnen Verteilersystemen, um frühzeitig Engpassprobleme zu vermeiden.[110]

Da die Kabelnetzbetreiber ihre eigenen Netze nutzen und ausbauen, sind sie in der Regel nicht von Vorleistungen dritter Anbieter abhängig. Ebenso gibt es kein Indiz dafür, dass Kabelbetreiber anderen Unternehmen über Entbündelung oder Bitstrom Zugang zu ihrer Infrastruktur gewähren.[111]

Auch liegt die Upstreamkapazität nur bei 10 % der Downloadkapazität, was bei der Nutzung von Clouddiensten und Videotelefonie durchaus problematisch sein kann. Dieses Problem kann zukünftig durch frei werdendes Frequenzspektrum, wie durch Wegfall analoger Fernsehprogramme bzw. Optimierung digitaler Fernsehübertragung (DVB-C2), begegnet werden. Durch dieses Spektrum ist es auch möglich, zukünftig mehr Bandbreite anbieten zu können. Durch den Wegfall von analogen Fernsehsendern würden pro analoges Programm 50 Mbit/s mehr an Bandbreite zur Verfügung stehen. Ebenso wäre eine Aufrüstung auf DVB-C2 zwar mit dem Auswechseln von neuen Set-Top-Boxen verbunden, jedoch würde dieser Wechsel 60 % mehr Kapazitäten schaffen. Eine weitere Verbesserungsmöglichkeit liegt darin, die parallele Übertragung aller Fernsehprogramme durch IPTV zu ersetzen. Dadurch würde nur noch das gewählte Programm übertragen und mehr Kapazitäten freigesetzt. Dadurch würde sich der IP-Verkehr um ein Vielfaches erhöhen und Investitionen in die IP-Infrastruktur erfordern.[112]

Im Gegensatz zu den Telekommunikationsanbietern sind die Kabelnetzbetreiber bereits jetzt in der Lage, Haushalte mit 100 MBit/s zu wettbewerbsfähigen Preisen zu versorgen. Ebenso verfügen sie über ein nachfragegesteuertes und Cashflow orientiertes Ausbausystem mit geringem Risiko. Sie besitzen zudem weiteres Potenzial, um der zukünftig steigende Nachfrage nach Breitband gerecht zu werden. Ebenso können Sicherheitsbedenken ausgeschlossen werden, da die Anfälligkeit für Viren und Hackerangriffe auf der IP-Ebene manifestiert ist. So ist das Kabel ein guter Katalysator für einen steigenden Infrastrukturwettbewerb der NGA-Netze.[113] Jedoch bleibt die Frage offen, ob eine Entbündelung über Kabelinternet möglich wäre und welche Effekte auf die Wohlfahrt hieraus entstehen könnten.

3.2.3 FTTH

Bei FTTH verläuft der Datentransfer zwischen Hauptverteiler und Nutzeranschluss vollständig über Glasfaserleitungen und ist somit die derzeit fortschrittlichste Übertragungstechnologie. In Deutschland sind es in der Regel kleine Carrier wie M-Net, NetCologne oder wilhelm.tel, die den Glasfaserausbau vorantreiben. Der einzige deutschlandweit agierende Service Provider[114] mit Glasfaserarchitektur ist O2 Teléfonica. Das Glasfaserangebot der DTAG soll Mitte 2012 starten.[115]

Bei einem durchgängigen Datentransport über Glasfaser gibt es zwei Grundarten der Infrastrukturanordnung. Die erste ist die Punkt-zu-Punkt-Übertragung (P2P). Wie bereits in Abschnitt 2.1.2 beschrieben, wird in dieser Variante für jeden Nutzer eine individuelle physische Glasfaserleitung reserviert. Sie besitzt von allen leitungsgebundenen Technologien die größte Reichweite und kann alle angeschlossenen Kunden je nach Wunsch mit einer Bandbreite zwischen 100 MBit/s und 10 GBit/s, die durch ein Einspeisungssignal zugeordnet werden, versorgen. Neukunden können, sofern sie einen Leitung besitzen, einfach an das optische Verteilersystem angeschlossen werden. Die optischen Verteilersysteme können in einer P2P-Topologie mehr als 35.000 Kunden gleichzeitig bedienen.[116] P2P nutzt Ethernet, ein Standardsystem im Internet, wodurch keine oder nur geringe Probleme zu erwarten sind, da es bereits eine produzierende Industrie gibt und erprobte Systeme vorhanden sind.[117]

Unter Wettbewerbsbedingungen ist die P2P-Topologie sehr zugangsfreundlich. Wettbewerber können ihre optischen Verteiler im Hauptverteiler installieren. Sie stellen ihr System an einem angemieteten Platz auf und verbinden diese mit dem übergeordneten System und der Leitung ihres Kunden. Von der Kostenstruktur muss der Wettbewerber, abgesehen vom Zugangsnetz sowie der Hausverkabelung, die gleichen Kosten aufwenden. Für die Nutzung des Zugangsnetzes und der Verkabelung bezahlt der Wettbewerber eine Miete an den Monopolisten.[118]

Neben P2P Übertragung existiert auch eine Punkt-zu-Multipunkt-Übertragung oder auch Passive Optical Network (PON) genannt. In einer PON-Topologie wird, wie bereits in Abschnitt 2.1.2 beschrieben, die Leitung vom Hauptverteiler durch passive Splitter auf mehrere Nutzerleitungen verteilt. Diese Aufteilung kann entweder durch einen oder stufenweise durch mehrere Splitter erfolgen. Jedoch schränkt jeder weitere passive Splitter die Signalwirkung des sendenden Moduls ein. Durch diesen Prozess können bis zu 32 Teilnehmer angeschlossen werden. Vorteilhaft gegenüber P2P ist hier jedoch, dass durch die geringe Anzahl der Leitungen im Feeder-Segment eine deutlich höhere Übersichtlichkeit existiert.

Die gesamte Übertragungskapazität von 2,5 GBit/s im Download- und 1,25 GBit/s im Uploadbereich teilt sich für jeden Kunden auf eine Datenübertragungsrate von 80 MBit/s bzw. 40 MBit/s auf. Im Vergleich zu Punkt zu Punkt entspricht dies einer deutlich geringeren Datenübertragungskapazität, die zudem nicht skalierbar ist. Eine Skalierbarkeit kann zwar durch ein Zuordnungsverfahren der Wellenspektren erreicht werden, die maximale Kapazität liegt jedoch unter 1 GBit/s. Diese Zuordnung gilt aber nur, sofern andere Nutzer, die am gleichen Splitter angeschlossen sind, nicht beeinträchtigt würden. Ist die Verkehrsnachfrage der Nutzer an einem Splitter höher als die verfügbare Gesamtkapazität, kann die Zahl der Nutzer pro Splitter reduziert werden. Dies setzt jedoch voraus, dass Reserven bei der Errichtung des Netzes gebildet worden sind. Diese Reserven führen ebenso zu höheren Investition und laufenden Kosten, die nur auf die vorhandenen Nutzer umgelegt werden können. Daher spielt es unabdingbar, künftige Entwicklungen in Bezug auf Haushaltsdichten und Bevölkerungswanderung sowie den zukünftigen Breitbandbedarf mit in die Planung und Errichtung einer PON Topologie einzubeziehen.[119]

GPON ist zwar nach ITU-T G984 standardisiert, jedoch hat sich dieser Standard bis jetzt noch nicht etabliert. Daher ist es erforderlich, die notwendigen Module und Systeme von einem Hersteller zu beschaffen, um Störungen und Kommunikationsprobleme zwischen den Geräten zu vermeiden. Der Bedarf an Reservekapazitäten wird dadurch verstärkt, dass auch eine zukünftig steigende Besiedlungsdichte mit einkalkuliert werden muss, um alle Neukunden bedienen zu können. Bei PON ist die Downstreamübertragung für jeden Nutzer codiert, jedoch ist der Upstreamverkehr nicht codiert. Dadurch kann es zu Überlagerungen der Signale kommen, was zum einen zu einer Störung des Systems und zum anderen zu einer Blockade aller mit dem System verbundenen Nutzer führt. Die Fehlersuche und Instandsetzung des PON-Systems sind sehr zeitaufwändig. P2P hingegen besitzt eine geringe Fehleranfälligkeit und benötigt nur wenig Zeit bei der Instandsetzung.[120]

Die Übertragung von TV Signalen ist bei PON durch die Zuteilung eines Frequenzspektrums möglich. Bei TV Dienstleistungen kann bei P2P nicht auf eine herkömmliche Signalübertragung in der gleichen Leitung zurückgegriffen werden, sondern es muss entweder das Fernsehsignal über eine separate Glasfaserleitung zum Kunden gesendet oder das Fernsehangebot als IPTV[121] bereitgestellt werden.

Wettbewerber können im PON einen Bitstrom-Zugang[122] anmieten. Das bedeutet, dass der Wettbewerber die passive und aktive Infrastruktur des Incumbent im Zugangsnetz nutzt und eine entsprechende Nutzungsgebühr dafür bezahlt. Er mietet ein bestimmtes Frequenzspektrum an, über welches er seine Kunden versorgen kann. Aufgrund der hohen Dichtevorteile des Incumbent können Wettbewerber ggfls. von niedrigeren Nutzungsgebühren profitieren. Gleichzeitig kann dies aber auch zu einer Wettbewerbsverzerrung führen, da die Kostenstruktur des Incumbent nicht transparent ist.

Vergleicht man die Topologien miteinander, stellt sich die P2P als zukunftssicherer heraus. Sie besitzt ein höheres Angebot an Bandbreite, ist einfacher zu warten und instand zu setzen und Neukunden können durch Anschluss dem bestehenden Netz hinzugefügt werden. Zudem bieten sie symmetrische Bandbreite, was bedeutet, sie können die gleiche Kapazität im Up- und Downloadbereich zur Verfügung stellen, was für Dienste wie Videotelefonie und Cloud Computing durchaus relevant ist. Ebenso existiert bereits eine breite Industrie, von welcher der Rettungsmodule bezogen werden können, ohne große Kompatibilitätsprobleme erwarten zu müssen. Des Weiteren ist durch eine isolierte Leitung die Anfälligkeit der IP-Infrastruktur bezüglich Hackerangriffen oder Ähnlichem geringer als in einem Splittersystem, was jedoch grundsätzlich ein Problem auf Anwendungsebene ist. Wettbewerber besitzen fast identische Kostenstrukturen, wodurch die Wahrscheinlichkeit von Wettbewerbsverzerrungen äußerst gering ist. Nachteilig ist jedoch, dass P2P bis zu 90 Mal höhere Energiekosten beim Betrieb der aktiven Infrastruktur sowie mehr Leerrohre und Glasfaserleitungen benötigt.[123] Dies spiegelt sich auch in höheren Investition und laufenden Fixkosten wider.[124] Diese Faktoren fallen jedoch nur bedingt ins Gewicht, da die potentielle Kapazität und der damit verbundene Nutzen, die breite industrielle Basis sowie die geringe Störungsanfälligkeit von P2P gegenüber einer PON Topologie bevorzugt ausgebaut werden. Sowohl P2P als auch PON bietet Vorzüge, aber auch Nachteile, wobei P2P eine zu hohe Zukunftssicherheit durch hohe Breitbandreserve und einen echten entbündelten Zugang für Wettbewerber besitzt.[125]

3.2.4 LTE

Long Term Evolution ist, wie bereits in Abschnitt 2.1.4 beschrieben, die modernste mobile Datenübertragungstechnologie. Sie verfügt in Europa und Asien über eine breite industrielle Basis, was den Zugang deutlich erleichtert. Des Weiteren besitzt LTE eine höhere spek-trale Effizienz als UMTS, wodurch bei gleicher Frequenzkapazität eine höhere Bandbreite übertragen werden kann.[126] Zudem ist der Betrieb von LTE Netzen deutlich günstiger als ein vergleichbares UMTS Netz.[127] In Deutschland sind insgesamt 360 MHz aus den Frequenzbereichen 800 MHz, 1,8 GHz, 2 GHz und 2,6 GHz für LTE im Mai 2010 versteigert worden.[128] Ein besonderes Augenmerk ist hier auf das Frequenzspektrum 790 MHz - 862 MHz zu richten. Bei der Vergabe dieser Frequenzen wurden die Betreiber verpflichtet, Gemeinden und Städte, die zu dem Zeitpunkt noch nicht mit einem Breitband-Internetanschluss versorgt worden sind, zu erschließen. Hierzu hat die Bundesnetzagentur alle betroffenen Städte und Gemeinden aufgelistet und mit Prioritätsstufen für die Reihenfolge des Ausbaus versehen. Ziel dieser Verpflichtung sollte es sei, dass die Unternehmen bis 2016 in der Lage sein sollen, 90 % aller aufgelisteten Städte und Gemeinden mit einem Breitbandanschluss im 800 MHz-Frequenzspektrum zu versorgen.[129] Diese Städte und Gemeinden liegen in den schwach besiedelten Regionen, die für eine leitungsgebundene Breitbanderschließung bis jetzt nicht attraktiv waren und daher nur über einen Schmalbandanschluss[130] verfügten. Somit sollten mit LTE die Breitbandstrategie-Ziele der Bundesregierung für eine flächendeckende Breitbandversorgung gesichert werden.[131]

[...]


[1] Angabe der OECD (vgl. Baake, Pavel, Schumacher (2011), S. 2).

[2] Definition des BMWi in seiner Breitbandstrategie (vgl. BMWi (2009), S. 7; Baake, Pavel, Schumacher (2011), S. 2).

[3] Cloud Computing ist die Bereitstellung von Rechenleistung, Speicherplätzen oder Ähnlichem über das Internet (vgl. BSI (2012)).

[4] Vgl. Baake, Pavel, Schumacher (2011), S. 2.

[5] Wohlfahrt besteht grundsätzlich aus Konsumenten- und Produzentenrente (vgl. Kramer (2007), S. 127; Vogler (2011), S. 9).

[6] Vgl. Litan, Singer (2007), S. 569; Vogler (2011), S. 6 ff., S. 23.

[7] Eigene Darstellung nach Jay, Neumann, Plückebaum (2011), S. 27; NGA-Forum (2011a), S. 20; Elixmann et al. (2008), S. 73.

[8] Der Begriff Bereich soll die horizontale Segmentierung der Netzinfrastruktur wiedergeben, wohingegen der Begriff Ebene die vertikale Anordnung im Sinne von Schicht bzw. Layer beschreibt (vgl. NGA Forum (2011a), S. 3 ff.).

[9] Vgl. Jay, Neumann, Plückebaum (2011), S. 27.

[10] Der Kabelverzweiger wird in der FTTC-Architektur auch als Cabinet oder Curb bezeichnet, manchmal wird hier auch der Begriff Node verwendet. Letztendlich ist der Kabelverzweiger der Endpunkt der Glasfasertechnologie aus Sicht des Netzes zum Teilnehmer (vgl. Hoerning et al. (2010), S. 30).

[11] Vgl. Jay, Neumann, Plückebaum (2011), S. 21. .

[12] Das Next Generation Access umfasst alle neuen breitbandigen Übertragungstechnologien bzw. -möglichkeiten wie FTTH, HFC, FTTC und LTE (vgl. NGA-Forum (2011a), S. 32 - 69).

[13] Eigene Darstellung nach NGA-Forum (2011a), S. 130.

[14] Durch die übereinanderliegenden Schichten soll verdeutlicht werden, dass die Eigenschaften der darunterliegenden Schicht immer als Basis für die darüberliegende Schicht notwendig ist (vgl. NGA Forum (2011a), S. 128 ff.).

[15] Der Begriff Breitbandtechnologien wird synonym für die verschiedenen Übertragungstechnologien verwendet.

[16] Ein Signale ist elektronische, optische oder elektromagnetische Wiedergabe von Daten (vgl. Krämer (2007), S. 7).

[17] Vgl. NGA-Forum (2011a), S. 15 f.

[18] Die passive Infrastruktur kann separat von anderen Anbietern oder öffentlichen Trägern als Vorleistungsprodukt für den aktiven Breitbandbetrieb bereitgestellt werden (vgl. NGA-Forum (2011a), S. 16 f.).

[19] Mit der Verlegung der Kabel wird festgelegt, ob eine Punkt-zu-Punkt- oder eine Punkt-zu-Multipunkt-Architektur und die damit verbundene Datenübertragung betrieben wird (siehe 2.1.3).

[20] Vgl. NGA-Forum (2011a), S. 16 f.

[21] Vgl. NGA-Forum (2011a), S. 17 f., S. 28 ff.

[22] Wellenlängenmultiplex ist eine Übertragungstechnologie für Glasfasermedien, für weitere Informationen siehe NGA-Forum (2011a), S. 47 ff.

[23] Eigene Darstellung nach NGA-Forum (2011a), S. 33.

[24] Vgl. Hoerning et al. (2010), S. 36.

[25] Vgl. Hoerning et al. (2010) S. 28 - 40; NGA-Forum (2011a), S. 8, S. 35.

[26] Vgl. NGA-Forum (2011a), S. 35 f.

[27] Vgl. ebenda, S. 42 - 45.

[28] Trassenlänge beschreibt die Distanz einer Datentransferleitung zwischen zwei Anschlusspunkten, dabei ist die Art der Leitung irrelevant (vgl. Jay, Neumann, Plückebaum (2011), S. 1 f).

[29] Vgl. Wichert-Nick et al. (2011), S. 18.

[30] Eigene Darstellung nach Fettweis (2011), S. 8 - 9.

[31] Vgl. Fettweis (2011), S. 8 ff.

[32] Vgl. ebenda, S. 9.

[33] Vgl. Fettweis (2011), S. 10.

[34] Die mittlere Nutzerdatenrate ist die Bandbreite, die ein Nutzer unter realen Bedingungen erwarten kann (vgl. Fettweis (2011), S. 9 f., 41 f.; NGA-Forum (2011a), S. 62).

[35] Vgl. Fettweis (2011), S. 40 f.; NGA-Forum (2011a), S. 62.

[36] Vgl. Baumol, Willig (1981), S. 406 f.; Kruse (2001), S. 74; Walke (1999), S. 148.

[37] Vgl. Walke (1999), S. 149.

[38] Vgl Kruse (1985), S. 60 - 63.

[39] Vgl. Wake (1999), S. 149 f.

[40] Vgl. Baumol, Willig (1981), S. 418; Graak (1997), S. 84 ff.

[41] Investitionen können auch Fixkosten sein, deren Wert unabhängig von der Produktionsmenge ist (vgl. Baumol, Willig (1981), S. 406 ff.).

[42] Vgl. Kruse (2001), S. 75.

[43] Vgl. Baumol, Willig (1981), S. 418 f.

[44] Universaldienste werden im Abschnitt 2.2.3 behandelt.

[45] Vgl. Baumol, Willig (1981), S. 420.

[46] Fixkosten sind Kosten, die unabhängig von der Produktionsmenge anfallen. Ein Beispiel hierfür ist der Strombedarf des Hauptverteilers und seiner Anlagen, da er unabhängig von der durchgeleiteten Datenmenge einen konstanten Stromverbrauch erzeugt (vgl. Graak (1997, S. 33).

[47] Vgl. Kruse, Liebe (2005), S. 25.

[48] Eigene Darstellung, angelehnt an Kruse (2000), S. 5.

[49] Vgl. Elixmann et al. (2008), S. 71.

[50] Hierbei wird angenommen, dass alle verfügbaren Haushalte angeschlossen werden.

[51] Vgl. Graak (1997), S. 25; Birke (2009), S. 72.

[52] Die Penetrationsrate ist der kumulierte Anteil der Kunden, die eine Dienstleistung beziehen (vgl. Gabler (2012a).

[53] Vgl. Elixmann et al. (2008), S. 71.

[54] Vgl. Graak (1997), S. 33.

[55] Vgl. Walke (1999), S. 111.

[56] Subadditivität liegt dann vor, wenn ein Unternehmen auf gleichem Raum die Hausanschlüsse zu geringeren Kosten versorgen könnte als zwei in Konkurrenz stehende Unternehmen (vgl. Kruses (2001), S. 72 f.; Graak (1997), S. 25).

[57] Baumol, Willig (1981), S. 408 f.

[58] Vgl. Graak (1997), S. 25 ff.

[59] Bottleneck beschreibt das Anschlussnetz als notwendige Einrichtung bzw. Infrastruktur bei vorliegenden hohen irreversiblen Kosten als natürliches Monopol, bei dem es sich nicht lohnt, ein konkurrierendes Netz aufzubauen (für eine genauere Beschreibung siehe Knieps (2003), S. 3 ff.; Vaterlaus et al. (2003), S. 7 ff.).

[60] Vgl. § 84 TKG.

[61] Vgl. Walke (1999), S. 115 ff.

[62] Vgl. Birke (2009), S. 73.

[63] Vgl. Birke (2009), S. 73, Kruse (2000), S. 1.

[64] Vgl. Damjanovic et al. (2006), S. 186; Elsenbast (1999), S. 24 f.; Knieps (2005), S. 4 f.

[65] § 78 Abs. 1 TKG.

[66] Als Universaldienstqualität werden die Qualitätskriterien Bandbreite, maximale Verzögerung oder auch Latenz und Symmetrie im Up- und Download kumulativ von staatlicher Seite vorgeschrieben (vgl. Baake, Pavel, Schumacher (2011), S. 22).

[67] Vgl. Panzar (2000), S. 213.

[68] Vgl. Knieps (2005), S. 8.

[69] Vgl. Graak (1997), S. 87 f.; Knieps (2005), S. 10.

[70] Vgl. TKG, § 121, § 122.

[71] Vgl. Bundesnetzagentur (2011), S. 25 f.; Bundesnetzagentur (2012), S. 66 ff.

[72] Vgl. Bundesnetzagentur (2011), S. 27; Bundesnetzagentur (2012), S. 68 f.

[73] Vgl. Bundesnetzagentur (2011), S. 25.

[74] Der Anteil ergibt sich aus dem Stand von 2009 mit 40,1 Mio. Haushalten (vgl. Statistisches Bundesamt (2011), S. 32).

[75] Vgl. Bundesnetzagentur (2012), S. 90.

[76] Vgl. ebenda, S. 71.

[77] Vgl. Bundesnetzagentur (2011), S. 87.

[78] Vgl. Bundesnetzagentur (2011), S. 36 f, Bundesnetzagentur (2012), S. 68 f., S. 79.

[79] Eigene Darstellung in Anlehnung an Bundesnetzagentur (2011), S. 93; Breitband-Atlas (2012a), S. 12 ff.

[80] Vgl. Bundesnetzagentur (2011), S. 35 f.; Bundesnetzagentur (2012), S. 75.

[81] Hier sind ländliche Regionen, Regionen mit einer Bevölkerungsdichte unter 100 Teilnehmern pro Quadratkilometer, gemeint (vgl. Deutscher Bundestag (2012), S. 2 f.).

[82] Vgl. Deutscher Bundestag (2012), S. 2.

[83] Vgl. Bundesnetzagentur (2012).

[84] BITKOM (2011), S. 9.

[85] Initiative D21 (2012b), S. 12.

[86] Vgl. Bundesnetzagentur (2011), S. 50 f.; Bundesnetzagentur (2012), S. 84.

[87] VoIP ist ein paketbasierender Sprachvermittlungsdienst, der von vielen alternativen TK-Anbietern verstärkt angeboten wird (vgl. Bundesnetzagentur (2012), S. 82).

[88] Vgl. Bundesnetzagentur (2011), S. 41 f.; Bundesnetzagentur (2012), S. 79 ff.

[89] Vgl. Bundesnetzagentur (2011), S. 56 f.; Bundesnetzagentur (2012), S. 86 ff.

[90] Vgl. Bundesnetzagentur (2012), S. 87.

[91] Vgl. BMWi (2009), S. 8.

[92] Vgl. NGA Forum (2011a), S. 43; Wichert-Nick et al. (2011), S. 19.

[93] NGA-Forum (2011a), S. 43.

[94] Vgl. Bundesnetzagentur (2011), S. 72.

[95] Vgl. DTAG (2012).

[96] Vgl. Analysys Mason (2008a), S. 1, S. 82 f.

[97] Vgl. Büllingen et al. (2012), S. 2 ff.

[98] Vgl. Krämer (2007), S. 8 f., S. 13 ff.

[99] Vgl. Wichert-Nick, Dörfler (2010), S. 3, S. 8.

[100] Vgl. Büllingen et al. (2012), S. 1 f.

[101] Vgl. ebenda.

[102] Vgl. BMWi (2009).

[103] Vgl. Wichert-Nick, Dörfler (2010), S. 19 f.; Büllingen et al. (2012), S. 8.

[104] Vgl. Wichert-Nick, Dörfler (2010), S. 13, Büllingen et al. (2012), S. 28.

[105] Vgl. Hoerning et al. (2010), S. 151 f.

[106] Fiber to the Basement bedeutet, dass der Glasfaseranschluss nur bis zum Gebäude verlegt wird und ab dort die bereits existierenden Leitungen zu den Endgeräten genutzt werden (vgl. NGA-Forum (2011a), S. 65).

[107] Vgl. Wichert-Nick, Dörfle (2010), S. 21; ANGA (2011a), S. 9; Wichert-Nick et al. (2011),S. 13, S. 18.

[108] Vgl. Büllingen et al. (2012), S. 8.

[109] Vgl. Wichert-Nick, Dörfler (2010), S. 20 f.; Büllingen et al. (2012), S. 29 f.

[110] Vgl. Büllingen et al. (2012), S. 9, S. 30.

[111] Vgl. Wichert-Nick, Dörfle. (2010), S. 21.

[112] Vgl. Büllingen et al. (2012), S. 30 f.

[113] Vgl. Büllingen et al. (2012), S. 40, S. 52.

[114] Service Provider sind Unternehmen, die Basiskommunikationsdienstleistungen jeglicher Art anbieten (vgl. Krämer (2007), S 20).

[115] Vgl. Büllingen et al. (2012), S.16.

[116] Vgl. Hoerning et al. (2010), S. 36.

[117] Vgl. ebenda, S. 37.

[118] Vgl. Hoerning et al. (2010), S. 37.

[119] Vgl. ebenda, S. 38 f.

[120] Vgl. Hoerning et al. (2010), S. 35.

[121] IPTV ist eine Dienstleistung, die nicht wie üblich alle Programmsignale parallel empfängt, sondern immer nur das entsprechend ausgewählte Programmsignal abruft (vgl. Bülling et al. (2012), S. 31 f.).

[122] Bitstrom ist eine Dienstleistung für Breitbandanbieter, die die komplette Infrastruktur der Infrastrukturbetreiber mitnutzen und dafür eine entsprechende Gebühr entrichten (vgl. Hoerning et al. (2010), S. 31 ff.).

[123] Vgl. Hoerning et al. (2010), S. 17.

[124] Vgl. Hoerning et al. (2010), S. 17, S. 49 f.

[125] Vgl. Jay, Neumann, Plückebaum (2011), S 60 f.

[126] Vgl. Fettweis (2011), S. 9 ff.

[127] Vgl. Analysys Mason (2011), S. 22 f.; Elektronik-Kompendium (2012a).

[128] Vgl. Bundesnetzagentur (2010).

[129] Vgl. Bundesnetzagentur (2009), S. 5; Hackbarth, Ilic, Neu (2011). S. 43 ff.

[130] Schmalbandanschlüsse sind Anschlüsse, die unterhalb einer Datenübertragung von 1 MBit//s liegen (vgl. BMWi (2009), S. 4 ff,).

[131] Vgl. BMWi (2009), S. 2 ff,; Bundesnetzagentur (2009), S. 5 ff.

Ende der Leseprobe aus 105 Seiten

Details

Titel
Eine ökonomische Analyse einer Universaldienstverpflichtung des Breitbandsektors
Hochschule
Helmut-Schmidt-Universität - Universität der Bundeswehr Hamburg
Veranstaltung
Netzökonomie
Note
2,0
Autor
Jahr
2012
Seiten
105
Katalognummer
V266555
ISBN (eBook)
9783668123564
ISBN (Buch)
9783668123571
Dateigröße
1763 KB
Sprache
Deutsch
Schlagworte
eine, analyse, universaldienstverpflichtung, breitbandsektors
Arbeit zitieren
Timo Vogler (Autor:in), 2012, Eine ökonomische Analyse einer Universaldienstverpflichtung des Breitbandsektors, München, GRIN Verlag, https://www.grin.com/document/266555

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Eine ökonomische Analyse einer Universaldienstverpflichtung des Breitbandsektors



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden