76
www.detecon-dmr.com DMR Detecon Management Report Ausgabe 1 / 2015 blue Internet der Dinge Car-to-X-Technologien verändern die Zukunft : K.I.T.T. Bitte kommen! Interview mit Hagen Rickmann, T-Systems : „Wir verstehen uns als Partner der Industrie auf dem Weg zu Industrie 4.0“ Big Data für Telekommunikationsunternehmen : Die Sweet Spots treffen – kurzfristige Chancen intern realisieren

PDF-Download (3.95 MB)

Embed Size (px)

Citation preview

Page 1: PDF-Download (3.95 MB)

Det

econ

Man

agem

ent

Rep

ort

blu

e •

1 /

2015

www.detecon-dmr.com

DMRDetecon Management Report

Ausgabe 1 / 2015blue

Internet der Dinge

Car-to-X-Technologien verändern die Zukunft :K.I.T.T. Bitte kommen!

Interview mit Hagen Rickmann, T-Systems : „Wir verstehen uns als Partner der Industrie

auf dem Weg zu Industrie 4.0“

Big Data für Telekommunikationsunternehmen : Die Sweet Spots treffen – kurzfristige Chancen intern realisieren

Künstler haben unsere Themen neu interpretiert und unsere neue Webseite mitgestaltet.

Besuchen Sie uns unter: www.detecon.com

Wir geben Kunst eine Bühne.Die neue Detecon-Webseite ist online!

Art meets Consulting

Wir stehen mit unseren Geschäftsfeldern

an einer der spannendsten Baustellen unserer Zeit:

Die Vernetzung globaler Information und Kommunikation.

Page 2: PDF-Download (3.95 MB)
Page 3: PDF-Download (3.95 MB)

1 Detecon Management Report blue • 1 / 2015

Liebe Leserinnen und Leser,

das Internet der Dinge verspricht eine neue, fast magische Welt – und viel Geld: Wenn Anlagen und Geräte Messwerte und Sensordaten austauschen und ganze Transaktionen selbständig steuern, verdienen die Unternehmen mit. Aber wer ver-dient wirklich? Fakt ist: Weder Telekommunikations- noch Industrieunternehmen können bis heute signifikante Umsätze mit M2M verzeichnen.

Eine Standortbestimmung zeigt jedoch: Datenbasierte Geschäftsmodelle bestim-men die Zukunft, Industrie 4.0 ist ein wichtiges Konzept zur Standortsicherung Deutschlands, das Wachstum für den „Internet der Dinge“-Markt nimmt Fahrt auf. Bisherige Hürden wie Sicherheit und Datenschutz, Interoperabilität, aber auch die einfache Nutzung aus Verbrauchersicht liegen inmitten des Blickfelds von Unter-nehmen und Forschungseinrichtungen, jede Errungenschaft in Sachen integrierbare Standards verbessert die Rahmenbedingungen für die Erschließung eines großen Marktpotenzials.

Dies bringt Branchen wie Automotive, Hightech und Health, aber auch die Tele-kommunikation, in die Pole Position. Und auch für den Handel setzt das Internet der Dinge neue Impulse. Als Verbraucher dürfen wir uns in jedem Fall auf span-nende Anwendungsszenarien freuen – it‘s all about magic!

Wir wünschen Ihnen eine anregende Lektüre und gute Unterhaltung.

IhrFrancis DeprezCEO, Detecon International GmbH

Internet der Dinge

Page 4: PDF-Download (3.95 MB)

2 Detecon Management Report blue • 1 / 2015

Inhalt

Herausgeber:Detecon International GmbHSternengasse 14-1650676 Köln

[email protected]

Aufsichtsrat:Thilo Kusch (Vorsitz)

Geschäftsführung:Francis Deprez (Vorsitz)Dr. Jens NebendahlHandelsregister: Amtsgericht Köln HRB 76144 Sitz der Gesellschaft: Köln

Druck:Druckerei Chmielorz GmbHOstring 1365205 Wiesbaden-Nordenstadt

Fotos:FotoliaiStockphoto

Impressum:

Internet der Dinge und M2M – eine Definition

Das Übel aller Dinge: Der Mensch 4

Internet der Dinge & Big Data

Die Zukunft datenbasierter Informationen ist nicht länger zu ignorieren 6

Das Internet der Dinge und „seine“ Endgeräte

Strategische Bedeutung der Endgeräte wächstdurch ihre Vernetzung 8

Auswirkungen der Endgeräteflut auf die Mobilfunknetze

Ist der Kollaps unvermeidbar? 12

Industrie 4.0

Digital Navigator unterstützt bei der Umsetzung 16

Interview mit Hagen Rickmann, Geschäftsführer Sales, T-Systems International GmbH

„Wir verstehen uns als Partner der Industrie auf demWeg zu einer Industrie 4.0“ 20

Master Data Management

Shared Data im Internet der Dinge und in der Industrie 4.0 24

Interview mit Christian Renner, Investment Manager, hub:raum

„Das Internet der Dinge braucht massentaugliche Use Cases, die jedem einleuchten“ 28

Das Internet der Dinge als letzte Chance?

Der traditionelle Handel muss die Lücke zu erfolgreichenOnline-Händlern schließen 32

Page 5: PDF-Download (3.95 MB)

3 Detecon Management Report blue • 1 / 2015

Wir bedanken uns bei den Co-Autoren:Ingmar HaffkeMarcello Schermer

Car-to-X-Technologien verändern die Zukunft

K.I.T.T. Bitte kommen! 36

Interview mit Dr. Sven A. Beiker, Geschäftsführender Direktor, CARS

„Datentechnisch wird das Auto das Mobiltelefon noch übertrumpfen“ 40

Business Insights

Big-Data-Technologien machen das Notwendige möglich 44

Implementierung von Big Data

Warum Prozesse und Kultur von zentraler Bedeutung sind 48

Big Data für Telekommunikationsunternehmen

Die Sweet Spots treffen – kurzfristige Chancen internrealisieren 52

Auswirkungen des Internet der Dinge auf die Transportnetze

Wie sich Netzbetreiber auf den Vormarsch derMaschinen vorbereiten 56

M2M für Telekommunikationsunternehmen

Strategiedimensionen für den Eintritt in den M2M-Markt 62

Wearable Technology

Trends, Ökosystem und strategische Optionen für Carrier 68

Agile Economics

Eine Methode zur wirtschaftlichen Bewertung und Steuerung von Innovationen wie Big Data 70

Page 6: PDF-Download (3.95 MB)

4 Detecon Management Report blue • 1 / 2015

n Anlehnung an Kevin Ashton1 „ist eines der größten Probleme des Internets – der Mensch.“ Der Mensch fungiert als hauptsächliche Datenquelle des Internets, erscheint jedoch, mit seiner limitierten Zeit, Aufmerksamkeit und Genauigkeit, als denkbar ungeeigneter Kandidat hierfür. Würden dahingehend Dinge, welche alles wissen, was sie wissen müssen, ihr Wissen in Form von Daten ohne menschliche Interaktion sammeln und zu Informationen beziehungsweise Entscheidungen verarbeiten, könnte alles dokumentiert, gemessen und verfolgt werden, bei gleichzeitiger Reduktion von Datenmüll und -verlusten sowie Kosten. Soweit zumindest Kevin Ashton.

Die Eliminierung der Fehlerquelle, des Engpasses „Mensch“, ist ein Bestreben, das spätesten seit dem Zeitalter der Industriali-sierung im Fokus der Menschheit steht. Nun hat es auch das Internet erreicht. Also gut, der Hauptschuldige scheint identi-fiziert. Dann sollen doch diese Maschinen direkt mit einander kommunizieren! Aber Moment, sprechen wir dann von M2M oder sind M2M und das Internet der Dinge identisch?

Der einschlägigen Fachliteratur scheint diese Antwort jedenfalls nicht leicht zu fallen. Viele Experten sprechen vom Internet der Dinge (Internet of Things, IoT) und M2M in einem Atemzug, andere befassen sich mit einer Abgrenzung beziehungsweise Definition der Begriffe aus unterschiedlichsten Betrachtungs-winkeln. Bei einem Detail ist sich der überwiegende Teil der Autoren aber einig: IoT und M2M kommen in einer verwor-renen Zweisamkeit daher.

I

Internet der Dinge und M2M – ein Definition

Das Übel aller Dinge: Der Mensch

Der Ursprung von M2M liegt in der Telemetrie, also der Fern übertragung von Messwerten einer Messeinheit beziehungs -weise mehrerer Messeinheiten an eine physisch getrennte Empfangsstelle. M2M grenzt sich hierbei durch den gegen-seitigen und automatisierten Informationsaustausch von Endge-räten – Sensoren und Modulen – mit einer zentralen Leitstelle und der Verknüpfung von Informations- und Kommunikations-techniken von der Telemetrie ab, welche die reine Übertragung von Messdaten über eine größere Entfernung beschreibt.2

Eine M2M-Lösung besteht aus voneinander abhängigen Kom-ponenten, zum Beispiel der Hardware (Module, Sensoren), dem Kommunikationsnetzwerk und den IT-Bestandteilen (Solution, Plattformen, Integrationsdienst leistungen). Die Orchestrierung dieser Komponenten bedarf einer engen Kooperation zwi-schen Solution Providern, Telekommunikationsunternehmen und Kunden. Dies ist vor allem darin begründet, dass M2M- Lösungen einem speziellen oder einem engen Verbund an zuvor definierten Geschäftszwecken dienen. Es handelt sich demnach um alleinstehende oder proprietäre Lösungen, welche in Ge-schäftsprozessen zur Erfüllung eines bestimmten Zwecks und dessen Selbststeuerung integriert werden müssen und aus be-kannten Bestandteilen besteht. Dabei werden Daten von den Sensoren gesammelt und von den Modulen über ein Kommu-nikationsnetzwerk, das auch aus einer Punkt-zu-Punkt-Verbin-dung bestehen kann, an Server oder Datenbanken zur weiteren Auswertung geschickt.

1 That ‚Internet of Things“ Thing, RFIS Journal, July 22, 20092 Siehe hierzu z.B. Wikipedia.de „Telemetrie“

M2M

Page 7: PDF-Download (3.95 MB)

5 Detecon Management Report blue • 1 / 2015

Das Internet der Dinge hat seine Ursprünge in den 90iger Jahren. Es wurde zunächst in den „Ubiquitous Computing“-Konzepten von Mark Weiser umschrieben und fortan weiter-entwickelt. Der Grundgedanke bei IoT liegt in der Erweiterung des Internets um beliebige physische Objekte über deren beste-hende Funktionen hinaus.

Wir gehen hier jedoch weiter und definieren, dass im Inter-net der Dinge physische Objekte miteinander über internet-ähnliche, sich teilweise selbstorganisierende Strukturen und deren Kommunikationsprotokolle verbunden werden. Dabei bedeutet „selbstorganisierend“ in diesem Falle, dass die Kom-munikation sich selbstständig einen neuen Weg zum Ziel sucht, falls einer der Verbindungsknoten zwischen Quelle und Ziel ausfällt. Die Objekte sind damit nur noch sehr locker mitei-nander verbunden („loosely coupled“), es gibt keine dedizierte Punkt-zu-Punkt-Verbindung zwischen ihnen, sondern sie bil-den offene Informationsökosysteme.

Objekte des IoT sind dabei nicht zwingenderweise aktive Sensoren, Module oder Sender und Akteure von Daten, sondern können mittels RFID, Strichcode und QR-Code auch passive Objekte sein. Die Verbindung beliebig vieler Objekte über in-ternetähnliche Strukturen, die natürlich auch das Internet selbst sein kann und im allgemeinen zur Zeit auch ist, führt zu einem enormen Anstieg des Datenvolumens und der damit einherge-henden Problematik, diese Daten zu sammeln, zu analysieren und strukturieren und entsprechend der IoT-Anwendung zu nutzen.

Dieses Datenaufkommen wird im IoT in der Cloud gespeichert. Es lässt sich also nicht sagen, auf welchem Server physikalisch genau die Daten gespeichert sind. Weiterhin lassen sich die Daten aus verschiedenen Quellen über (offene) Schnittstellen von verschiedenen Anwendungen, die Zugriff auf diese Schnitt-stellen haben, abrufen und verarbeiten, um neue Dienste bereit zu stellen.

Unabhängig von den Ursprüngen von M2M und IoT stellt die Verschmelzung von IT und Kommunika tionstechnologien für beide Ansätze eine notwendige Bedingung dar. Auf Grund der weitestgehend identischen Basiselemente und im Zuge der Wei-terentwicklung von ICT haben sich beide Begriffe aufeinander zubewegt. Das Konzept hinter IoT geht jedoch in Bezug auf die Offenheit gegenüber der Einbindung von Datenlieferanten und -anwendern über die Anwendungen von M2M hinaus und er-laubt weitaus komplexere und funktionalere Anwendungsfälle.

Verbindungen, welche bei M2M-Lösungen noch zwischen dedi-zierten und bekannten Partnern stattfinden, werden im IoT-Fall auf internetähnliche, sich selbstorganisierende Strukturen ver-lagert. M2M-Lösungen für hochspezialisierte Anwendungsfälle mit eigenen Datenquellen stehen Informations ökosystemen im IoT gegenüber, welche sich mittels offener Schnittstellen weite-ren Nutzergruppen zur Verfügung stellen. Die Verarbeitung von Daten, welche im M2M-Fall auf dedizierten Servern stattfindet, wird bei IoT auf die Cloud unter vermehrter Einbindung von Big-Data-Technologien verlagert.

IoT kann demnach als ein nachgelagerter Evolutionsschritt für M2M-Lösungen gesehen werden. Diese Evolution wird in vielen Anwendungsfällen und vertikalen Industrien zu be-obachten sein. Ein Beispiel ist der Markt für Wearables. Sind die derzeitigen Geräte und Anwendungen noch in geschlos-senen Systemen auf die Erfüllung eines bestimmten Zweckes ausgerichtet, werden sich in Zukunft Informations ökosysteme um die Wearables bilden, die die Einbindung und den Infor-mationsaustausch von weiteren Geräten und Diensten erlau-ben. Dedizierte M2M-Lösungen werden weiterhin parallel existieren. Dies gilt zum Beispiel für Lösungen mit besonders hohen Anforderungen an Sicherheit und Datenschutz. M2M und IoT werden daher auch in Zukunft parallel existieren. Der Trend wird zu IoT-Lösungen gehen, da hier nahtlos Menschen, Kommunikationsgeräte, Maschinen und Dienste miteinander agieren und somit weitreichendere Anwendungen verwirklicht werden können.

Internet der Dinge Von M2M zum Internet der Dinge

Page 8: PDF-Download (3.95 MB)

Die Zukunft datenbasierter Geschäftsmodelle ist nicht länger zu ignorieren

nternet der Dinge – worum geht es dabei eigentlich? Üblicherweise ist hierunter eine internetähnliche Struktur zu verstehen, in der physische Objekte über eine Netzwerkkon-nektivität verfügen, die es ihnen erlaubt, online untereinander zu kommunizieren. Ebenso sind mächtige Analysetools verfüg-bar, um Informationen weiter zu verarbeiten, die in sehr großen Mengen als strukturierte und nicht-strukturierte Daten vorlie-gen. Grob gesagt, erstreckt sich Internet der Dinge (Internet of Things, IoT) auf drei große Bereiche: die Datensammlung, den Datentransport und die Datenanalyse.

Einsatz von Lösungen steht noch am Anfang

Ein Schlüsselfaktor ist die immense Datensammlung, die von vernetzten Geräten erzeugt werden, etwa von tragbarer „wearable“ Elektronik, Sensoren, vernetzten Fahrzeugen, intel-

ligenten (Strom-)Zählern oder Geräten zur Gesundheitsüber-wachung. Da IoT-Geräte laufend Daten generieren, sind riesige Mengen an Daten über – meist drahtlose – Netze zu transpor-tieren. Und dies, obwohl der Datenverkehr im Internet schon unabhängig davon bereits in exponentiellem Ausmaß wächst. Hochentwickelte Softwareanalysen, die auf Big-Data-Technolo-gien basieren, ermöglichen aufgrund der dann nahezu in Echt-zeit möglichen Speicherung, Konsolidierung und Analyse von Daten weitaus bessere Einblicke ins eigene Geschäft. Hierdurch erwachsen wiederum deutliche Wettbewerbsvorteile gegenüber weniger datengetriebenen Ansätzen.

Obwohl weltweit die Unternehmen beginnen, sich mit IoT und Big Data zu befassen, zeigte kürzlich eine Gartner-Studie, dass derzeit nur acht Prozent der Unternehmen solche Lösungen einsetzen. 57 Prozent wiederum befinden sich gerade in dem

I

Internet der Dinge & Big Data

Zwei Begriffe wurden in den letzten Monaten zu den Buzzwords der Technologiewelt: Internet der Dinge und Big Data. Beide zeigen die grundsätzlichen Veränderungen auf, die Unternehmen in ihren Geschäftsstrategien künftig beeinflussen. Und sind absolut branchenübergreifend relevant.

6 Detecon Management Report blue • 1 / 2015

Page 9: PDF-Download (3.95 MB)

7 Detecon Management Report blue • 1 / 2015

Stadium, Strategien zu entwickeln, um irgendwie die schier endlosen Möglichkeiten von wertvollen Einblicken in Kunden, Güter, Prozesse und die gesamte Wertschöpfungskette neu zu erschließen und ausschöpfen zu können.

Doch wenn vernetzte Geräte und Einblicke in darin gesammelte Daten so wertvoll sind, warum ist das Internet der Dinge nicht schon jetzt allgegenwärtig in den Geschäftsstrategien präsent? Die Hürden lagen in den komplexen Wertschöpfungsketten, die bis dato vor allem auf teils konkurrierenden und fragmentierten Standards sowie sehr verteilten Anwendungen und Plattformen beruhen. Auch die technische Reife, etwa bei Batterieleistungen für Geräte und Sensoren, hat sich nicht schnell genug weiter entwickelt, um die langfristige Funk tion ohne neues Aufladen zu garantieren. Zudem verhinderten nationale Regulierungen und komplexe Roaming-Verein barungen das schnelle Vordrin-gen der vernetzten Geräte.

Analytische Einblicke von unschätzbarem Wert

Heute, dank reiferer, technologischer Ökosysteme und einem klaren Nachfrageplus, sind die Kosten für Hard- und Software deutlich gesunken. Datennetzwerke erstrecken sich nun auf-grund internationaler M2M-Allianzen und steigender Wi-Fi-Abdeckung über nationale Grenzen hinweg. Gleichzeitig treibt das Aufkommen von Cloud-Services und mobilen Geräten die Entwicklung einer neuen Generation geschäftlicher Anwen-dungen voran. All diese Trends zusammen geben Grund zur Annahme, dass sich der Markt für IoT und Big Data kurz vor einer deutlich beschleunigten Wachstumsphase befindet.

Big Data wird aller Voraussicht nach ein unverzichtbares Werk-zeug für jedes Geschäftsmodell werden. Die analysierten Da-tentypen reichen von „Maschine-zu-Maschine“ (Sensoren, GPS, Logdateien), über „Mensch-zu-Maschine“ (E-Commerce, Finanztransaktionen) bis hin zu „Mensch-zu-Mensch“ (Social Networks, virtuelle Communities). Während in der alten, ana-logen Welt noch endliche Mengen an strukturierten Daten vor-liegen, besteht die Big-Data-Welt zum großen Teil aus zahllosen, unstrukturierten und somit nicht vordefinierten Daten, die da-rüber hinaus auch in einer Vielfalt unterschiedlicher Quellen entstehen. Wichtig für das Verständnis ist allerdings, dass Big Data nicht aus den Daten selbst seinen Wert erzielt, sondern aus der Information, also den analytischen Einblicken, die sich aus den Umgebungsdaten ableiten lässt.

Der Einsatz von strukturierten und unstrukturierten sowie in-ternen und externen Daten wird wohl bald erfolgreiche und weniger erfolgreiche Unternehmen voneinander unterscheiden. Die zielgenaue Identifikation von Datenmustern und deren In-terpretation wird dann zum Wettbewerbsvorteil. Denn nicht

nur Kosteneinsparungen, sondern auch der Aufbau von besse-ren, maßgeschneiderten Produkten und weiteren Innovationen sind zu erwarten.

Das hohe Innovationstempo im Bereich „Big Data“ zieht auch Investoren an: Der Fluss von Venture Capital und institutio-nellen Investments in Big-Data-Unternehmen stieg in den letzten Jahren signifikant an, alleine in 2013 wurden weltweit 3,6 Milliarden US-Dollar darin investiert. Vor allem junge und innovative Unternehmen prägen diese Entwicklung. Dies heißt auch, dass Organisationen, die auf den Zug aufspringen wol-len, nicht nur den jetzigen Status kennen müssen, sondern sich auch künftig stets am Puls der Zeit sich entwickelnder Trends bewegen sollten.

Konvergenz von Big Data und Cloud Services wirkt zeit- und kostenschonend

Neben den zahllosen Varianten industriespezifischer Trends ist als wesentliche, hervorzuhebende Tendenz vor allem die zu-nehmende Konvergenz von Big Data und Cloud Services zu nennen. Früher nutzten Unternehmen für ihre Entscheidungen in der Regel ihre eigenen, gespeicherten Daten in Data Ware-houses. Der Betrieb solcher Analyse-Infrastrukturen war aber zeit- und kostenintensiv. Künftig können Unternehmen jedoch auf Drittanbieter zurückgreifen, die je nach Bedarf fast unend-lich skalierbare, Cloud-basierte Big-Data-Services erbringen. Zusätzlich zur effizienteren Speicherverwaltung werden dann Cloud-Lösungen den Unternehmen helfen, Silos aufzubrechen und alle Daten in einer umfassenden Cloud zu sammeln, auf die jederzeit und überall zugegriffen wird.

Big Data wird, befeuert vom Wachstum vernetzter Geräte und Fortschritten bei Cloud Computing, Unternehmen viel-schichtig darin unterstützen, ihre Strategien umzusetzen, Ent-scheidungen zu treffen, Produkte zu entwickeln und Kunden-wünsche zu erfüllen. Diese fundamentale Entwicklung wird alle Branchen betreffen, von der Telekommunikation bis zur Gesundheitsbranche, über die Logistik, den Handel und die Industrie bis hin zur Energiewirtschaft. Big Data sollte daher als Weg erkannt werden, um finanzielle Ergebnisse zu verbessern und nachhaltiges Wachstum zu erzeugen.

Daniel Kellmereit ist als CEO Detecon Inc. für den gesamten nord- und südamerikanischen Markt verantwortlich. Er verfügt über umfangreiche Erfahrungen in den Bereichen Innovation, Marketing, Unternehmensentwicklung und Wachstums-strategien. Er arbeitet mit Kunden in der Telekommunikations-, Internet-, Hardware-, Software- und Dienstleistungsbranche sowie mit Investoren.

Page 10: PDF-Download (3.95 MB)

8 Detecon Management Report blue • 1 / 2015

Das Internet der Dinge und „seine“ Endgeräte

Strategische Bedeutung der Endgeräte wächst durch ihre Vernetzung

Für den Markt des Internet der Dinge existieren bereits viele Anwendungs szenarien. Was fehlt, damit Unternehmen diese mit einer Vielfalt an Endgeräten reibungslos umsetzen können? Ein Konzept, das wichtige Fragen hinsichtlich Sicherheit und Datenschutz, Installation und Handhabung sowie Interoperabilität löst.

020 werden je nach Schätzung und Schätzendem zwischen 14 (ABIresearch, Strategy Analytics, Detecon) und mehr als 40 Milliarden Endgeräte (Ericsson) miteinander und mit Daten-servern verbunden sein, um Daten zu sammeln und größere Systeme aufgrund der ausgewerteten Daten zu steuern.

Das Internet verbindet nicht länger nur PCs und Notebooks miteinander

Miteinander vernetzte Geräte werden sich innerhalb weniger Jahre in all unseren Lebensbereichen durchsetzen. Sie eröffnen große Möglichkeiten im Bereich der Dienste und Produkte, werfen aber auch technische, kommerzielle, regulatorische und legale Herausforderungen auf.

Durch die Verknüpfung von Internet und realen Dingen im Universum des Internet der Dinge (Internet of Things, IoT) ergeben sich viele neue Anwendungsgebiete. Manche darunter, zum Beispiel die „Augmented Reality“, sehen zunächst wie Spie-lerei aus, bieten aber durchaus ernsthafte Anwendungsszenarien wie das Head-up Display im Auto, wo Umgebungs- und Na-vigationsinformationen kein eigenes Display mehr haben, son-dern von innen auf die Windschutzscheibe projiziert werden.

2 Auch die meisten Wearables werden noch immer im Fitnessbe-reich eingeordnet. Dabei steckt gerade im Bereich des Pervasive Computing ein großes Potenzial. Zu denken ist beispielsweise an den Health care-Bereich, wo Kleidung mit verschiedenen Vitalfunktions- Sensoren unmerkbar für den Träger ausgestattet ist. Auch Google Glass hat durch offene Schnittstellen und eine frei zugängliche Entwicklungsumgebung ein großes Potenzial für „Augmented Reality“-Anwendungen.

Durch technische Entwicklungen sind viele Geräte seit relativ kurzer Zeit in Preisregionen vorgestoßen, in denen sie für den Massenmarkt interessant oder für bestimmte Aufgabenbereiche sogar erst nutzbar werden. Hierunter fällt die (Weiter-)Entwick-lungen der „Rechenkraft“. Demgegenüber stehen die Entwick-lungen in der Displaytechnologie, die zum Beispiel kleine Stan-darddisplays immer billiger werden lassen und gleichzeitig im High-end-Bereich immer höhere Aufl ösungen auf kleinen Dis-plays realisieren. Mit Blick auf die IoT-Anwendungsfälle nicht zu vergessen sind die immer günstiger und kleiner werdenden Funkmodule sowie die Bemühungen, Strom zu sparen. Solche Stromsparansätze benötigen jedoch eine kombinierte Vorge-hensweise in Hard- und Software, damit die Geräte mit kleinen Batterien monatelang auskommen.

Page 11: PDF-Download (3.95 MB)

9 Detecon Management Report blue • 1 / 2015

Der Einfluss der Endgeräte auf unser Leben wächst

Aber wie werden diese miteinander verbundenen Geräte un-ser Leben beeinflussen? Und in welchen Bereichen wird das passieren? Dass vernetzte Endgeräte unser privates und beruf-liches Leben durchdringen, steht außer Frage. Am Beispiel der „Connected Cars“ kann man diesen Einfluss sowohl für den geschäftlichen als auch für den privaten Bereich erleben: Autos können sich miteinander verbinden, um Sensorwerte anderer Autos über Temperatur, Geschwindigkeit und Straßenbeschaf-fenheit, beispielsweise Aquaplaning-Warnung eines entgegen-kommenden Fahrzeugs, auszuwerten. Anhand dieser Informa-tionen kann dem Fahrer eine Warnung angezeigt werden oder sogar eine autarke Reaktion des Fahrzeugs erfolgen. Ein anderer, eher genereller Anwendungsfall ist „Industrie 4.0“. Mit Hilfe von Sensoren wird eine schlanke Produktion von physikalischen Gütern angestrebt bei gleichzeitiger optimaler Ausnutzung der beteiligten Maschinen, die so effizient ist, dass auch individuelle Produkte, also Produkte mit Losgröße 1, wirtschaftlich und mit Gewinn für den Produzenten gefertigt werden können.

Smart Cities hingegen bilden quasi alle möglichen IoT-Anwen-dungsfälle unter einem einzigen gemeinsamen Dach ab. Inte-griert werden können sowohl die intelligente Verkehrsführung, um Staus zu vermeiden und die Bewohner durch Geräte des Connected Car ohne Verzögerung zu einem freien Parkplatz zu leiten, als auch die Unterstützung von Healthcare-Anwen-dungen, zum Beispiel durch Wearables, die bei Schwangeren die Vitalfunktion des Kindes und der werdenden Mutter messen und mithilfe des Smartphones sowohl Regelunter suchungstermine als auch außerplanmäßige Termine mit dem behandelnden Arzt vereinbaren, zu denen dem Arzt die gemessenen Daten der Wearables auch vorliegen.

Auch der „Smart Port“ kann zu den Anwendungsfällen inner-halb der Smart City gehören. Im intelligenten Hafen werden durch die Vernetzung der Container und der Transportfahrzeuge die Transportwege und Ladezeiten optimiert. Ziel ist es, durch den Einsatz von Sensoren und intelligenter Steuerungstechnik die Zeiten und Wege so zu optimieren, dass mehr Schiffe als zuvor mit denselben Ressourcen be- und entladen werden kön-nen. In der Realität ist allerdings schon die Be- oder Entladung eines einzigen Schiffes mehr pro Tag unter Verwendung dersel-ben Ressourcen ein logistischer und auch vor allen Dingen ein finanzieller Erfolg.

Enabler und Treiber für das Internet der Dinge

„Enabler“ für die immer weitergehende Verbreitung von ver-netzten Geräten sind im technischen wie auch im kommer-ziellen Bereich zu finden. Zunächst einmal ist der technische Fortschritt zu nennen: Erst die Miniaturisierung von Sensoren und Prozessoren macht beispielsweise Wearables mit einer an-nehmbaren Größe und einem tragbaren Gewicht erst möglich. Durch die Smartphone-Revolution hat inzwischen fast jeder seinen eigenen Computer in der Hosentasche, auf dem man für viele Dienste eine Anwendung herunterladen kann, die einem direkt und auf einen Blick Daten von Sensoren visualisiert und es möglich macht, weit entfernte Geräte zu steuern. Diese Marktdurchdringung von kleinen und leistungsstarken Com-putern, die nebenbei auch noch telefonieren können, ist einer der Schlüssel des Internet der Dinge zum Massenmarktgeschäft.

Während es früher ein mühseliges Geschäft war, M2M- und IoT-Anwendungen zu entwickeln und auf spezielle Geräte an-zupassen, bieten viele Gerätehersteller heute zumindest Soft-waretreiber zur Steuerung ihrer Geräte an. Sie haben inzwischen

Abbildung: Entwicklung der Zahlen für internetfähige mobile Geräte (in Milliarden)

Quelle: ABIresearch, Strategy, Analytics, Detecon

IoT-Geräte

andere Geräte

14,5

11,8

2,7

12,4

9,9

2,52,2

8,2

10,4

2,0

6,6

8,6

1,8

5,2

7,0

1,6

4,1

5,7

2014 2015 2016 2017 2018 2019 Jahr

Page 12: PDF-Download (3.95 MB)

10 Detecon Management Report blue • 1 / 2015

das Potenzial von M2M und dem Internet der Dinge erkannt. M2M-Plattform-Hersteller und Software-Ökosystem-Herstel-ler wie Apple oder Google bieten sogenannte „Application Pro-gramming Interfaces“ (APIs) an: Softwarebibliotheken, die dem Anwendungsentwickler allgemeine Standardaufgaben wie den Aufbau einer Datenverbindung und spezielle Aufgaben inner-halb eines IoT-Anwendungssegmentes, zum Beispiel die Mes-sung des Herzschlags für eine Healthcare-Anwendung abneh-men. Dadurch wird dem Entwickler die Möglichkeit gegeben, sich mehr auf die Logik und die Problemlösung innerhalb seiner Anwendung zu konzentrieren.

Auf der kommerziellen Seite war die Datenübertragung über Mobilfunknetze lange Zeit eine recht teure Angelegenheit. Viele Kunden befürchteten einen „Bill Shock“. Inzwischen sind die Tarife aber auf breiter Front günstiger geworden und im privaten Bereich oft einer „Datenflatrate“ gewichen. Für die Ausrüstung von M2M-Geräten mit SIM-Karten gibt es M2M-SIM-Karten, die aufgrund der speziellen Nutzung sehr günstige Konditionen enthalten. Auch die Preise vieler Sensoren und an-derer Geräte, die man für eine IoT-Anwendung benötigt, sind rapide im Preis gefallen und ermöglichen so den Anwendungen den Zutritt zum Massenmarkt.

Ein großer Treiber des Geschäftes mit dem Internet der Dinge ist auf Seiten der Telekommunikationsfirmen der Rückgang des traditionellen Geschäfts mit SMS und Sprachtelefonie sowie die Suche nach neuen Geschäftsfeldern, die auch mit den Kern-kompetenzen wie der Kommunikationsübermittlung etwas zu tun haben. Hier wird von den Netzwerkoperatoren und den Herstellern von Netzwerkausrüstung, M2M- und IoT-Platt-formen und -geräten ein großes Potenzial gesehen.

Auch in Bereichen wie der Automobilindustrie sind einerseits Kostenoptimierungen, zum Beispiel durch Industrie 4.0 oder die Erhebung von Fahrzeugdaten im Connected Car, anderer-seits die Erschließung neuer Geschäftsfelder, zum Beispiel durch neue Geschäftsmodelle mit dem Connected Car, die vorder-gründigen Treiber für die Entwicklung des IoT-Geschäftsfeldes.

… kann man damit auch Geld verdienen?

Aber wie können Unternehmen mit dem Internet der Dinge und seinen Endgeräten Geld verdienen? Diese Frage ist bis jetzt nicht unbedingt eindeutig von den Spielern im Markt beantwor-tet worden. Allerdings glauben inzwischen alle großen Firmen an das Potenzial in diesem Markt. Ein Indikator ist sicherlich das Bestreben von Apple und Google – den Giganten, die den Smartphone-Markt praktisch unter sich aufteilen –, mit ihrer Softwareplattform und dem angeschlossenen Ökosystem in

den Markt zu drängen. Gleichzeitig lässt sich am Engagement von Google und Apple ablesen, welchen Anwendungsgebieten im Internet der Dinge sie das größte Potenzial zutrauen: Beide Firmen bieten eine Plattform(-erweiterung) und Entwicklungs-unterstützung für das „Connected Home“ an und stützen diese mit Zukäufen kleinerer Spezialfirmen in diesem Bereich, Google zum Beispiel mit dem Zukauf von sieben Robotik firmen in 2013 und den Firmen „Boston Dynamics“, „Nest“ und „Deep-Mind“. Ebenfalls bieten beide Firmen seit kurzer Zeit Lösungen für den Entertainmentbereich im Auto an. Google geht aller-dings noch einen großen Schritt weiter als Apple und forscht bereits seit Jahren erfolgreich am Thema „autonomes Fahren“, so dass erste autonome Google-Fahrzeuge 2014 unter Auflagen eine Straßenzulassung in Kalifornien bekommen haben. Micro-soft und Blackberry sind etwas weniger auffällig in diesem Be-reich tätig – Blackberry hat im August 2014 eine Abteilung zur Entwicklung von Software für die Geräte des Internet der Dinge gegründet.

Wenn all diese Firmen derartige Anstrengungen unternehmen, um frühzeitig im Markt für das Internet der Dinge an führen-der Position präsent zu sein, dann muss ja hier irgendwie Geld zu verdienen sein! Aber was hat die Spezialfirmen, Telekommu-nikationsunternehmen und sonstige Spieler auf diesem Markt bis jetzt davon abgehalten, große Umsätze und Gewinne „ein-zustreichen“? Zunächst einmal ist es für die meisten Anwen-dungsfälle im „Internet der Dinge“-Bereich bis jetzt versäumt worden, dem potenziellen Kunden einen Nutzen der zur Zeit auf dem Markt befindlichen Anwendungen, für den er auch be-reit ist, entsprechend zu bezahlen, aufzuzeigen. Warum sollte sich ein Kunde ein „Smart Meter“ zur intelligenten Messung seines Stromverbrauchs für mehrere hundert Euro kaufen, wenn er damit nur seinen Stromverbrauch „online“ sehen kann? Hier fehlt es eindeutig noch an einem Anreiz. Denkbar wäre ein Anreiz finanzieller Art in Form einer Strombörse, mit der der Kunde seine Kosten über niedrigere Strompreise senken kann. Gerade am Beispiel der „Smart Meter“-Anwendung kann man gut erkennen, dass zu vielen Anwendungen ein entsprechendes Ökosystem gehört, ohne das ein Gerät und seine Anwendung im Internet der Dinge noch nicht viel Sinn macht. Ein Gegen-beispiel sind die großen Anstrengungen, die derzeitig in der In-dustrie unternommen werden, um Ökosysteme für den „Indus-trie 4.0“-Anwendungsfall zu konzipieren und aufzubauen, zum Beispiel Audi mit der „Future City Factory“.

Zurzeit steckt der Markt allerdings noch in den Kinderschuhen. Auf der einen Seite gibt es noch wenig Erfahrung, ob die neuen Geschäftsmodelle greifen und wie viel Geld sich wirklich mit dem Internet der Dinge verdienen lässt. Auf der anderen Seite fehlen, gerade im Connected-Cars-Anwendungsfall, einfach

Page 13: PDF-Download (3.95 MB)

11 Detecon Management Report blue • 1 / 2015

noch die Ökosysteme, um das volle Potenzial der IoT-Geräte und ihrer Anwendungen auszuschöpfen.

Wachsende Herausforderungen für Endgeräte im Internet der Dinge

Der Markt entwickelt sich jedoch immer rasanter. Momentan sieht es so aus, als würde die Klärung wichtiger Fragen mit die-ser Entwicklung nicht ganz Schritt halten.

Eine der großen Herausforderungen des Internet der Dinge ist beispielsweise die Standardisierung. Über die Standardisierung auf Hardwareschnittstellenebene, um zwei Geräte einfach mit-einander verbinden und die gegenseitige Funktionalität nutzen zu können, hinaus geht es auch um die Standardisierung auf Softwareebene, also die Schnittstellen innerhalb eines Applica-tion Programming Interface. Damit muss nicht jede Anwen-dung für jedes Endgerät neu angepasst werden.

Um jedoch in den Massenmarkt zu kommen, ist nicht nur ein Umdenken in Richtung der Anwendungsentwickler, sondern auch in Richtung Kunden unbedingt nötig: Es müssen einfach zu installierende After-Market-Lösungen angeboten werden, die auch ein Laie anhand von farbig markierten Anschlüssen und sonstigen Hilfsmitteln einfach und sicher installieren kann.

Eine andere große Herausforderung betrifft die Daten, die von den Endgeräten geliefert und auf Servern „in der Cloud“ verar-beitet werden. Zunächst einmal ist zu klären, wem die von den diversen Systemen im Auto erhobenen Daten gehören. Wer darf diese Daten wie und wo speichern und verarbeiten? Solange die-se Fragen nicht vom Gesetzgeber abgesichert werden, befinden sich die IoT-Anwendungs- und Diensteanbieter in einer recht-lichen Grauzone.

Aber nicht nur die Datensicherheit ist eine Herausforderung. Auch für die Ende-zu-Ende-Sicherheit, von der Gerätesicherheit der Sensoren und der gesicherten Übertragung der gesammelten Daten über die IT-Sicherheit der Datenbänke und Webserver für die Speicherung und Visualisierung der Daten bis hin zur Applikations- und Betriebssystemsicherheit für die Geräte, die diese Daten visualisieren, gibt es noch kein standardisiertes und vollständig implementiertes Sicherheitsframework, sondern nur Sicherheitsimplementierungen für einzelne Hot-Spots, zum Beispiel Betriebssysteme, Datenübertragung über LTE oder Sicherheit in der Cloud.

Das Gerätemanagement ist eine weitere Herausforderung im IoT-Bereich, die nicht immer im Fokus der Endgeräte- und Plattformhersteller steht. Aufgrund der geringen Margen im

IoT-Geschäftsumfeld sollten Fahrten eines Servicetechni-kers zum Endgerät, zum Beispiel aufgrund eines notwendi-gen Softwareupdates, möglichst vermieden werden. Über eine Mobile-Device-Management-Lösung können die Geräte einer IoT-Anwendung zentral verwaltet und bei Bedarf mit neuer Gerätesoftware, neuen Parametern oder einer neuen Sicher-heitsrichtlinie „over-the-air“ ausgestattet werden. Dieses Gerä-temanagement ist zurzeit in den meisten M2M-Plattformen nur rudimentär enthalten. Auch die Hersteller von Mobile-Device-Management-Lösungen, die sich bis jetzt eher auf Smartphones und Tablets fokussiert haben, halten sich merklich zurück. Die Komplexität liegt in der Vielfalt der Gerätesoftware für Sen-soren und anderen spezialisierten M2M-Geräten. Hier existiert eine fast unüberschaubare, historisch gewachsene Fülle, so dass einzelne Geräte(-familien) erst mühsam über Zusatzprogramme und mit Hilfe des Geräteherstellers in die MDM-Software inte-griert werden müssen. Diese Integration bedeutet einen hohen Aufwand für die Plattformhersteller – dieser wird jedoch auf mittlere bis langfristige Sicht nötig sein, um den Kunden ein kostenoptimiertes Gerätemanagement anbieten zu können.

Was unter dem Strich übrigbleibt…

Der Markt des Internet der Dinge bietet ein großes Marktpo-tenzial für Endgeräte und entsprechende Applikationen, ins-besondere wenn man nicht nur den Geschäftskundenmarkt, sondern auch den Endkundenmarkt betrachtet. Bevor dieser Markt aber richtig durchstarten kann, sind größere und klei-nere Hürden zu nehmen: Sicherheit und Datenschutz, einfache Installation und Handhabung sowie die Interoperabilität. All diese Herausforderungen tauchen nicht zum ersten Mal auf, sondern sind schon in anderen Kontexten hervorgetreten und auch gelöst worden. Ein Hersteller oder Herstellergremium, der oder die ein interoperables Ökosystem mit standardisierten Hardware- und Softwareschnittstellen, ein Konzept zur Integra-tion eines vollständigen Gerätemanagements für alle Arten von IoT- Geräten und ein Ende-zu-Ende-Sicherheitskonzept anbie-ten könnte, würde sich sowohl bei Geschäftskunden als auch bei Endkunden einen nicht zu unterschätzenden Wettbewerbs-vorteil sichern können.

Claus Eßmann ist Senior Consultant und Experte für M2M und das Inter-net der Dinge. Er ist Mitglied des Connected Car Solution Center und berät Unternehmen der Automobil- und Telekommunikationsindustrie zu Innova-tionsthemen.

Page 14: PDF-Download (3.95 MB)

12 Detecon Management Report blue • 1 / 2015

Ist der Kollaps unvermeidbar?Auswirkungen der Endgeräteflut auf die Mobilfunknetze

Page 15: PDF-Download (3.95 MB)

13 Detecon Management Report blue • 1 / 2015

onnektivität ist ein Kernfaktor, der das Internet der Dinge zu dem macht, was es ist: eine weiträumige Vernetzung von Gegenständen, die Daten miteinander austauschen und aufgrund der ausgewerteten Daten entsprechende Aktionen anstoßen. Durch den Preisverfall sowohl auf der Hardwareseite für entspre-chende Module als auch im Bereich der Tarife für mobile Daten setzen sich diese Möglichkeiten auch im Massenmarkt durch, so dass hier eine vernetzte Welt entsteht.

Ohne Verbindung geht es nicht

Darüber hinaus entstehen immer mehr Anwendungen, die sich auf diese vernetzten Geräte stützen und dem Anwender Nutzen bringen soll. Dabei sammeln alle diese Anwendungen über die vernetzten Geräte Daten, die auch privater Natur sein können. Um dieses Szenario für den Endanwender attraktiv zu gestalten, muss der Anwender auf der einen Seite einen Nutzen darin sehen, Daten „preiszugeben“. Auf der anderen Seite muss die Vernet-zung für den Nutzer auch ohne Fachkenntnisse im Netzaufbau transparent sein, die Anwendung mit den angeschlossenen Gerä-ten muss „einfach funktionieren“. Einige Szenarien gehen sogar davon aus, dass die Menschen die sie umgebenden miteinander vernetzten Geräte und ihre Anwendungen gar nicht mehr be-merken, das heißt, den Menschen ist weder bewusst, dass Daten über sie gesammelt werden, noch wie Form und Umfang dieser Datensammlung aussehen.

Hauptszenarien in der Welt des Internet der Dinge (Internet of Things, IoT) sind das vernetzte Auto, das vernetzte Zuhause, Healthcare inklusive Wearables und Industrie 4.0. Sie werden nach Schätzungen von Detecon einen erheblichen Anteil der ver-netzen Endgeräte in der IoT-Welt stellen. Dabei wird von hohen Zuwachsraten ausgegangen: Von derzeit weniger als drei Milli-arden Geräten im Netz, hauptsächlich internetfähige Mobilte-lefone beziehungsweise Smartphones, gehen vorsichtige Schät-zungen von idate und Goldman Sachs von einer Steigerung auf 16 bis 20 Milliarden Geräten bis 2020 aus. Die Analysten von Jeffries vermuten bis 2020 sogar eine Steigerung auf mehr als 40 Milliarden Endgeräte, die miteinander vernetzt sind. Diese große Menge von miteinander und mit Servern kommunizierenden Geräte produzieren enorme Mengen an Daten, die transportiert werden müssen.

Es kristallisieren sich zwei große Herausforderungen heraus: Zu-nächst muss eine immense Menge an Geräten miteinander ver-netzt werden, das Netz muss diese Geräte „verwalten“ können. Diese Geräte und Sensoren erzeugen eine enorme Menge von Daten, die zum Beispiel zu einem Server oder einer Datenbank zur Speicherung und weiteren Verarbeitung transportiert werden müssen.

Möglichkeiten der Vernetzung und Datenübertragung

Bei der Vernetzung der IoT-Geräte kann man zwischen Nahfunkverbindungen und Weitreichsverbindungen unter-scheiden. Im Nahfunkbereich, zum Beispiel innerhalb eines Hauses oder eines Autos, können diese einzelnen Geräte mit verschiedenen Standard-Nahfunktechniken verbunden werden. Hier stehen WLAN, Bluetooth, Zigbee, RFID, NFC oder auch Z-Wave zur Verfügung. Da die Datenübertragungsraten bei den vorgenannten Technologien bis auf WLAN aber unter 1 Mbit pro Sekunde liegen – teilweise sogar weit darunter – ist für die allen Anforderungen gerecht werdende, auf einem Standard basierende Inhouse-Vernetzung unter Berücksichtigung von Home Enter-tainment und sonstigen Streaming-Anwendungs fällen nur die Vernetzung mittels WLAN möglich. Für die Übertragung von Steuerungsdaten, die keine hohe Bandbreite benötigen, bieten sich aber die vorhergenannten Alternativen an.

Interessant wird es, wenn wir die Daten über eine größere Strecke transportieren müssen, um sie auf einem Server abzuspeichern und von überall abrufen zu können (Cloud-Prinzip), oder um diese Daten analysieren zu lassen. Hier bietet sich augenschein-lich zunächst einmal eine vorhandene Breitbandverbindung über das Festnetz – und hier vorzugsweise über das Medium Glasfaser – an. Sollte diese jedoch nicht vorhanden sein und Alternativen wie ein modernisiertes, auf Kupferkabeln basierendes Netz eben-falls nicht zur Verfügung stehen, wie es zum Beispiel in ländlichen Gebieten der Fall ist oder weil das Gerät nicht fest installiert ist und sich über größere Strecken bewegt, müssen die Daten über eine Luftschnittstelle gesendet werden. Eine Kernanforderung ist eine hohe Abdeckung innerhalb der vom Gerät besuchten Gebiete. Hier bieten sich zunächst einmal die bekannten Mo-bilfunktechnologien an, die ab der 3. Generation – bekanntester Vertreter ist UMTS mit HSxPA – auch durchaus Audio- und

K

Das Internet der Dinge fußt auf mehreren Säulen. Zwei davon sind Vernetzung und Datenübertragung. Doch gerade hier stoßen Mobilfunknetze an ihre Grenzen.

Lösungsideen gibt es – gehandelt werden muss jetzt.

Page 16: PDF-Download (3.95 MB)

14 Detecon Management Report blue • 1 / 2015

Videoinhalte streamen können. Mit LTE als Vertreter der 4. Ge-neration der Mobilfunktechnologien erhöhen sich die mögliche Bandbreite und Kapazität der Luftschnittstelle weiter, so dass viele Benutzer in einer Zelle gleichzeitig ihre Multimedia-Inhalte in hoher Auflösung anschauen können, ohne dass der Film zu einer Diashow verkommt.

Alternative Funktechnologien wie SIGMAFOX oder Neul, die allerdings noch nicht standardisiert sind, bieten eine hohe Effizienz auf der Luftschnittstelle und besitzen daher den wich-tigen Vorteil der Energieeffizienz im Vergleich zu den genannten Mobilfunkstandards. Nachteile dieser alternativen Funktechno-logien sind jedoch die fehlende Standardisierung, die andere Her-steller davon abhalten könnte, für diese Technologien Geräte zu entwickeln, die relativ geringe Bandbreite zur Datenübertragung, die diese Technologien für einige Anwendungsfälle mit hohem Bandbreitenbedarf wie Videostreaming unbenutzbar macht, und die zur Zeit noch unzureichende Netzabdeckung, die sich inner-halb der nächsten Jahre jedoch verbessern kann.

Allerdings ist auch hinsichtlich der Luftschnittstellen-Kapazität von LTE und dem noch nicht einmal definierten, zukünftigen 5G-Standard, der frühestens ab 2020 ausgerollt werden soll, zu bedenken, dass sie nicht unbegrenzt zur Verfügung steht. Die An-zahl der zusätzlichen Geräte und deren Bandbreitenbedarf – oder besser gesagt die Größe des jeweiligen Anstiegs – sind aktuell nicht leicht einzuschätzende Parameter.

Vernetzungsszenarien und Herausforderungen

Um ein Haus zu vernetzen („Connected Home“), können zum Beispiel alle Steuerungsgeräte mit niedrigem Bandbreitenbedarf mit einem „Hub“ über eine Nahfunktechnologie – WLAN, Bluetooth, Zigbee – mit einem Controller vernetzt werden. Dieser sammelt alle Daten und schickt sie über eine breitban-digere Weitbereichsverbindung in Form einer Festnetzleitung oder einer Mobilfunkverbindung an entsprechende Server zur Verarbeitung und Visualisierung, zum Beispiel durch eine Smart-phone App. Home-Entertainment-Geräte mit hohem Bandbrei-tenbedarf werden dagegen über Wireless LAN miteinander und mit dem Hub verbunden, um auch im lokalen Netz innerhalb des Hauses einen hohen Bandbreitenbedarf durch Streaming oder ähnliche Anwendungen abdecken zu können. Diese Trennung der verschiedenen Datenströme kann gleichzeitig eine Erhöhung

der Sicherheit und Stabilität der Datenübertragung bedeuten, da ein „abgestürztes“ Entertainment-Gerät nicht die Datenübertra-gung von Sensoren und Kontrollgeräten behindern kann.

Im Fall des vernetzten Autos benötigt jedes beteiligte Fahr-zeug eine mobile Weitbereichsverbindung, über die nicht nur Fahrzeugdaten versendet, sondern auch Musik und Filme „ge-streamed“ werden können. Die Hauptanforderungen in diesem Anwendungsfall sind die Zurverfügungstellung einer ständigen Netzwerkanbindung der entsprechenden Endgeräte und deren potenziell hoher Bandbreitenbedarf. Als Beispiel sei das Stau-szenario genannt, in dem viele Passagiere gleichzeitig Filme in HD-Qualität anschauen. Da sich die Anzahl der mit dem In-ternet verbundenen Geräte im Zeitraum bis 2020 exorbitant steigern wird, ist alleine durch diese hohe Rate eine mindestens ähnliche Steigerung im mobilen Datenaufkommen zu erwarten, auch wenn bei weitem nicht alle IoT-Anwendungen so „band-breitenhungrig“ sind.

Durch die vorgestellten Vernetzungsszenarien lassen sich die großen Herausforderungen der IoT-Welt in der Vernetzung und Datenübertragung bei Weitbereichsverbindungen erkennen. Hier wird mittelfristig kein Weg an der Vernetzung über Mobil-funknetze vorbeigehen, da nur diese für die meisten Szenarien die nötige Abdeckung und ausreichende Datenbandbreite anbieten.

Die daraus folgenden Anforderungen an Mobilfunknetze lassen sich wie folgt ableiten:

• Allein durch die hohe Volumenzunahme der vernetzten Ge-räte ist mit einer hohen Steigerung des Datenaufkommens zu rechnen.

• Das Netz muss mit vielen, gleichzeitig in einer Zelle angemel-deten Geräten „zurecht kommen“, ohne dass eine Verbindung beeinträchtigt oder gestört wird.

• Die Anforderungen an die von diesen Geräten aufgebauten Verbindungen sind dabei sehr inhomogen: Die Datenverbin-dungen können kurzzeitig eine hohe Last mit unkontrollierbaren Zeitpunkten aufweisen. Andere Datenverbindungen charakteri-sieren sich über ein kleines, aber regelmäßiges Datenaufkommen oder über konstante Datenverbindungen, die dann eine beliebige Datenlast erreichen können, zum Beispiel Videoüberwachung mit hoher Auflösung und einem hohen Datenaufkommen.

Page 17: PDF-Download (3.95 MB)

15 Detecon Management Report blue • 1 / 2015

Der Energiekonsum der Geräte sei hier nur am Rande erwähnt: Bei vielen IoT-Geräten ist der Hauptenergieverbraucher das Funkmodul, so dass bei autark mit Energie versorgten Geräten der Batteriewechsel nach einer gewissen Zeit durch einen Ser-vicetechniker vorgenommen werden muss. Dieses ist ein nicht zu unterschätzender Kostenfaktor in der IoT-Welt, in der die Ge-winnmargen pro Gerät meist sehr gering sind.

Lösungsansätze

Wir sehen die große Herausforderung des Internet der Dinge darin, die bestehenden und zukünftigen Mobilfunknetze nicht zu überlasten, sei es durch die Menge an gesendeten Daten oder auch durch die hohen Zuwachsraten an Geräten, die sich in den Mobilfunkzellen aufhalten und eine ständige Verbindung mit dem Mobilfunknetz aufrecht erhalten. Ersteres kann auf der Luft-schnittstelle nur durch den Ausbau der Kapazitäten und durch eine Komprimierung der gesendeten Daten schon im Endgerät gelöst werden. Letzteres lässt sich dadurch lösen, dass man auf andere, alternative Funktechnologien ausweicht, sofern der An-wendungsfall dies erlaubt, und auf verschiedene Möglichkeiten, die heutzutage schon als Lösung für das „Data Offloading“ ent-wickelt wurden, zurückgreift.

Hier sind auf der einen Seite „Small Cells“ zu nennen, die eine sehr kleine eigene Mobilfunkzelle darstellen und direkt per Kabel oder Richtfunk an das Datentransportnetz angeschlossen werden können. Mit diesen können kleine lokale Mobilfunkzellen er-stellt werden, die durch direkte Anbindung an das Transportnetz die Makrozellen entlasten.

Auf der anderen Seite könnte man ein Data Offloading über WLAN-Zellen anstreben, um die Daten über einen Festnetz-/Glasfaseranschluß ebenfalls möglichst direkt in das Daten-transportnetz zu bringen. Eine Variante des WLAN-Offloading könnte die ad-hoc Vernetzung über den eigentlich für den „Connected Cars“-Anwendungsfall gedachten WLAN-Standard 802.11p darstellen.

Sowohl die Kapazitätserhöhung als auch das Data-Offloading können gleichzeitig zur Lösung der Probleme durch die inhomo-genen Datenverbindungen beitragen.

Zusammenfassend lässt sich sagen, dass das Internet der Dinge die Mobilfunktechnologien auf der Luftschnittstelle vor nicht zu unterschätzende Herausforderungen stellen wird. Wenn diesen nicht rechtzeitig begegnet wird, schlagen sich negative Auswir-kungen durch langsame Datenverbindungen oder die fehlende Möglichkeit, sich in einer bestimmten Zelle in das Mobilfunk-netz einzubuchen, auf die Kundenzufriedenheit der Mobilfunk-kunden nieder. Es gibt jedoch jetzt schon Möglichkeiten, hierauf mit moderatem und kalkulierbarem finanziellen Aufwand zu re-agieren. Da innerhalb der nächsten zwei bis drei Jahre gehandelt werden muss, gehört das Warten auf den 5G-“Rollout“ jedoch nicht zur Lösungsmenge, da der 5G-Mobilfunk noch nicht de-finiert wurde und ein großflächiges Ausrollen bis 2020 deshalb äußerst unwahrscheinlich ist.

Die Herausforderung der zur Zeit relativ kurzen Batterielauf-zeiten lässt sich, solange sich die Batterietechnologien nicht grundlegend weiterentwickeln, nur durch die Kreativität der (Software-)Ingenieure lösen, die auf der einen Seite den Ener-giehunger der Hardware senken müssen und auf der anderen Seite durch geschickte Implementierung der (Betriebs-)Software sowohl endgeräteseitig als auch netzwerkseitig den Energiever-brauch weiter senken können.

Claus Eßmann ist Senior Consultant und Experte für M2M und das Internet der Dinge. Er ist Mitglied des Connected Car Solution Center und berät Unternehmen der Automobil- und Telekommuni-kationsindustrie zu Innova tionsthemen.

Page 18: PDF-Download (3.95 MB)

16 Detecon Management Report blue • 1 / 2015

Industrie 4.0 bringt ein neues Ökosystem von Unternehmen, Kompetenzen und Märkten in der industriellen Wertschöpfung hervor. Darin besteht ein großes Potenzial zur Standortsicherung Deutschlands. Der Digital Navigator unterstützt Industrie unternehmen bei der Umsetzung möglicher Ansätze.

Digital Navigator unterstützt bei der Umsetzung

Industrie 4.0

Page 19: PDF-Download (3.95 MB)

17 Detecon Management Report blue • 1 / 2015

elbst Experten sind noch unsicher, was Industrie 4.0 künf-tig konkret in der Umsetzung bedeutet. Auch der individuelle Nutzen lässt sich oft schwer beziffern: Wie profitieren Unter-nehmen tatsächlich davon? Sicher ist: Industrie 4.0 basiert auf der Verschmelzung von klassischer Produktionstechnologie mit der Informations- und Kommunikationstechnologie. Mit Hilfe der Digitalisierung sind Maschinen, Objekte und Menschen so vernetzt, dass Wertschöpfungsprozesse effizienter, agiler, flexib-ler oder auch qualitativ hochwertiger gestaltet oder ganz neue Geschäftsmodelle erschlossen werden können. Im Kern geht es bei darum, Interoperabilität in einem größeren Wertschöp-fungskontext - vertikal und horizontal - und über den gesam-ten Produktlebenszyklus herzustellen (siehe auch http://www.plattform-i40.de).

S Wo liegt der Nutzen für die fertigende Industrie?

Mit Industrie 4.0 kommen wir beispielsweise dem angestrebten Ziel, „Losgröße 1“ bei gleichzeitig minimalen Kosten herzustel-len, einen großen Schritt näher. Dieser Erfolg basiert auf der Möglichkeit, die Fertigungsprozesse so stark zu modularisieren und zu standardisieren, dass ein hohes Maß an Fertigungsflexi-bilität an jeder Stelle entsteht. Über Digitalisierung und die Be-reitstellung von Echtzeitinformationen kann die bisherige starre und komplexe Planungslogik abgelöst und durch eine eher ad hoc getriebene Steuerungslogik ersetzt werden. Im Zusammen-spiel mit einer prozessübergreifenden Vernetzung zwischen Engineering und Produktion lassen sich spezifische Kunden-wünsche noch sehr spät in den Produktionsprozess einflechten.

Page 20: PDF-Download (3.95 MB)

18 Detecon Management Report blue • 1 / 2015

Ein ganzes Wertschöpfungsgefüge in dieser Art zu flexibilisieren ist sicher noch ein recht aufwändiges Unterfangen. Es lassen sich aber bereits jetzt sinnvolle, umsetzbare Industrie 4.0-An-sätze finden:

Beispiel 1: Vereinfachung von Wartungsprozessen im Anlagen-bau durch eindeutige Identifizierung und sensorgestützte Über-wachung ganzer Anlagen oder Komponenten. In Verbindung mit einer Ende-zu-Ende-Verknüpfung dieser Informationen mit den produkt- oder transaktionsbezogenen Informationen der PLM- oder ERP-Welt lassen sich Wartungsevents inklusive der zugehörigen Ersatzteillogistik effektiv vorbereiten und durch-führen. Über Predictive Analysen von Zustandsinformationen und Vergangenheitsdaten lassen sich Wartungsnotwendigkeiten darüber hinaus auch schon heute sehr gut vorhersagen.

Beispiel 2: Augmented-Reality-Unterstützung im Wartungsfall. Bei komplexen Wartungsumgebungen lassen sich die Wartungs-schritte effektiv durch Augmented-Reality-Systeme unterstüt-zen. Beispielsweise werden in das Realbild an einem Tablet ent-sprechende Überblendungen und Anweisungen eingeblendet. Damit kann die Arbeitszeit für solche Wartungen und auch die Qualität sichtbar gesteigert werden.

Abbildung: Digital Navigator

Quelle: Detecon

Strategische Zielsetzung

Digitale Dimensionen

Digitale (Kern-) Geschäftsfähigkeiten

Weiterführende Ansätze beinhalten einen deutlich höheren Grad der Prozessinteroperabilität. „Social Mashines“ beispiels-weise erhalten durch erweiterte Embedded Systems, echtzeit-nahe Konnektivität die Möglichkeit, sich untereinander zu optimieren. Sie können beispielsweise einen direkteren Lasten-ausgleich initiieren, um die Kapazitäten gleichmäßig zu vertei-len. In Verbindung mit intelligenten Produkten, die relevante Informationen wie Baupläne mit den Produktionsressourcen austauschen, lassen sich bereits heute ad hoc Entscheidungs-logiken in der Produktion ermöglichen. Über entsprechende Marktplätze könnte dieses Prinzip auch Standort- und Unter-nehmensübergreifend funktionieren. Freie Kapazitäen einzelner Produktionsressourcen könnten auch anderen Unternehmen angeboten werden.

Wie lässt sich Industrie 4.0 konkret in der Industrie umsetzen?

Aus dem Abschlussbericht von acatech und Forschungsunion gehen acht Handlungsfelder hervor: Smart Factory Architec-ture, Resiliente Fabriken, Technologiedaten Marktplatz, Ver-netzte Produktion, Intelligentes Instandhaltungsmanagement, Nachhaltigkeit durch Up-Cycling, Selbstorganisierte, adaptive

Menschen Prozesse Technologien

R&D

Finanzen & Controlling

Strategisches Management Unterstützungs-prozesse

Einkauf &Beschaffung

Produktion Logistik CRM, Sales & Service

Page 21: PDF-Download (3.95 MB)

19 Detecon Management Report blue • 1 / 2015

Michael Meissner ist Partner und leitet die Industrie 4.0 Community bei Detecon. In dieser Funktion berät er Unternehmen der herstellenden und Hightech-Industrie zu Fragen der digitalen Transformation sowie dem Einsatz von ICT-Technologie.

Jana Remer ist Consultant mit dem Branchenschwerpunkt Automotive und ist Mitglied im Connected Car Solution Center. Ihr Beratungsfokus liegt auf den Bereichen Connected Car durch die gesamte Wertschöpfungskette hinweg sowie Geschäftsmodellentwicklung.

Logistik, Kundenintegriertes Engineering. Diese Felder zeigen auf, wie vielfältig die Möglichkeiten von Industrie 4.0-Ansät-zen sind. Ihre Auswirkungen auf bestehende Prozesse sind meist nicht sofort absehbar.

Auch wenn die vierte industrielle Revolution in evolutionären Schritten erfolgen wird, sind die Veränderungen meist tiefgrei-fend. „Die Formel ‚Gewinn = Umsatz – Kosten‘ behält aller-dings auch im digitalen Zeitalter ihre universelle Gültigkeit.“, sagt Felix Theisinger, Partner bei Detecon. „Somit müssen alle digitalen Transformationsmaßnahmen entweder dazu beitragen, den Umsatz zu steigern (revenue effects) oder die Kosten zu sen-ken (cost effects), idealerweise beides.“, so Theisinger. Erfolg-reiche Unternehmen im digitalen Zeitalter nutzen die Chancen der Digitalisierung zur Senkung der Kosten und zur Steigerung des Umsatzes. Theisinger rät jedoch, Potenziale sowie Aufwand und Implikationen, die sich zum Beispiel zur Informations-sicherheit aus Industrie 4.0 ergeben könnten, systematisch zu analysieren und individualisierte Handlungsempfehlungen zu erarbeiten.

Mit dem Digital Navigator bietet Detecon ein ausgereiftes und erprobtes Methodenportfolio, um Industrie 4.0-Ansätze in den Kontext des jeweiligen Geschäftsumfeldes eines Unternehmens zu stellen, deren Auswirkungen auf Prozesse und Kernfähig-keiten zu analysieren und sie entsprechend zu priorisieren.

Auf dieser Basis lassen sich erforderliche digitale Fähigkeiten und Enabler aus den sechs Kernbereichen Innovation & Trans-formation, Smart Business Network Management, Cyber Phy-sical System, Risk & Trust, Digital Information Management und Digital Process Management identifizieren, den betrof-fenen Prozessen oder Bereichen zuweisen und entsprechende Transformationsschritte planen.

Unternehmen, die den digitalen Wandel erfolgreich meistern wollen, müssen über diese sechs Kernfähigkeiten verfügen oder sie im Zuge ihrer digitalen Transformation entwickeln und aus-bauen. Dabei geht es aber nicht nur um die Betrachtung der of-fensichtlichen Digitalisierungserfordernisse wie die Herstellung von Konnektivität, sondern auch um Aspekte, die sich durch die Digitalisierung erst ergeben. Bestes Beispiel ist das Thema Daten- und Informationssicherheit, damit verbundene Ausfall-sicherheiten von Produktionseinrichtungen und Resilienz in der Wertschöpfung eines Unternehmens. „Die Transformation erstreckt sich eben nicht nur auf die IT-Ebene, sondern muss

darüber hinaus auch Hardware wie Maschinen und Menschen, insbesondere Skills, betrachten.“, rät Theisinger. „Unternehmen müssen sich diese Fragen stellen: Brauchen die Maschinen bei-spielsweise neue, andere oder ergänzende Fähigkeiten, um in einer resilienten, ad hoc organisierten Fabrik operieren zu kön-nen? Sind die Menschen, die an einem Prozess mitwirken, noch in der Lage, die neu entstehenden Cyber-physischen Systeme zu bedienen, werden andere oder neue Skills und Rollen in den Unternehmen benötigt? Die Antworten auf diese Fragen bilden die Bausteine, aus denen sich die Industrie 4.0-Agenda eines Unternehmens zusammensetzt.“

Das Interesse an der Umsetzung der Industrie 4.0-Ideen nimmt nicht nur in den Unternehmen, sondern auch in der Politik großen Raum ein. Industrie 4.0 ist ein Faktor für die Zukunfts-sicherung des Standortes Deutschland in einem internationalen Wettbewerb.

Page 22: PDF-Download (3.95 MB)

­

20 Detecon Management Report blue • 1 / 2015

Interview mit Hagen RickmannGeschäftsführer Sales

T-Systems International GmbH

„Wir verstehen uns als Partner der Industrie auf dem Weg zu einer

Industrie 4.0“Industrie 4.0 ist auch für integrierte ICT Provider ein großes Thema. Evolutionäre Schritte erwartet Hagen Rickmann, Geschäftsführer bei T-Systems Inter-national GmbH, insbesondere aus dem Zusammenspiel von Industrie und ICT-Branche. Sein Ziel ist es, den Nutzen der Digitalisierung zu konkretisieren und das Vertrauen auszubauen. Das Interview führten die Detecon-Berater Michael Meissner, Partner, und Sven Garrels, Senior Consultant.

Page 23: PDF-Download (3.95 MB)

­

21 Detecon Management Report blue • 1 / 2015

DMR: Herr Rickmann, das Internet der Dinge revolutioniert einige Branchen bereits sehr stark. In Automobilen sind Online-services und Connectoren verbaut, der Handel und andere Dienst-leistungsbereiche haben ihre Geschäftsmodelle drastisch verändert. Die digitale Revolution der herstellenden Industrie heißt Industrie 4.0. Sie sind als Top Manager angetreten, um das Thema auch für die Deutsche Telekom zu etablieren. Wie passt das zusammen?

Rickmann: Mit Industrie 4.0 und der Digitalisierung in der Industrie werden klassische Produktionstechnologie mit der Informations- und Kommunikationstechnologie untrennbar zusammenwachsen. Applikationen zur Steuerung von Maschi-nen und Anlagen oder ganzer Shop-Floor-Bereiche werden künftig darauf angewiesen sein, stärker untereinander und mit den Maschinen, Werkstücken und den beteiligten Menschen direkt zu kommunizieren. Cyber-physische Systeme halten Einzug in Fertigung und Logistik und erfordern eine erwei-terte ICT-Infrastruktur. Die Sensorik wird eine große Menge an Daten erzeugen, die es zu beherrschen und gezielt auszu-werten gilt. Deswegen ist Industrie 4.0 nicht nur für Industrie-unternehmen oder Softwarehersteller, sondern insbesondere auch für integrierte ICT Provider wie die Deutsche Telekom ein wichtiges Thema. Konnektivität und das Management komplexer Datenmengen sind die Kernkompetenzen der Deutschen Telekom. Ein Geschäftssegment alleine kann die Komplexität der Industrie 4.0 nicht tragen, hierfür benötigen wir das Know-how verschiedener Konzerneinheiten: Telekom Deutschland für die technische Konnektivität und den Zugang zum Mittelstand, Telekom Laboratories für die Forschung und T-Systems als Lieferant der Datenplattform, für den Zugang zu Großkunden und als Industrie 4.0-Integrator gegenüber unseren Industriekunden.

DMR: Sind Vernetzung und Daten dann der Kern von Industrie 4.0?

Rickmann: Im Grunde ja. Es geht bei Industrie 4.0 darum, mit Hilfe von Vernetzung und Informationsmanagement in Echtzeit die industriellen Prozesse und Wertschöpfungsansätze zu optimieren oder so zu verändern, dass neue Geschäfts-modelle daraus entstehen können. Vernetzung und Daten sind damit der Katalysator für ein neues Level an horizontaler und vertikaler Interoperabilität, die oft auch über die Unterneh-mensgrenzen hinausreicht. Hier sehe ich im übrigen auch den größten Hebel für Effizienz.

DMR: Können Sie das an konkreten Beispielen festmachen?

Rickmann: Stellen Sie sich einmal eine komplexe Industrie-anlage, vielleicht eine Gasturbine, vor. Diese Turbine ist mit unzähligen Sensoren ausgestattet, die Zustand und Funktion einer solchen Anlage überwachen. Um die Informationen zu

verwerten, brauchen Sie zunächst einmal beides: Konnektivi-tät der Sensoren – sie müssen in der Lage sein, die erzeugten Informationen zu übermitteln – und ein richtiges Big Data Management. Jeder der Sensoren erzeugt Informationen im Kiloherzbereich, wodurch in kürzester Zeit ein unvorstellbares Datenvolumen entsteht. Das muss als Volumen beherrschbar gemacht und sichergestellt werden, dass sie die wirklich rele-vanten Informationen herausfiltern und weiterverarbeiten. So lassen sich beispielsweise Wartungsarbeiten besser vorauspla-nen oder der Wirkungsgrad einer solchen Anlage optimieren. Stehen solche Informationen in einem größeren Wertschöp-fungskontext zur Verfügung, zum Beispiel einem ganzen Kraftwerk oder Kraftwerksverbund, lässt sich auf dieser Basis die gesamte Energieerzeugung im Verbund besser, bedarfs-orientierter und auch viel ökologischer planen.

Ähnliche Szenarien können Sie sich auch in einem Montage-bereich vorstellen, in dem eine Vielzahl unterschiedlicher Roboter im Einsatz ist. Fällt ein Roboter wegen Wartung aus, können die anstehenden Aufträge quasi ad hoc auf die ande-ren Anlagen umgeroutet werden, da Fähigkeiten, Zustand und Auslastung bekannt sind. Die so entstehenden Informationen können aber auch einen ganz anderen Zweck erfüllen. Nut-zungsgrad und Verschleiß von solchen Maschinen geben den Entwicklern wichtige Anhaltspunkte für die Weiterentwick-lung oder Optimierung der Produkte. Das alles geht nur mit intelligentem Datenmanagement und Konnektivität.

DMR: Sind bessere Planbarkeit und Effizienz- oder Wirkungs-gradsteigerungen dann die Potenzialfelder, die die Industrie mit Industrie 4.0 erreichen kann?

Rickmann: Nicht nur. Sie haben auf der einen Seite Kosten- und Effizienzpotenziale, wie gerade beschrieben. Oftmals las-sen sich durch genauere Planung, direktere Interaktion und unternehmensübergreifende Steuerung der Wertschöpfung Effizienzsteigerungen von bis zu 15 Prozent erreichen. Auf der anderen Seite aber eröffnet die gewachsene Informationsdich-te aus der gesamten Wertschöpfung von der Entwicklung bis zum Kunden und die gewachsene Interoperabilität in diesem Gefüge Potenzial für neues Geschäft, höhere Kundenloyalität oder auch eine gänzliche Neuordnung des Wertschöpfungsge-füges. Sie können zum Beispiel spezifische Kundenwünsche auch noch sehr spät in die Produktion einfließen lassen – Los-größe 1. Der Kunde wird Teil der Wertschöpfung und kann eine ganz neue Form des Customer Experience Managements erleben. Unternehmen, die ihre beim Kunden befindlichen Maschinen selber mit Sensoren überwachen, können ganz neue Serviceangebote oder sogar Betreibermodelle entwickeln, mit denen sie sich im Wettbewerb differenzieren oder neue Geschäftsfelder erschließen.

Page 24: PDF-Download (3.95 MB)

DMR: Werden solche Wertschöpfungsgebilde nicht anfälliger, zum Beispiel durch Datenmissbrauch, Manipulation oder auch einfach im Hinblick auf die Standfestigkeit der ICT-Infrastruktur in der industriellen Fertigung?

Rickmann: Da sprechen Sie einen ganz wichtigen Punkt an. Datensicherheit, Datenschutz, aber auch Safety und Zuver-lässigkeit werden einen ganz anderen Stellenwert bekommen. Die entstehenden datenzentrischen Geschäftsmodelle bieten wie beschrieben eine Menge großer Potenziale, sie bringen aber auch Herausforderungen im Hinblick auf Sicherheit mit sich. Dieses Thema nehmen wir bei der Deutschen Telekom sehr ernst. Wir haben uns entsprechend mit einem breiten Portfolio an Sicherheitslösungen aufgestellt. Das fängt an mit verschiedenen Ansätzen, den Zugang in unsere Netze abzu-sichern, und geht über den Informationstransfer über diese Netze bis hin zur Speicherung und Aufbereitung der Daten. Anfang des Jahres haben wir bei uns ein umfassendes Cyber Defence Center aufgebaut, um gezielt Attacken aus der Cyber-Welt zu identifizieren und abzuwehren. Das alles wird in einem integrierten Ansatz auf den jeweiligen Anwendungs-fall zugeschnitten und in Deutschland beziehungsweise nach deutschem Datenschutzstandard bereitgestellt. Also Sicher-heitstechnologie „Made in Germany“!

Auch die Standfestigkeit ist ein Thema, dem wir uns angenom-men haben. Wir besitzen heute schon eine Infrastruktur, mit der wir es Millionen Kunden ermöglichen, mit dem Festnetz-

oder Mobiltelefon zu telefonieren, ihre Daten in unseren welt-weiten Rechenzentren sicher und nach deutschem Standard zu hosten und auszutauschen. Diese Infrastruktur ist deswegen zuverlässig, weil sie offen und skalierbar ausgelegt ist. Und ge-nau darauf kommt es auch in den industriellen Anwendungs-gebieten an. Wir brauchen auch hier skalierbare Plattformen und Services anstelle von proprietären Lösungen, die schlecht integrierbar sind. Deswegen bieten wir speziell für die indus-trielle Digitalisierung eine Plattform an, die diese Vorausset-zungen erfüllt. Diese Plattform wollen wir gemeinsam mit Kunden aus der Industrie ausbauen – hier verstehen wir uns als Partner der Industrie auf dem Weg zu einer Industrie 4.0.

DMR: Dann ist die Deutsche Telekom exzellent für das Industrie 4.0-Umfeld aufgestellt. Aber wie steht es um die Industrie?

Rickmann: Die deutsche Industrie hat heute noch den Status, „Ausstatter der Welt“ für Industrieprodukte zu sein, und weist einen hohen Innovationsvorsprung gegenüber dem globalen Wettbewerb auf. Mit der Digitalisierung ergeben sich aber Ver-änderungen. In vielen Bereichen ist erkennbar, wie schnell der Wandel im digitalen Umfeld ist und wie disruptiv – denken Sie nur an die Musik- oder Medienindustrie, die sich durch die zunehmende Digitalisierung schlagartig mit existenziellen Veränderungen konfrontiert sieht. Dort stehen Fragen im Raum, wie weit das Internet die klassischen Produkte „Print“ und „Fernsehen“ ablösen wird, oder wie sich diese Medien verändern müssen, um wettbewerbsfähig zu bleiben. Auch

Hagen Rickmann: Nach Banklehre und Studium

der Betriebswirtschaft trat Hagen Rickmann, Jahrgang 1969,

zunächst in die Unternehmensberatung Esche Schümann

Commichau ein. Im Jahr 2000 wechselte er als CFO zum

IT-Dienstleister Done Project. Zwei Jahre darauf stieg er als

Managing Director IT bei EDS ein, wo er bis 2007 als General

Manager und Vorstandsmitglied unter anderem den Bereich

Consulting Services für Nord und Zentraleuropa verantwortete.

Von 2008 an leitete Hagen Rickmann den Bereich Infrastructure

Services in Europa. Im Jahr 2009 wechselte er zu T-Systems und

übernahm dort das Portfolio- und Innovationsmanagement.

Ab März 2011 leitete Rickmann den Bereich Service von

T-Systems und wurde Mitglied der Geschäftsführung.

Seit 1. Januar 2013 verantwortet er den T-Systems Geschäfts-

führungsbereich Sales.

22 Detecon Management Report blue • 1 / 2015

Page 25: PDF-Download (3.95 MB)

im Automobilsektor können wir heute schon sehr disruptive Tendenzen feststellen wie Car Sharing und neue innovative Nischenplayer mit einer gänzlich neuen Wertschöpfungslogik.Die deutsche herstellende Industrie spürt diese Veränderung noch nicht direkt, sie ist aber vielfach schon erkennbar, so dass durchaus Gefahr besteht, die heutige Vormachtstellung einzu-büßen, wenn die Unternehmen nicht rechtzeitig in die digitale Transformation einsteigen. Hierzu wird es sinnvoll sein, sich zusammenzuschließen und mit Partnern wie einer Deutschen Telekom die Herausforderungen gemeinsam anzugehen. Da-her wollen wir in dem sich gerade neu entwickelnden Industrie 4.0-Markt als Partner der Industrie einsteigen und mit Un-ternehmen des Mittelstandes und der Großindustrie Pilotpro-jekte entwickeln. Ziel muss es sein, den Nutzen der Digitalisie-rung zu konkretisieren und Vertrauen auszubauen.

DMR: Bislang kennen die meisten Unternehmen die Deutsche Telekom aus dem Telefongeschäft. Wird ihr die Rolle als Partner der Industrie denn zugetraut?

Rickmann: Das ist fast richtig. Insbesondere große Unter-nehmen kennen uns auch aus dem IT-Umfeld, wo wir in Deutschland als großer Infrastruktur- und Serviceanbieter eine führende Position einnehmen. Aber wir haben eine ganze Reihe von Aktivitäten gestartet, um das nötige Vertrauen der Industriekunden weiter zu festigen, unsere Kompetenz auch in den Kernproduktionsprozessen zu nutzen.

Wir sind in verschiedenen Gremien engagiert wie der Plattform Industrie 4.0 und BITKOM-Gremien, wir stehen im Kontakt zum BDI und den etablierten Standardisierungsgremien, um hier die Weichen in wichtigen Standardisierungsfragen zu stel-len. Denn Standardisierung wird aus meiner Sicht eine wesent-liche Voraussetzung sein für die industrielle Zusammenarbeit in einer digitalisierten Welt. Das ist vergleichbar mit den Nor-mungsbestrebungen des vergangenen Jahrhunderts. Hier muss Deutschland Weltspitze bleiben!

Darüber hinaus gehen wir strategische Kooperationen mit starken Industrieunternehmen im Bereich Forschung und Entwicklung ein, um Industrie 4.0 zum Beispiel gemeinsam mit Siemens voranzutreiben. Denn eins ist klar: Der evolutio-näre Prozess wird nur im gemeinschaftlichen Zusammenspiel zwischen der Industrie und der ICT-Branche funktionieren. Zusammen mit Industrieunternehmen setzen wir ganz gezielt Pilotprojekte auf, um gemeinsam Lösungen zu erarbeiten, die den konkreten Nutzen aufzeigen, in andere Branchen- oder Anwendungsfelder ausweitbar sind und uns dazu dienen, das Vertrauen der Industrie weiter zu stärken. Und natürlich wollen wir hieran auch lernen, welche Anforderungen unsere Kunden haben.

DMR: Welchen Fokus haben denn diese Pilotprojekte? Geht es dabei mehr um Forschung oder um konkrete Lösungen?

Rickmann: Beides. In der Forschungskooperation mit Siemens werden wir gemeinsam ganz grundlegende Dinge bei der Um-setzung der Industrie 4.0 erforschen, das aber stets gespiegelt an konkreten Anforderungen, die mit der Digitalisierung der Industrie entstehen. In den Pilotprojekten mit weiteren Indus-triekunden gehen wir noch einen Schritt weiter: Diese Projekte fokussieren auf ganz konkrete Themenstellungen, bei denen die Kunden mit uns gewissermaßen Probe fahren. Das können zum Beispiel Fragen der Logistikoptimierung, Flexibilisierung von Produktionsprozessen, Öffnung der Entwicklungsprozesse für eine stärkere Kundeninteraktion oder Predictive Analysis für ein intelligentes Wartungsmanagement sein. Hierzu bün-deln wir auf einer zentralen Datenplattform Konnektivität und industriespezifische Services. Meist entsteht aus der Zu-sammenarbeit ein neuer Service oder ein Ansatz, spezifische Aufgabenstellungen mit ICT-Technologie besser zu lösen. Wir sind an einer derartigen Zusammenarbeit sehr interessiert. Daher rufen wir die Industrie explizit auf, weitere Industrie 4.0-Pilotprojekte mit uns zu initiieren.

DMR: Das Leitthema dieser Ausgabe ist das Internet der Dinge. Da denkt vermutlich jeder erst einmal an große amerikanische Unternehmen wie Google, Microsoft und Co. Sehen Sie hier einen internationalen Wettbewerb?

Rickmann: Ja, der Wettbewerb ist spürbar, aber nicht nur aus den USA, sondern auch aus Asien. In den USA stehen hin-ter den Digitalisierungsbestrebungen natürlich die genannten großen Player, die stark aus der Data-Management-Perspektive kommen. In Asien sind es dagegen eher die Hardware- und Infrastrukturanbieter.

Wir in Europa haben aus meiner Sicht den Vorteil, dass wir auf einer „Leading Edge“-Industriekompetenz, ICT und einer großen Marktmacht aufbauen können. Aus diesem Grund sehe ich es auch nicht als ausreichend an, wenn wir uns in Deutschland alleine mit dem Thema auseinandersetzen. Wir brauchen in Summe eine europäische Initiative, die stark durch die beteiligten Wirtschaftsunternehmen und Verbände geprägt wird. Noch haben wir die besten Voraussetzungen, unseren Vorsprung in Deutschland und Europa zu behaupten. Wir als Deutsche Telekom stehen als starker Partner der Wirtschaft zur Verfügung und nehmen diese Herausforderung an.

DMR: Herr Rickmann, vielen Dank für den Gedankenaustausch.

23 Detecon Management Report blue • 1 / 2015

Page 26: PDF-Download (3.95 MB)

24 Detecon Management Report blue • 1 / 2015

Die Digitalisierung verändert die Welt wie kaum eine Entwicklung zuvor. Welche Anfor-derungen gibt es an das Datenmanagement, um eine effiziente Datenarchitektur zu gestalten, die auf die Geschäftsmodelle von morgen zugeschnitten ist?

Shared Data im Internet der Dinge und in Industrie 4.0

Master Data Management

Page 27: PDF-Download (3.95 MB)

25 Detecon Management Report blue • 1 / 2015

D as Ziel von Industrie 4.0 ist die intelligente Fabrik, die sich durch Wandlungsfähigkeit, Ressourceneffizienz und Ergono-mie sowie die Integration von Kunden und Geschäftspartnern in Geschäfts- und Wertschöpfungsprozesse auszeichnet. Tech-nologische Grundlage sind Cyber-physische Systeme und das Internet der Dinge. Das Ziel des Internet der Dinge ist es, die Informationslücke zwischen der realen und virtuellen Welt zu minimieren. Ein wichtiger Schritt zu diesem Ziel ist vor allem die Standardisierung der Komponenten und Dienste im Inter-net der Dinge. Das Internet der Dinge unterscheidet sich von dem Konzept der Selbststeuerung in der Logistik. Selbststeu-ernde Objekte benötigen nicht zwangsläufig internet ähnliche vernetzte Strukturen. Dennoch lassen sich Synergien herstellen, so dass zumindest in der Forschung beide Konzepte gerne ver-knüpft werden.

Abgrenzung des Datenmanagements über am Prozess beteiligte Partner

Für die überwiegend interne Nutzung von Daten steht zum Beispiel folgendes Szenario: Die Kaffeemaschine protokolliert den Verbrauch von Kaffee und kann dem Kunden so recht zeitig Nachschub durch einen Dienstleister anbieten. Darüber hinaus wird die Wartung rechtzeitig initiiert und im Fehlerfall die Repa-ratur ausgelöst. Ähnliche Anwendungsbeispiele sind bei Wasch-maschinen, Druckern oder bei vorrausschauenden Wartungen durch die Nutzung von Sensoren denkbar. Per Microship und Internet gelangen die Informationen an die Firmen zurück und stehen für die Vermarktung eigener neuer Dienst leistungen oder naher Services zur Verfügung. Bei der Paketverfolgung dient ein neuer künstlicher Identifyer, die Sendungsnummer, für die Interaktion zwischen Paket und Kunde. Letztlich werden aber keine schützenswerten Daten nach außen gegeben, und Schnitt-stellen bestehen hauptsächlich in die eigenen Applikationsum-gebung. Bei dieser weitgehend internen Nutzung der auch über das Internet gesammelten Daten muß sich das Datenmange-ment ganz besonders auf die internen Belange konzentrieren. Nur wenn die Stammdaten eindeutig und richtig sind, können korrekte Auswertungen der gelieferten Informationen durchge-führt und die daraus abzuleitenden Aktionen initiiert werden. Anders sieht es aus, wenn mehrere extern gesammelte Infor-mationen zu neuen Wertschöpfungsketten verknüpft werden: Shared Data. Ob Autokonzerne oder Maschinenbau – ohne Informationstechnik geht nichts mehr. Selbst bei der Arbeit auf dem Acker hilft das Internet. Da kommuniziert etwa der Mähdrescher mit der Wetterstation: „Gewitter im Anzug, schneller ernten!“ Gleichzeitig erhält das Getreidesilo eine Mel-dung darüber, wann es mit der nächsten Fuhre zu rechnen hat.

Fällt der Ertrag zu bescheiden aus, merkt sich der Computer: Im nächsten Jahr wird mehr gedüngt. Die IT ist hier schon für ein Viertel der Wertschöpfung verantwortlich, in zehn Jahren könnte es bereits die Hälfte sein.

Abbildung 1: Intern genutzte Daten

Abbildung 2: Shared Data

Quelle: Detecon

Quelle: Detecon

Produkte und Produktionen werden intelligent. Sie kommu-nizieren untereinander, bestellen den Wartungsdienst oder den Teile-Nachschub. Das Stichwort für diese digitale Revolution lautet Industrie 4.0. Für das Datenmanagement bedeutet das, dass hier unterschiedliche Unternehmen oder Anbieter auf ge-meinschaftlich genutzte Daten zugreifen. Sollen diese in die

Beispiel:• Fehlermeldung• Verbrauch Betriebsmittel• Betriebsstunden• Identifyer

Beispiel:• Material• Kunde• Werkzeug• etc.

Firma A

Firma A

Gerät n

Firma n

Kunde

Gerät 2

Firma C

Gerät 1

Firma B

Page 28: PDF-Download (3.95 MB)

26 Detecon Management Report blue • 1 / 2015

Abbildung 3: Das Master Data Management (MDM)-Vorgehensmodell

MD

M V

orge

hens

mod

ell

Initialisierung Grobkonzept Feinkonzept Aufbau Installation Stabilisierung/Op. Support

Analyse Geschäfts-anforderungen

Data Gov. Aware-ness & Vision

Migrationsstrategie (IBT-Ziel)

Konzept fürDatenverteilung

Definition Berech-tigungskonzept

DefinitionRoadmap

Cut-OverPlanung

Tests Durch-führung

Archivierungs-konzept

TestArchivierung

Objekt- & Attri-butsanforderungen

Definition des MDSteuerungsframwork

Design, Prozesse & Organisation

Setup Master DataSteuerung & Autor.

Workflow Implementierung

Setup Prozesse

Datenharmonisie-rung/Bereinigung

G&Peinführen

Test Reports & Workflow

Setup Migrations-projekte

Datenmodell verwalten

Überwachung der Prozess- & Infor-mationsqualität

Post-MigrationSupport

DatenobjektAnalyse

IBT-Analyse der Prozesse

Identifikation der Migrations- undArchivierungs-anforderungen

Datenbereinigungs-ansatz

Prozess-segmentierung

ETL-Tool-Konzept

ETL-Tool-Auswahl

ETL-Tool-Konfiguration

Datenerfassung

Projektmanagement und Umsetzungsplanung

Daten laden & verteilen

Daten aus Legacy System extrahieren

Test Anwendungen & Tools verwalten

KPIs überwachen

Archivierung

Informationen erhalten

Auswahl Frame-works & Standards

Standardisierungs-ansatz

KPIs definieren

Workflow Design

Imlementierung &Techn. Strategie

Analyse Auswir-kung Organisation

Migrations-Roadmap

Technologie-konzept

Definition Gover-nance-Konzept

Konfiguration der Lösung

Umsetzung Archi-vierungskonzept

Gov

erna

nce,

Pro

zess

e un

d St

euer

ung

Dat

enm

anag

emen

tTe

chno

logi

e/Sy

stem

e

Quelle: Detecon

Page 29: PDF-Download (3.95 MB)

27 Detecon Management Report blue • 1 / 2015

Johannes Mroz ist Managing Consultant und berät vor allem Industrie- und Telekommunikationsunternehmen zu den Themen Prozess- und Datenmanagement.

eigenen Prozesse integrierbar sein, müssen gemeinsame Stan-dards eingesetzt werden. Hier unterstützen schon in wenigen Bereichen Industrienormen wie EDIFAKT und EDI. Dennoch bedarf es einer Internationalisierung von bestimmten Stamm-daten für Materialien, Teile und Kunden durch globale Broker, um barrierefrei kommunizieren zu können. Datamanagement ganzheitlich betrachtet

Um eine erfolgreiche Stammdatenarchitektur zu implementie-ren, müssen vier Bereiche Betrachtung finden: Im Bereich Data Management wird zunächst die Strategie für Data Management und die dafür benötigte Stammdatenarchitektur gesammelt. Aus dieser Strategie können ein Konzept und die notwendigen Umsetzungsschritte abgeleitet werden. Auf dieser Basis lassen sich KPI’s entwickeln, um langfristig die Datenqualität messbar zu machen. Nachdem auch die „globalen“ und „lokalen“ Infor-mationen identifiziert wurden, kann eine systemübergreifende Datenharmonisierung erfolgen.

Im Bereich Central Applications & Management werden die jeweiligen Anforderungen aufgenommen und mit denen der allgemeinen Datenstrategie abgeglichen. Außerdem werden die applikationsinternen sowie -externen Störfaktoren iden-tifiziert und als Verbesserungsanforderungen festgeschrieben. Die unterstützenden Datenpflegeprozesse, die Prozesse zur Qualitätssicherung sowie die notwendige Organisation werden im Bereich Processes & Governance definiert.

Um die produktiven Altdaten in die neue Stammdatenarchi-tektur zu überführen, werden häufig Technical Elements oder Tools benötigt. Dies schließt das Thema Datenbereinigung, Migra tion sowie Datenarchivierung mit ein. Da alle Bereiche ineinander greifen und dies meist in Verbin-dung mit komplexen Datenlandschaften zu bearbeiten ist, er-fordert die Umsetzung eine strukturierte Vorgehensmethode, die auf „Best Practise“ zurückgreifen kann.

Zusätzliche Anforderungen bei der Nutzung von „Shared Data“

Nach Möglichkeit sind gemeinsame Identifieer zu schaffen. Wo vorhanden, ist die Nutzung von globalen Brokern für die in-ternationale Nummernverwaltung sinnvoll. Anderenfalls ist ein Nummernmapping erforderlich.

Besonderes Augenmerk liegt auf dem Datenschutz und der Datensicherheit. Die Öffnung der eigenen Systeme mit Zu-griff auf externe Datenquellen macht die Systeme anfälliger für Datenangriffe und Spionage. Dies gilt es auf jeden Fall zu ver-hindern. Die Erstellung eines ausgefeilten Berechtigungskonzeptes ist eine dritte wichtige Anforderung. Heute gelten die im System abgelegten Kunden und auch Produkte als Geschäftsgeheimnis. Bei der Verwendung dieser Daten in Verbindung mit anderen externen Informationen gilt es, die eigenen Daten dennoch vor unberechtigten Augen beziehungsweise fremden Unternehmen zu schützen. Der Einsatz von sogenannten Black- und White-Lists kann hier erste Hürden überwinden.

Harmonisierte Stammdaten und integrierte Prozesse sichern digitale Transformation

Die Bedeutung von Datenmangement wird unabhängig von der genutzten Zukunftstechnologie in den nächsten Jahren signifi-kant wachsen. Der Nachholbedarf der Unternehmen in diesem Bereich ist beträchtlich. Nur mit harmonisierten Stammdaten und integrierten Prozessen können sowohl die digitale Transfor-mation in den Unternehmen störungsfrei umgesetzt als auch die gesteckten Ziele der Unternehmen erreicht werden.

Page 30: PDF-Download (3.95 MB)

28 Detecon Management Report blue • 1 / 2015

Page 31: PDF-Download (3.95 MB)

29 Detecon Management Report blue • 1 / 2015

Interview mit Christian Renner, Investment Manager, hub:raum

„Das Internet der Dinge braucht massentaugliche Use Cases,

die jedem einleuchten“Erste Vorboten des Internet der Dinge sind intelligente Heizungssysteme, Wearables oder Staumeldesysteme.

Manuel Niederhofer, Senior Consultant bei Detecon, sprach mit Christian Renner, Investment Manager beim Telekom Inkubator Hub:raum in Berlin,

um herauszufinden, inwieweit die Venture-Szene diese Entwicklungen beeinflusst.

DMR: Das Internet der Dinge ist in aller Munde und genau so viele Definitionen gibt es auch. Was ist Dein Verständnis vom Internet der Dinge?

Renner: Für mich bedeutet das Internet der Dinge vor allem die tägliche Nutzung von vernetzten Engeräten in allen Lebens-bereichen. Die vier wichtigsten Bereiche sind aus meiner Sicht Health, Connected Home, Connected Car und Sport/Fitness.

Aus Sicht der Deutschen Telekom spielt sich das Thema ebenfalls zum größten Teil im Konsumentenbereich ab. Auch bei B2B2C-Modellen müssen wir nach amerikanischem Beispiel erst lernen, dass das B in der Mitte „nur“ ein Kanal ist. Bei unseren Invest-ments haben wir immer die Maxime im Kopf, das skalierbare Plattformgeschäft der Telekom zu pushen.

DMR: Also ist das Internet der Dinge mehr als ein twitternder Kühlschrank?

Renner: Grundsätzlich bedeutet das Internet der Dinge, dass je-des Gerät eine IP-Adresse bekommt und somit potenziell kom-munizieren kann. Ende 2020 sprechen wir von einer 60prozen-tigen weltweiten Smartphone-Penetration. Und das sind wirklich nur Smartphones. Diese Power ist unglaublich, wenn man be-denkt, dass jeder Sensor, jede Glühbirne oder auch jeder Kühl-schrank mit uns kommunizieren kann.

DMR: Warum haben wir dann momentan das Gefühl, dass das Thema noch nicht wirklich Zugkraft hat?

Renner: Wir hatten dieses Gefühl auch bei der Cloud, bis sie bewusst oder unbewusst Teil unseres täglichen Lebens wurde. Das Internet der Dinge braucht massentaugliche Use Cases, die jedem einleuchten. Wir rechnen damit, dass durch die Apple Watch im Bereich Health und durch den Apple TV im Bereich Connected Home, Apple’s neues HomeKit, Anwendungs beispiele entstehen, die den Markt formen. Bevor dieses Thema nicht „konsumier-bar“ gemacht wird, ist es schlichtweg graue Theorie.

DMR: Wann wird diese magische vernetzte Welt ein Teil unseres täglichen Lebens sein?

Renner: Eigentlich sind wir ja schon mitten drin. Wir müssen uns vor Augen halten, dass wir als Deutsche Telekom sehr früh Trends erkennen und diese auch bearbeiten. Eindrücklich zeigt dies beispielsweise Qivicon Smart Home, das jetzt von Miele unterstützt wird. Nest und Co. machen bereits signifikante Um-sätze und auch die Telekom zeigt wieder einmal mit BMW auf der IFA, dass sie heiß ist auf das Thema. Wie schon erwähnt: Das Thema steht in den Startlöchern.

Page 32: PDF-Download (3.95 MB)

30 Detecon Management Report blue • 1 / 2015

DMR: Lass uns mal in Richtung Human Centered Design gehen. Welche drei Use Cases einer vernetzten Welt siehst Du als richtungs-weisend an? Welche tatsächlichen Probleme werden hier gelöst?

Renner: Wir müssen uns angewöhnen, das Thema holistisch zu betrachten. In erster Linie soll unser Leben durch die tatsäch-liche Verschmelzung von verschiedenen Lebensbereichen erleich-tert werden. Nehmen wir zum Beispiel das Thema BMW und Telekom. Mit ConnectedDrive sollen Haus und Auto vernetzt werden. Damit kann der Fahrer vom BMW aus in seinem Haus das Licht oder die Heizung für verschiedene Räume regulieren und Geräte ein- und ausschalten.

Für uns als Telekom sind speziell die Plattformen im Hintergrund relevant. Mit der Verschmelzung vieler Lebensbereiche wird eine neue Nachfrage nach der Verwaltung und Orchestrierung von Daten geschaffen. Momenten gibt es vor allem vertikale Insel lösungen. Die Musik fängt dann an zu spielen, wenn die vertikalen Säulen zu horizontal konvergierten Geschäftsmodellen werden.

DMR: Was macht Ihr im hub:raum konkret zu diesem Thema?

Renner: hub:raum als Frühphaseninvestor der Deutschen Tele-kom sucht nach spannenden IoT Start-ups, die im Kontext der Telekom skalierbar sind. Wir sind das Ohr am Markt für den Konzern. Bereits in diesem Jahr haben wir ein IoT Bootcamp veranstaltet, bei dem die Business Units mit den spannendsten Start-ups – über 100 Bewerbungen aus mehr als 20 Ländern – „connected“ wurden. Hieraus haben sich dedizierte Partnerschaf-ten entwickelt.

DMR: Als einer der „Thought Leader“ im Kontext Corporate Inno-vation stehst Du jeden Tag zwischen den Stühlen von smarten Start-ups und trägen Konzernen. Was muss passieren, damit ein smartes IoT Start-up einen Elefanten zum Tanzen bringt?

Renner: Das Zauberwort heißt ganz klar Partnering. In diesem Rennen geht es um Reichweite und Traffic. Hier wird nicht der First Mover belohnt, sondern alle diejenigen, die frühzeitig ihre Tore für smartes Partnering geöffnet haben. Mein Lieblings-spruch: „Being a First Mover is King... but Partnering is King Kong!” Wir sollten uns auf das konzentrieren, was wir sind und was wir sehr gut können: eine starke Marke mit starken Möglich-keiten, den Markt mit zu formen. Wir müssen nicht immer alles selbst erfinden. Easy2Partner ist zum Beispiel ein wirklich guter Ansatz, der zeigt, wie wir nach agilem Prinzip schnell auf den Markt reagieren können.

DMR: Sind Start-ups einfach nur frecher? Haben sie schlichtweg nichts zu verlieren?

Renner: Konzerne sind Thought Leader, die in den meisten Fällen sehr nah dran sind an den Trendthemen. Allersding hapert es oft an der Umsetzung. Vielfach ist der Markt einfach noch nicht reif, obwohl sich der Trend bereits klar abzeichnet. Bei einem Start-up stimmt meist der Produkt-Markt-Fit, da aufgrund von Ressour-cenrestriktionen ja tatsächlich nur dann agiert wird, wenn der Markt da ist. Beide können also voneinander lernen. Ein Kon-zern hat alle Eventualitäten meist schon perfekt durchgedacht, ein Start-up ist einfach näher am Markt.

DMR: Wie hoch schätzt Du die Chance von deutschen IoT Start-ups ein im Vergleich zu einem Start-up aus Tel Aviv oder dem Silicon Valley?

Renner: Der Standort Deutschland ist gut! Per Tradition haben wir eine exzellent ausgeprägte Engineering-Szene. Allerdings ist unsere Venture-Szene nicht mit Tel Aviv oder vor allem dem Silicon Valley zu vergleichen. Besonders hervorzuheben ist der Exit-Markt. Konzerne in den USA haben sich darauf eingestellt, mit Start-ups zu arbeiten – Google kauft Nest – und schon vor langer Zeit Prozesse und Geschwindigkeit an die „Kleinen“ ange-passt. Hier muss in Deutschland noch viel passieren.

Zudem sehe ich vor allem das Thema Human Centered Design als zentrale Lehre für Deutschland. In Tel Aviv und USA arbei-ten die Teams an tatsächlichen Kundenproblemen und verlieren sich nicht in technischer Liebhaberei. Wenn wir lernen, uns noch mehr auf den Kunden zu fokussieren und unsere Engineering Power nutzen, sind wir weltweit sehr gut aufgestellt.

DMR: Welche drei Schlüsselfaktoren für nachhaltigen Erfolg gibst Du Deinen Mentees mit auf den Weg?

Renner: Erstens: Das Kundenbedürfnis steht im Mittelpunkt – löse ein Problem. Zweitens: Bleib schlank – entwickle ausschließ-lich an der Lösung des Kundenproblems. Drittens: Bleib fokus-siert beim Go2Market – erst nachdem ein Markt skaliert, sollte der nächste angepackt werden.

Mit dem Thema „vernetzte Engeräte“ kommt eine Welle auf uns zu, die unser Leben nachhaltig beeinflussen wird. Und wir sind nicht zu spät dran! Diejenigen, die sich schnell und smart für Partnerschaften öffnen, werden den Markt prägen und verteilen.

Page 33: PDF-Download (3.95 MB)

31 Detecon Management Report blue • 1 / 2015

Christian Renner ist Investment Manager bei „hub:raum“, dem globalen Inkubator der Deutschen Telekom. In dieser Position ver-antwortet er die Identifizierung und Auswahl der besten Start-ups für den Inkubator. Er unterstützt die Portfolio-Teams dabei, ihr Geschäft zu vergrößern und zusätzliche Finanzierung zu errei-chen.

Zuvor war er eingebunden in das internationale Management-programm der Deutschen Telekom im Vorstandsressort Technologie und Innovation, gründete FAT, eine Beratungs- und Marketing-Agentur und war Mitbegründer von careertraining.

Zur Förderung des Unternehmertums hält Renner Vorlesungen, veranstaltet Workshops an mehreren Business Schools wie EBS oder Wirtschaftsuniversität Wien und berät Fortune 500 Unternehmen in Sachen Innovation, Intra- und Entrepreneurship. Er ist Refe-rent, Podiumsgast und Start-up-Jury-Mitglied als auch aktiver Angel-Investor und Berater/Mentor für zahlreiche Hightech- Unternehmen.

Über hub:raum: Wir sind der Hub, der Ihr Team, Ihre Vision und Expertise mit der Unternehmensstärke der Deutschen Tele-kom verbindet: alles individuell auf Ihre Bedürfnisse zugeschnit-ten. hub:raum managt Ihre Verbindung zu einem der weltweit führenden integrierten Telekommunikationsunternehmen. In den Bereichen, in denen Ihr Team hervorragend ist, überlassen wir Ihnen den Schwerpunkt, und in den Bereichen, in denen Sie Hilfe benötigen, unterstützen wir Sie. So, wie es sein sollte.

Page 34: PDF-Download (3.95 MB)

32 Detecon Management Report blue • 1 / 2015

Der traditionelle Handel muss die Lücke zu erfolgreichen Online-Händlern schließen

Das Internet der Dinge als letzte Chance?

Der Handel muss neue Technologien zur Kenntnis nehmen und in seine Strategie integrieren. Das Internet der Dinge könnte für viele Zauderer die Brücke zwischen on- und offline Welt und die letzte Chance im Kampf mit dem Online-Handel sein.

ange Zeit sahen sich die Traditionalisten bestätigt: Der über die vergangenen anderthalb Jahrzehnte angekündigte Siegeszug des Online-Handels entwickelte sich nur langsam und nicht alle Versuche, Waren online zu verkaufen, waren erfolgreich. Und dennoch, wenn auch weniger schnell als angenommen, ist der Online-Handel inzwischen nicht mehr nur für kleine Einzel-händler existenzbedrohend. Selbst die großen Unternehmen sind zu einem Umdenken gezwungen.

L Offline als Ausstellungsraum für Online

Der Einzelhandel steht zunehmend unter Druck. Laut einer Umfrage rechnen nur 38 Prozent der deutschen Händler für 2014 mit einem Umsatzwachstum1. Die größte Gefahr sieht der stationäre (offline) Handel für sich nach wie vor im eCom-merce: Etwa 67 Prozent der Händler fühlen sich durch Online-Shopping bedroht. Mittlerweile lässt sich (fast) alles online

1 Pressemitteilung der Schufa vom 18. 12. 2013.

Page 35: PDF-Download (3.95 MB)

33 Detecon Management Report blue • 1 / 2015

kaufen. Meist ist die Ware im Internet günstiger und der Ein-kauf dort bietet weitere Vorteile: Die großen Sortimente sind strukturiert und übersichtlich dargestellt, verschiedene Anbieter gewährleisten eine hohe Verfügbarkeit der Ware. Die Bezahlung erfolgt bequem und ohne Schlange stehen zu müssen. Die ein-fache Vergleichbarkeit von Produktalternativen sowie Empfeh-lungen und Berichte unzähliger anderer Käufer helfen bei der Auswahl.

Besonders dieser letzte Aspekt wird in vielen Geschäften ver-nachlässigt. Entweder gibt es nicht genug Personal zur Beratung der Kunden oder es mangelt dem vorhandenen Personal an Servicebewusstsein. Hinzu kommt, dass man anderen Käufern – im Gegensatz zu Verkäufern – im Regelfall ein größeres Ver-trauen entgegenbringt. „Bereits jetzt suchen etwa zwei Drittel der deutschen Käufer im Netz nach Produktinformationen. Der stationäre Handel entwickelt sich dadurch mehr und mehr zum Ausstellungsraum der Online-Shops – die Kunden sehen sich das gewünschte Produkt im Laden an, vergleichen und be-stellen dann aber über ihr Smartphone. Man nennt das Show-rooming.“, so Dr. Britta Cornelius, Managing Consultant bei Detecon. Denn das ausschlaggebende Argument bleibt häufig der Preis. Dadurch werden die Margen des Handels immer stär-ker strapaziert. Insolvenzen sind die Folge, wie etwa das jüngste Beispiel des österreichischen Elektrohändlers DiTech, der den Kampf gegen den eCommerce verloren hat.

Kauferlebnis: „more enjoyment – less pain”

Wie kann der stationäre Handel reagieren? „Die Option, sich als Preisbrecher gegen den Online-Handel zu behaupten, ist auf-grund der höheren Kosten durch Mieten und Personal wenig erfolgsversprechend. Dem stationären Einzelhandel bleibt im Grunde nur die Option, die Affinität der Kunden für digitale Medien zum eigenen Vorteil zu nutzen.“, so Cornelius.

Die Studie „Digital Retail Vision“2 betrachtet das Thema digi-tale Medien am Point of Sale (POS) aus dem Blickwinkel der Händler- und Kundenbedürfnisse. Unter anderem wurden die Teilnehmer gefragt, was sie am Offline-Handel stört. Eine Er-kenntnis der Studie war, dass sich die Kunden einen unkom-plizierten Einkauf wünschen, der sowohl unterhaltsam als auch inspirierend ist – der Erlebnisfaktor spielt eine wichtige Rolle. „[Offline] Einkauf ist eine Notwendigkeit und langweilig.“, be-fand ein Studienteilnehmer. Außerdem zeigten sich 70 Prozent der Befragten sehr offen gegenüber neuen Technologien, und 64 Prozent waren auch bereit, mit ihrem Smartphone zu zahlen.

Diese Erkenntnisse gehen einher mit der steigenden Anzahl an „Digital Natives“ – Kunden, die in einer digitalisierten Welt aufgewachsen sind. Deren Bedürfnisse darf der Handel nicht ausblenden, wenn er nicht zunehmend mehr von ihnen an die Internet-Konkurrenz verlieren möchte. Neue Technologien können den Einkauf zu einem eindrucksvollen Erlebnis ma-chen, das die Routine in den Hintergrund drängt. Der statio-näre Einzelhandel muss diesen Trumpf des direkten Erlebnisses, das in einem Geschäft viel intensiver ist als auf einer Website, ausspielen, um im Wettbewerb mit dem Online-Handel im Rennen zu bleiben.

Mehrwert durch Standardisierung

Die Studie „Digital Retail Vision“ verdeutlichte jedoch auch die Ängste der Händler. Der Mehrwert der neuen Technologien erscheint nicht deutlich genug, die Angst vor Innovationen ist groß und schmale Margen zwingen Händler dazu, ihre Investi-tionen einzuschränken, um den Cash Flow nicht unnötig zu be-lasten. Investitionen in innovative Technologien sollten jedoch ganzheitlich analysiert werden: Neben direkten Umsatzeffekten gibt es Einwirkungen auf die Kostenseite und die Loyalität, welche wiederum auf zukünftige Umsätze Einfluss nimmt. Bei-spielsweise führt die Automatisierung der Preisauszeichnung mit Hilfe von elektronischen Preisschildern zu Kostensenkungen. Die Möglichkeit, eigenständig an Self-Checkout Schaltern zu bezahlen und somit das Anstehen an der Kasse zu verkürzen, steigert in bestimmten Segmenten die Kundenloyalität.

Ausländische Händler zeigen sich bei den neuen Technologien aufgeschlossener als die deutschen. So sind das eigenständige Scannen der Ware und das Bezahlen am Automaten für unsere europäischen Nachbarn in vielen Geschäften bereits selbstver-ständlich. Auch Whole Foods, der weltweit größte Betreiber einer Biosupermarktkette, die in den USA, Kanada und Groß-britannien vertreten ist, zeigt sich mit dem Kinect Einkaufsbe-gleiter sehr experimentierfreudig. Dabei handelt es sich um den Prototypen eines am Einkaufswagen angebrachten Bildschirms, der die Einkaufsliste eines zuvor identifizierten Kunden zeigt. Legt der Kunde die Ware in den Wagen, wird diese von einer Kamera erkannt und registriert. Ist die Liste abgearbeitet, wird der Kunde darüber informiert. Die Bezahlung erfolgt automa-tisch. Außerdem muss dieser intelligente Einkaufswagen auch nicht mehr geschoben werden – er folgt „seinem“ Kunden.

Bemerkenswert an diesem Beispiel ist die „Zweckentfremdung“ – die Kinect wurde ursprünglich für die Spielkonsole Microsoft

2 Studie der Hochschule Pforzheim

Page 36: PDF-Download (3.95 MB)

34 Detecon Management Report blue • 1 / 2015

Abbildung: Beispiel „Das beratende Weinregal“

Quelle: hybris

Xbox entwickelt. Dies stellt sich als Vorteil heraus, da es sich um eine standardisierte Technologie mit bestehenden Supportpro-zessen handelt. Bei einem starken Verbreitungs- beziehungswei-se Standardisierungsgrad fallen Einkaufs- und Betriebskosten weitaus günstiger aus als bei Speziallösungen. Eine Standardisie-rung und vielfältigen Einsatz gekoppelt mit niedrigen Einsatz-kosten verspricht auch die Beacon-Technologie, die aktuell für viel Aufsehen sorgt.

iBeacon – das Ortungsgerät

Der englische Begriff „beacon“ lässt sich mit „Leuchtfeuer“ oder auch „Ortungsgerät“ ins Deutsche übersetzen und funktioniert nach dem Sender-Empfänger-Prinzip. iBeacon ist der 2013 von Apple Inc. eingeführte proprietäre Standard.

iBeacons werden als Signalgeber in Räumen platziert. In festen Zeitintervallen senden sie Signale, die ein Empfänger, bei-spielsweise ein Smartphone mit einer für den Empfang dieser Signale konfigurierten App, empfangen kann. Die Übertra-gung geschieht dabei über die von Nokia bereits im Jahre 2006 vorgestellte Bluetooth Low Energy (BLE) Technologie, welche extrem stromsparend arbeitet. Die App reagiert auf die empfan-gen Signale, zum Beispiel mit dem Anzeigen von Informationen oder Nachrichten.

Momentan kostet ein iBeacon Chip zwischen 3-15 Euro. Voraussichtlich wird sich der Preis auf Dauer jedoch im unteren Bereich dieser Spanne einpendeln. iBeacons sind klein und können unsichtbar in die Umgebung integriert werden, zum Beispiel in LED-Glühbirnen, wie von Philips gezeigt.3 Davon

abgesehen gibt es eine Fülle an weiteren Form-Möglichkeiten vom USB-Stick bis hin zu virtuellen Beacons, die mit Hilfe einer Software einen Mac zu einem Beacon verwandeln.4

Auch bezüglich der bereitgestellten Informationen ist der Kreativität keine Grenze gesetzt. Navigation in geschlossenen Räumen, Hinweise auf besondere Angebote, angepasst an die Besucherzahl im Geschäft und/oder die Uhrzeit oder auch nur die Identifikation des Kunden sind mögliche Anwendungen. Auch für das schnellere und einfachere Bezahlen mit dem Smartphone gibt die Technologie neue Impulse.

Eine große Community an Entwicklern beschäftigt sich bereits seit einiger Zeit mit der Beacon-Technologie. Dabei geht es mittlerweile nicht mehr nur um die iBeacons von Apple, son-dern auch um weitere Beacon-Produkte. Das Gimbal-Beacon von Qualcomm beispielsweise wird derzeit verstärkt von Paypal getestet und eingesetzt. Durch den Wettbewerb um attraktive und kommerzialisierbare Anwendungen werden stets neue und vielversprechende Ideen verwirklicht. Zwei davon möchten wir hier vorstellen.

Das beratende Weinregal

Die Weinauswahl ist eine Kunst für sich. Rot für Fleisch, weiß für Fisch – das ist weitläufig bekannt. Doch wenn es um die Sorte, das Herkunftsland oder das Erntejahr geht, verzweifeln viele am prallgefüllten Weinregal. Meist fehlt ein beratender Sommelier in der Nähe. Erleichterung verspricht die Entwick-lergruppe hybris mit ihrem „smart wine shelf“5.

Die Gruppe entwickelt eine App, mit der der Kunde einen schnellen Weintest durchlaufen und danach sein errechnetes Weinprofil an das Regal schicken kann. Die zum Geschmack-sprofil passenden Weine werden am Regal beleuchtet, um den Kunden die Suche zu erleichtern. Nimmt der Kunde eine Weinflasche aus dem Regal, informiert ihn das Regaldisplay mit Details zum Wein. Außerdem wird dem Kunden angezeigt, wie gut der entnommene Wein zu seinem grade errechneten Wein-profil passt.

Den Händlern versprechen die Entwickler von hybris mit die-ser Anwendung neue Analysemöglichkeiten. Zum Beispiel ist es möglich darzustellen, wie häufig welcher Wein entnommen wurde, welcher danach tatsächlich gekauft wurde und welches das beliebteste Wein-Profil ist.

3 www.techrepublic.com/article/10-ways-ibeacon-is-changing-the-future- of-shopping/4 http://beekn.net/2013/11/turn-your-mac-into-a-bluetooth-beacon/5 http://techblog.hybris.com/2014/04/25/the-smart-wine-shelf-how-iot-and- retail-come-together/

Page 37: PDF-Download (3.95 MB)

35 Detecon Management Report blue • 1 / 2015

Evgeny Shibanov, Senior Consultant, berät Unternehmen der Telekommunika-tionsindustrie in CIS zu innovativen und strategischen Themen.

Lea Fortmann ist Business Analyst und berät Handelsunternehmen sowie öffentliche Institutionen hinsichtlich Fragestellungen aus dem Innovations- und Technologiemanagement.

hybris nutzt sehr günstige Komponenten für das Regal, etwa den Raspberry PI Prozessor und Linux OS. Als Interaktions-trigger wird das iBeacon genutzt. Das Produkt existiert bereits als Prototyp, 2014 möchte hybris eine vollfunktionale Version vorstellen.

Die Lösung sticht aufgrund der engen Anknüpfung an die Kaufbedürfnisse der Kunden hervor: Sie bietet eine leichte Navigation und eine interaktive und personalisierte Beratung, welche das Einkaufserlebnis steigert. Sie ist ein anschauliches Beispiel dafür, wie der Offline-Handel sich dem eCommerce nähern kann. Der Weinkauf ist sehr stark verbreitet im Inter-net, es gibt unzählige Weingemeinschaften, Clubs und Groß-händler. Der Marktführer Wine.com verzeichnet jährlich ein Umsatzwachstum von über 25 Prozent. Alkohol gehört auch im stationären Lebensmitteleinzelhandel zu den Produkten mit der größten Marge. Indem man den Kunden richtig berät, zum Bei-spiel mit Hilfe eines solchen Regals, steigert man seinen Absatz und damit die durchschnittliche Marge.

ShopKick’s Proximity Marketing

Ein großer Mehrwert der iBeacon-Technologie liegt darin, dass für das Verkaufspersonal im Geschäft zum ersten Mal die Mög-lichkeit besteht, die weitgehend anonyme Kundschaft schon beim Betreten des Ladens zu identifizieren und entsprechend zu reagieren. Dies war bisher, wenn überhaupt, nur bei einer kleinen Anzahl von Stammkunden oder durch den Einsatz der Kundenkarte beim Bezahlen möglich. Im letzten Fall ist der Einkauf aber bereits erledigt. Jetzt kann man den Kunden schon für seinen Besuch im Geschäft, beispielsweise durch das Gutschreiben von Treuepunkten, belohnen. Weiterhin erlaubt die einfache und für den Anwender bequeme Technologie, orts-basierte Services in Gebäude und damit in die Geschäfte und Einkaufzentren zu bringen. Gezielte Information über den rich-tigen Weg oder bestimmte Angebote, die heute schon außerhalb von Gebäuden in Fußgängerzonen übertragen werden können, erhält der Kunde mittels der genauen Ortung durch die Beacons auf sein Smartphone, sobald er einen definierten Bereich im oder vor dem Geschäft betritt. Stellt der Kunde zusätzlich Infor-mationen über sich zur Verfügung oder stimmt er beispielsweise einer Integration mit den von ihm benutzen sozialen Netzwer-ken zu, kann der Händler über seine Kunden lernen. Mit der Zeit erhält der Kunde nur noch Angebote, die ihn wirklich inte-ressieren – und empfindet, dass der Händler ihn versteht.

In den USA installierte das Mobile-Shopping-Unternehmen ShopKick in zwei Filialen von Macy’s, dem größten Waren-hausbetreiber der Vereinigten Staaten, die iBeacon-Techno-logie gekoppelt an die ShopKick-App. Daraus entstand das „Shop Beacon“. Die Kunden bekommen Angebote und Pro-duktinformation geschickt und werden so zum Kauf animiert. Mit der sehr genauen Verortung der Kunden bietet ShopKick außerdem die Möglichkeit zu einer genauen Laufbewegungs-analyse, um etwa eine Optimierung der Verkaufsfläche vorneh-men zu können.

Das Versenden von Nachrichten und Angeboten sollte der Mar-keter allerdings nicht übertreiben. Eine Umfrage von ISACA6

zeigt, dass etwa 50 Prozent der Käufer sich unwohl fühlen bei Nachrichten, die beim Vorbeigehen verschickt werden. Grade die 25-34 jährigen – also die Zielgruppe dieser Technologie – seien am meisten irritiert. Respekt vor der Privatsphäre und wirklich passende Nachrichten sind also essenziell, um Kunden ein perfektes Kauferlebnis zu bieten.

IoT als Chance nutzen

Das Internet der Dinge bietet zweifellos eine Chance, die At-traktivität des (offline)Handels für online-affine Kunden zu stei-gern. Das iBeacon ist nur eine Möglichkeit, das Einkaufserleb-nis am POS umzugestalten. Die dargestellten Anwendungsfälle von hybris und ShopKick zeigen anschaulich, welche neuen Arten der Interaktion mit dem Kunden dank dieser Technolo-gie möglich sind. „Eine Betrachtung der Technologien anhand konkreter Situationen, also einem Use Case, macht deutlich, an welchen Stellen eine online-offline-Verflechtung sinnvoll ist. Eine Datenbank zu Anwendungsfällen des Internet der Dinge im Handel, wie sie von Detecon entwickelt wurde, bietet für jeden Händler individuell die Möglichkeit, sich nach den wich-tigsten Kriterien einen Überblick zu verschaffen.“, rät Britta Cornelius. Nicht zu lange warten und ausprobieren, was zum eigenen Unternehmen passt, muss die Devise sein, um die eige-nen Stärken wieder in den Mittelpunkt zu rücken und die letzte Chance im Kampf gegen den eCommerce nicht zu verpassen.

6 www.technewsworld.com/story/Macys-Dips-Toes-in-Brave-New- Marketing-World-79493.html

Page 38: PDF-Download (3.95 MB)

36 Detecon Management Report blue • 1 / 2015

K.I.T.T. BITTE KOMMEN!

In den 1980er Jahren galt das autonom fahrende Fahrzeug K.I.T.T., der motorisierte Star aus „Knight Rider“, noch als Science Fiction. Heute forciert die Automobil- und Telekommunika tionsindustrie Aktivitäten, die das Fahrzeug vernetzen: mit dem Internet, mit anderen Fahrzeugen und mit der Straße. Fahrzeuge werden damit zu einer Art K.I.T.T. – einem Unterstützer in allen Lebenslangen, zumindest im Straßenverkehr.

Car-to-X-Technologien verändern die Zukunft

Page 39: PDF-Download (3.95 MB)

37 Detecon Management Report blue • 1 / 2015

C ar-to-X subsumiert alle Technologien, die mit Hilfe von Car-to-Car- und Car-to-Infrastructure-Kommunikation da-rauf abzielen, die Verkehrssicherheit und -effizienz sowie den Fahrkomfort zu steigern. Ermöglicht wird dies durch den blitz-schnellen Austausch von Informationen, beispielsweise über Fahrzeugstandort, Geschwindigkeit und Ampelstatus. Fahr-zeuge kommunizieren dabei durch Vehicular-Ad-Hoc-Net-works (VANETs) oder durch Mobilfunk – miteinander oder mit der Verkehrsinfrastruktur. Über den direkten, idealerweise in Echtzeit erfolgenden Transfer relevanter Informationen, kön-nen Fahrzeuge ihre Fahrer nicht nur automatisiert vor Staus und Stauenden, Geisterfahrern und Hindernissen warnen, sondern ihn auch in Gefahrensituationen automatisiert unterstützen.

Die Vision

Doch wohin soll die Reise gehen? Betrachtet man die Entwick-lungen sowohl bei OEMs als auch bei Zulieferern – und als solche betrachten wir auch explizit Google und Apple –, dann sind die Car-to-X-Systeme ein wichtiger, aber auch notwendi-ger Zwischenschritt auf dem Weg zum autonomen Fahren, in das der Mensch zwar eingreifen kann, aber nicht muss. Google scheint bei der Umsetzung dieser Vision schon recht weit zu sein und forscht seit 2009 am Thema „Autonomes Fahren“. Seit 2012 fahren mehrere umgerüstete Standardfahrzeuge im kali-fornischen Straßenverkehr eigenständig umher und haben auf Highways, Landstraßen und sogar im Stadtverkehr auf vorpro-grammierten Routen über eine Million Kilometer offensichtlich unfallfrei zurückgelegt. Langfristiges Ziel ist hier neben der Er-höhung der Fahrsicherheit sowie der Steigerung der Verkehrs-effizienz wohl vor allem die Erhöhung des Zeitvolumens, das der Fahrer während des Fahrens für die Nutzung von Google-Services und Werbung aufbringen kann.

Auch hier bleiben Fragen offen: Wer haftet für den Fall, dass das autonom fahrende Fahrzeug Unfälle verursacht? Hat der Fahrer die Pflicht, ständig wachsam zu sein, um bei Gefahrensituationen einzugreifen? Erste Meinungen von offizieller Seite sehen hier ganz klar den OEM in der Verantwortung. Darüber hinaus müssen sich Anbieter intelligenter Fahrzeuge die Frage stellen,

wie diese in andere Anwendungsfälle des „Internet of Things“ integriert werden können. Nahezu alle internationalen OEMs und Zulieferer arbeiten und forschen an diesen Technologien und Konzepten, stehen dabei jedoch noch vor großen Heraus-forderungen, sowohl im Bereich der technischen Umsetzung als auch in der Entwicklung von tragfähigen Geschäftsmodellen.

Technische Herausforderungen

Eine der größten Herausforderungen im technologischen Bereich liegt dabei in der Vielzahl von unterschiedlichen Stan-dardisierungen hinsichtlich der Übertragung der relevanten Informationen, von denen sich bislang noch keine durchset-zen konnte. Timo Bolse, Experte im Detecon Connected Car Solution Center, erklärt: „Die notwendigen technologischen Lösungen und Standards für VANETs, zum Beispiel IEEE 802.11p, sind vorhanden, aber ein dominantes Design, wie diese in die Fahrzeuge integriert werden, existiert noch nicht. Besonders für die direkte Fahrzeug-zu-Fahrzeug-Kommunika-tion befinden sich die OEMs in einer wartenden Position, da die Finanzierungssituation nicht abschließend geklärt ist. Ohne politischen und regulatorischen Druck wird sich kurzfristig ver-mutlich nicht viel bewegen.“ Bei einer reinen Vernetzung über Mobilfunk würden sich ebenfalls Verzögerungen in der Markt-durchdringung ergeben, so Bolse weiter. „Viele der potenziellen Anwendungsfälle für direkte Fahrzeug-zu-Fahrzeug-Kommuni-kation können theoretisch über reine Mobilfunkverbindungen abgewickelt werden. Da sich abzeichnet, dass Mobilfunkein-heiten allmählich in die Fahrzeuge integriert werden, wird hier-durch vermutlich die Verbreitung von 802.11p Hardware zur direkten Kommunikation verlangsamt.“

Eine weitere, bislang noch ungelöste Herausforderung liegt im Bereich Daten- und Übertragungssicherheit. Hier ist noch kein umfassendes Konzept von Herstellern oder Zulieferern vorge-stellt worden, das den potenziellen Kunden die Angst vor einem „gehackten“ Auto nimmt. Dass solch ein Konzept notwendig ist zeigen erste Studien. Chris Valasek deckte beispielsweise auf der „Black Hat“ Sicherheitskonferenz 2014 zahlreiche potenzielle Schwachstellen in Connected Cars auf.

Page 40: PDF-Download (3.95 MB)

38 Detecon Management Report blue • 1 / 2015

Doch nicht nur das Thema Sicherheit scheint von Brisanz. Auch der Schutz der Daten ist noch lange nicht vollständig gelöst. Was passiert mit all den Daten, die das Auto während der Fahrt sammelt? Hier bedarf es einer klaren Regelung des Gesetzge-bers, welche Daten von wem wie verarbeitet werden dürfen und wie diese zu anonymisieren sind. Dies gilt insbesondere dann, wenn der Autobesitzer dieser Datensammlung und -verarbei-tung nicht explizit zustimmt. Ansonsten könnten Szenarien der Überwachung Realität werden, die weit über das hinausgehen, was George Orwell in „1984“ entworfen hat.

Betriebswirtschaftliche Herausforderungen

Neben diesen technischen Herausforderungen existieren bei Automobilherstellern und Zulieferern auch zahlreiche Restrik-tionen, die sich aus einer betriebswirtschaftlichen Perspektive ergeben. Eine der größten Herausforderungen auf dem Weg zu leistungsfähigen Car-to-X-Systemen resultiert aus der ak-tuell noch nicht vorhandenen Marktdurchdringung. Bisher liefern nur sehr wenige Fahrzeuge und Infrastrukturbestand-teile die erforderlichen Daten, um eine flächendeckend stabile Datenlage bereitzustellen. Doch Neukunden werden erst dann von einem neuartigen System überzeugt sein, wenn die mög-licherweise aufpreispflichtigen Features in vollem Umfang zur Verfügung stehen. „Wir haben es hier mit einem klassischen Henne- Ei-Problem zu tun, sowohl in Bezug auf die Verbreitung der Technologie im Fahrzeug als auch in der Verkehrsinfrastruk-tur.“, sagt Bolse. „Besonders auf der Seite der Infrastrukturbe-treiber müsste in ausreichendem Umfang Technik verbaut wer-den, um realistische Anwendungsfälle zu ermöglichen“, so Bolse weiter.

Darüber hinaus müssen OEMs flexibel bleiben, was die andere Seite der Car-to-X-Medaille angeht: die Ausstattung der Ver-kehrsinfrastruktur mit Kommunikationstechnologie. Denn eine flächendeckende Ausstattung von Lichtsignalanlagen, Fußgängerüberwegen, Kreuzungen, Fahrbahnen und Verkehrs-leitzentralen ist teuer und aufwändig, so dass nur die Politik diese Entwicklung forcieren kann. Ob sich diese jedoch zeitnah hierzu entschließt, bleibt fraglich. Dementsprechend müssen OEMs auf der einen Seite zwar weiterhin eng mit der öffent-lichen Hand kooperieren, wie beispielsweise durch die 2012-2013 durchgeführte SimTD(Sichere intelligente Mobilität – Testfeld Deutschland)-Studie. Auf der anderen Seite müssen sie aber auch in Alternativen denken, zum Beispiel an die Erfor-schung von visuellen Systemen, die die zuverlässige und auto-matisierte Erkennung von Lichtsignalanlagen, Verkehrszeichen und Fußgängern ohne entsprechend ausgerüstete Infrastruktur garantieren.

Doch nicht nur hinsichtlich Produktentwicklung und Markteintritt gilt es, Hürden zu nehmen. Auch in Bezug auf die spätere Kundenansprache müssen OEMs Dienste schaffen, für die Endkonsumenten bereit sind zu zahlen, sei es als Besitzer von Fahrzeugen oder auch als Nutzer von Fahrzeugen in Car-Sharing-Modellen, bei denen Besitzer nicht gleich Nutzer sind und Fahrer häufig wechseln. Aktuelle Studien lassen den Schluss zu, dass Kunden gerade im Bereich sicherheitsrelevanter Syste-me besonderes preissensibel agieren. Möglicherweise müssen OEMs einen Weg finden, wie sie den Fahrkomfort ihrer Kun-den beispielsweise durch die zuverlässige Vorhersage von Staus und Verkehrsbehinderungen erhöhen können. OEMs sollten dabei auch abseits klassischer Geschäftsmodelle denken und zum Beispiel Pay-per-use-Ansätze nutzen, um Kunden auch weiterhin langfristig an die eigene Marke zu binden.

Die Automobilindustrie, allen voran die OEMs, müssen dabei unter Beweis stellen, dass sie dazu in der Lage sind, tragfähige Geschäftsmodelle zu entwickeln. Dies kann nur mit Partnern ge-lingen, die sich mit der Kommunikation verschiedener Devices auskennen und erfahren in der erfolgreichen Umsetzung trag-fähiger, digitaler Geschäftsmodelle sind. Nur durch ein intel-ligentes Kooperationsmodell werden es OEMs schaffen, mit diesen neuen und schnellen Entwicklungen Schritt zu halten.

Lösungsansätze

Experten sind sich sicher, dass in den nächsten Jahren eine Revolution in den Fahrzeugen stattfinden wird, bei der manuelle Instrumente wie das Bremspedal immer mehr durch aktive Assistenzsysteme unterstützt werden. Ein Großteil der Technik, die die Zukunft des Autofahrens ermöglichen soll, ist heute schon in vielen Fahrzeugen vorhanden. Dazu gehört ebenso die Vernetzung des Fahrzeugs als Grundvoraussetzung für das zukünftige Geschäft der Automobilhersteller. Um die Vision von autonomer PKW-Mobilität jedoch wahr werden zu lassen, müssen die OEMs hierbei nicht nur relevante Fragen aus ihrem Kerngeschäft beantworten, sondern auch die Welt der IT und Telekommunikation verinnerlichen – und verstehen.

Damit bald Fahrzeuge mittels Car-to-X-Technologie durch den Verkehrsdschungel navigieren können, reichen nicht nur aktive Sicherheitssysteme und Sensoren aus. Künftige auto-nome Fahrzeuge werden sich als Minderheit in einem existie-renden, von Menschen gesteuerten Verkehrssystem zuverlässig bewegen müssen. „Sicherheit“ bedeutet in diesem Fall nicht nur, die Fahrzeuge unfallfrei durch Stau und Berufsverkehr fahren zu lassen, sondern auch fahrer- und fahrzeugspezifische

Page 41: PDF-Download (3.95 MB)

39 Detecon Management Report blue • 1 / 2015

Tobias Kardach ist Product & Proposition Manager im M2M Competence Center der Deutschen Telekom AG. Er definiert industriespezifische M2M- Angebotskonzepte, unter anderem im Bereich der Fahrzeugtelematik.

Claus Eßmann, Senior Consultant, und Dr. Stefan Gladbach, Consultant, sind Mitglieder des Connected Car Solution Center. Sie beraten Unternehmen der Automobil- und Telekommunikationsindustrie zu Innovationsthemen. Das Detecon Connected Car Solution Center bündelt die Fachkompetenz der Detecon-Experten rund um das Thema vernetztes Fahrzeug. Berater aus verschiedenen Fachgebieten wie Innovations- und IT-Management, CRM oder Mobile Application beschäftigen sich mit allen Phasen des Produktentste-hungsprozesses.

Daten sicher zu nutzen. OEMs müssen möglicherweise einen Weg finden, die unterschiedlichen Applikationen im Fahrzeug und die Interaktion mit der Verkehrsinfrastruktur voneinander zu trennen. Denkbar wäre eine Aufteilung wie im Connected-Home-Umfeld, wo Telematik-Applikationen wie die Haus-steuerung unabhängig und gesichert vom Multimedianetzwerk betrieben werden.

Da dies nicht zur unmittelbaren Kernkompetenz der meisten OEMs zählt, werden sowohl auf Technologie- als auch auf Busi-ness-Seite Unternehmenspartnerschaften eine entscheidende Rolle einnehmen. Automobilhersteller werden sich nicht mehr ausschließlich in einer Buyer-/Supplier-Konstellation wieder-finden, sondern benötigen einen aktiven, industrieübergrei-fenden Ansatz. Neben der Implementierung der notwendigen Technik im Fahrzeug müssen sie auch die Entwicklungen im öffentlichen Sektor aktiv unterstützen.

Durch die 2020er Klimaziele der EU laufen eine Vielzahl von „Smart City“-Projekten in Europas Metropolen, die weniger Stau, mehr Lebensqualität, weniger Abgase und mehr Sicher-heit ermöglichen sollen. Damit dies gelingt, muss die gesamte städtische Infrastruktur auf diesen Zukunftstrend ausgerichtet sein, sodass Straßenlaternen, Ampeln und Parkhäuser eigen-ständig den Verkehrsfluss organisieren. Fahrzeuge könnten hier als „mobile Sensoren“ einen wesentlichen Beitrag für die Städte und Kommunen leisten, indem sie beispielsweise Daten über freie Parkplätze direkt an Verkehrsleitsysteme übertragen. Klamme Kommunen könnten so die nötigen Investitionen in die Ausrüstung ihrer Städte verringern: Anstatt hunderte von Stellplätzen mit einzelnen Sensoren auszustatten wäre ein Mo-dell denkbar, bei dem PKWs als mobile Sensoren innerhalb der Smart City fungieren. Die Interkompatibilität der Systeme in Fahrzeugen und der städtischen Infrastruktur wird einer der Schlüsselpunkte für das vernetzte Fahren der Zukunft. Unter Wahrung der Sicherheitsanforderungen wird eine Öffnung der Systeme dabei ein unerlässlicher Faktor sein, um die künftigen Mobilitätsmodelle Realität werden zu lassen.

Zu guter Letzt bleibt die Frage, welche Kundenbedürfnisse mit den Mobilitätskonzepten der Zukunft durch Car-to-X Techno-logien gedeckt werden? Menschen in aller Welt kaufen heute ihre Fahrzeuge, um dem Bedürfnis einer unabhängigen Mobi-lität nachzukommen. Diese Unabhängigkeit wird durch auto-nomes Fahren künftig eingeschränkt werden. OEMs und ihre Partnerfirmen müssen daher einen Weg finden, dem Kunden von morgen ein neues „Mobilitätserlebnis“ zu bieten. Die Viel-zahl von Varianten, Online-Dienste in das Fahrzeug zu integrie-

ren, zeigt, dass die Branche sich derzeit noch auf experimenteller Ebene den vom Kunden als wertvoll und notwendig empfun-denen Services nähert.

Studien belegen, dass Kunden den bisherigen Fokus auf Kom-fort- und Multimediafunktionen nur bedingt als werthaltig empfinden und daher eine geringe Zahlungsbereitschaft besteht. Das Erledigen von Telefonaten und E-Mails während Stau-phasen stellt heute kaum einen Schmerzpunkt für den Kunden dar, erhält aber eine andere Bedeutung, wenn der Fahrer durch autonomes Fahren keinen Unfall befürchten müsste. Ob somit das vernetzte Fahrzeug ein Treiber für das autonome Fahren sein wird oder vice versa, kann dabei nur die Zukunft zeigen.

Der Traum von K.I.T.T bleibt dennoch bestehen.

Page 42: PDF-Download (3.95 MB)

40 Detecon Management Report blue • 1 / 2015

Datentechnisch wird das Auto das Mobiltelefon noch übertrumpfen Die Verbindung von Auto und Internet garantiert, dass der vernetzte Lifestyle nicht vor der Autotür halt macht. Dr. Sven Beiker vom Center for Automotive Research spricht über seine Vision, den Traum vom automatisierten Fahren und Silicon Valley als neuen Innovations-Hotspot der Automobilindustrie.

Dr. Sven A. Beiker Geschäftsführender Direktor von CARS, Center for Automotive Research, Stanford

CARS ist eine interdisziplinäre Kooperation zwischen Wissenschaft und Industrie mit dem Ziel, die Heraus forderungen persönlicher Mobilität im 21. Jahrhundert zu adressieren. Dr. Sven A. Beiker verant-wortet hier das Beziehungsmanagement zwischen Universität und Industrie. Darüber hinaus ist er in der Lehre tätig mit Lehraufträgen an der Stanford University‘s School of Engineering, der Stanford Graduate School of Business und der Fakultät für Elektrotechnik der Technischen Universität Braunschweig. Für seine eigene Forschung führt er Studien über Konsumverhalten und elektrische Mobilität in Stanfords Precourt Energy Efficiency Center durch. Als Berater in Sachen Automobil und Mobilität ist er für die Deutsch-Amerikanische Handelskammer in San Francisco sowie als Mitglied des wissenschaft lichen Advi-sory Board für die Lecture Notes in Mobility der Springer Science+Business Media tätig.

Interview

Page 43: PDF-Download (3.95 MB)

41 Detecon Management Report blue • 1 / 2015

DMR: Herr Dr. Beiker, lassen Sie uns mit einer kurzen Einführung starten, in der Sie uns etwas über sich und Ihre Organisation CARS erzählen.

Dr. Beiker: Gern. Ich bin geschäftsführender Direktor des Center for Automotive Research an der Stanford University mit der griffigen Abkürzung CARS. Es ist ein Programm, das in Kooperation mit der Industrie entwickelt wurde, das heißt, wir bringen Industrie und Wissen-schaft zusammen, um einen Blick in die Zukunft des Automobils zu werfen. Oder etwas weiter gefasst, in die Zukunft der persönlichen Mobilität. Hier geht es im Wesentlichen um das Auto, aber auch darum, wie wir mit dem Fahrzeug interagieren, um Anwendungsfälle und Geschäfts-modelle sowie darum, wie wir uns generell fortbewegen und das Auto all unsere Bedürfnisse erfüllt. Es gibt vier Hauptthemen, an denen wir mit unseren Industriepartnern – zurzeit sind es 27 – zusammenarbeiten: Das sind zunächst unsere fahrerlosen Kraftfahrzeuge, die manch einer als autonome oder selbstfahrende Fahrzeuge bezeichnen würde, dann unsere elektrischen Fahrzeuge, das heißt vernetzte Fahrzeuge, und Themen wie Car Sharing und Ride Sharing. Wir sind davon überzeugt, dass unsere Arbeit einen ziemlichen Einfluss darauf haben wird, wie wir uns in Zukunft fortbewegen.

DMR: Was ich selbst beobachte – und Sie wahrscheinlich in einem noch viel stärkeren Maß – ist, dass die Automobilbranche in Sachen High-Tech-Entwicklungen nicht wirklich führend ist, insbe-sondere im Vergleich zu Smartphones oder gar Flugzeugen. Dazu würde ich sehr gern Ihre Meinung hören. Warum sehen wir hier nicht den Fortschritt, den andere Branchen aufweisen? Ist das ein Problem, das mit der Struktur oder mit den Geschäftsmodellen zu tun hat?

Dr. Beiker: Eine Frage, die mir in der Tat oft gestellt wird, ist: „Warum ist mein Telefon so intelligent, aber mein Auto so dumm?“ Allerdings ist das Auto eigentlich sehr intelligent oder zumindest ein hoch entwickeltes Produkt, in das man bis zu 100 Computer installieren kann. Sie steuern alles, von den Antriebssträngen, der Steuerung, den Bremsen bis hin zu Türschlös-sern und Navigation. Und all diese Systeme sind miteinander vernetzt. Das ist ein ziemlich ho-her Grad an Innovation und Ausgereiftheit, wobei das meiste davon nicht unmittelbar sichtbar ist. Und letztlich dienen all diese Systeme einem einzigen Ziel: effizient, sicher und bequem Auto fahren. Es geht immer noch darum, von A nach B zu gelangen. Doch das Auto an sich ist ein sehr emotionales Produkt und auch ein sehr teures. Für die meisten von uns ist es die zweitgrößte Ausgabe während unserer gesamten Lebenszeit. Autos werden in Serie gefertigt und die Fertigungszahlen zumeist in Millionen pro Jahr angegeben. Aus der Fertigungsperspektive ist Effizienz ein kritischer Erfolgsfaktor. Die Entwicklung eines Automobils nimmt ziemlich viel Zeit in Anspruch, so dass Hersteller in Verbindung mit dem Fertigungsprozess jedes Jahr Riesenbeträge für die Werkzeugbestückung aufwenden müssen. Ein bisschen mit dem Produkt herumzuspielen nach dem Motto „lass uns mal dieses oder jenes ausprobieren“, um dann eine Entscheidung zu treffen – das funktioniert bei Autos nicht besonders gut.

DMR: Wie werden wir uns in 2020 fortbewegen? Welcher Prozentsatz wird auf selbstfahrende Autos entfallen, welcher auf Car Sharing und andere innovative Mobilitätskonzepte?

Dr. Beiker: Wir veranschlagen die Dauer eines Modellzyklus mit zirka sieben Jahren. Wenn wir über 2020 reden, dann bewegen wir uns sogar noch unter dieser Zeitmarke. Das Voranschreiten der Technologie erfolgt offensichtlich viel schneller und in wesentlich kürzeren Iterationszyklen. Man geht jedoch davon aus, dass sich im Automobilsektor sehr viel Neues in der zweiten Hälfte

Page 44: PDF-Download (3.95 MB)

42 Detecon Management Report blue • 1 / 2015

dieses Jahrzehnts ereignen wird. Fahrer-Assistenz-Systeme und partielle Automatisierung wer-den sich durchsetzen und bis zu einem gewissen Grad etablieren. Das bedeutet, dass Autos bei sehr langsamem Verkehr so gut wie von selbst fahren. Wenn wir von sehr langsamem Verkehr sprechen, dann meinen wir Parksituationen, eine starke Verkehrsdichte oder Verkehrsstaus, also Momente, in denen das Auto die Funktion des Fahrers übernimmt. Trotzdem muss der Fahrer die Kontrolle über das haben, was gerade passiert. Er muss nach wie vor die Straße im Blick haben und auf den Verkehr achten.

Vielleicht gibt es um 2020 herum die ersten Lösungen, die den Fahrer in puncto Aufmerksam-keit völlig entlasten, aber bei unvorhergesehenen Ereignissen muss er sofort wieder übernehmen können. Das heißt, wir betreten den Bereich der Automatisierung, in dem zunehmend mehr Aufgaben, die das Führen eines Fahrzeugs betreffen, vom Fahrer auf den Computer übertragen werden. Ich würde in meiner Prognose so weit gehen, dass im Jahr 2020 die Mehrheit der neuen Fahrzeuge in der einen oder anderen Weise mit dem Internet verbunden sein wird. Egal, ob zu Unterhaltungszwecken, Media Streaming oder Internet-Radio im Auto. Auch Gestenerkennung ist ein wichtiger Aspekt und Spracherkennung funktioniert hervorragend im Auto. Da das Auto eigentlich mit viel zu vielen Knöpfen und Schaltern ausgestattet ist, ist die Gestenerkennung ganz stark in den Blick der Industrie geraten. Außerdem wird es mehr Elektrofahrzeuge geben. Meines Erachtens besteht jedoch Einigkeit darüber, dass der Antrieb für solche Fahrzeuge auch in 2020 mehrheitlich über Benzin- und Dieselmotoren erfolgen wird.

DMR: Dann wird also mehr als die Hälfte aller Fahrer immer noch so fahren wie heute?

Dr. Beiker: Ja. Lassen Sie es uns so formulieren: Wenn wir beide heute eine kleine Zeitreise in das Jahr 2020 unternehmen würden, müssten wir uns sicherlich neu orientieren, bevor wir ein Fahrzeug starten könnten. Aber danach könnten wir losfahren. Vermutlich könnten wir nicht alle kleinen Knöpfe und Schalter zuordnen, die sich irgendwo hinter dem Steuerrad befinden, um bestimmte automatisierte Fahrfunktionen einzuschalten. Dass sich in einem herkömm-lichen Fahrzeug eine Revolution bei der Automatisierung oder dem autonomen Fahren voll-zieht, ist nicht sehr wahrscheinlich. Es wäre jedoch möglich und denkbar, dass wir Situationen erleben, in denen das Fahren innerhalb der Stadt eventuell verboten ist. Eventuell dürfen wir dann nicht mehr in großen Städten Auto fahren, sondern nur bis zu einem am Stadtrand gele-genen Park+Ride-Parkplatz, wo wir in ein kleines automatisiertes Shuttle-Fahrzeug umsteigen. Der Shuttle sieht allerdings nicht aus wie ein Bus, so wie wir ihn heute kennen. Es kann ein Fahrzeug sein, das nicht mehr als vier bis sechs Passagiere befördern kann, das auf Anforderung exakt zu unserem Aufenthaltsort – in diesem Fall zum Parkplatz – kommt und uns zu sechs Bushaltestellen bringt, die auf diesem Parkplatz strategisch angelegt sind. Das Fahrzeug kommt also zu uns, sammelt uns ein, bringt uns in die Innenstadt und verschwindet wieder, um neue Kunden zu befördern. Der Grad der Automatisierung nimmt zu und es wird irgendwann auch völlig selbstfahrende Fahrzeuge geben. Ich glaube allerdings, dass der Einsatz dieser Fahrzeuge sehr beschränkt sein wird. Diese Entwicklung wird sich eher an der Schnittstelle zwischen per-sönlicher Mobilität und öffentlichen Verkehrsmitteln vollziehen und die privaten PKWs auf der Autobahn eher vernachlässigen.

Page 45: PDF-Download (3.95 MB)

43 Detecon Management Report blue • 1 / 2015

DMR: Wo sehen Sie heute im Bereich des Internet der Dinge die interessantesten Aktivitäten?

Dr. Beiker: Das Auto ist ja bereits heute mit sehr vielen Computern ausgestattet, innerhalb des Autos ist alles miteinander vernetzt. Wir haben erwähnt, dass Fahrzeuge bis 2020 fast alle mit dem Internet verbunden sein werden. Darüber hinaus werden sie wahrscheinlich mit 20 bis über 100 Sensoren ausgestattet sein, die sowohl die Umgebung als auch den Zustand des Fahrzeugs selbst erkunden. Wenn Sie dies alles zusammen nehmen, erhalten Sie aus den Fahrzeugen eine Unmenge von Daten. Sie können Autos auch als Datensonden nutzen – sie sind „allwissend“: Sie erhalten eine sehr detaillierte Karte über die Temperatur und die Luftdruckverteilung in der Stadt, Informationen über die atmosphärische Zusammensetzung der Atemluft, natürlich Informationen über die Verkehrsdichte, und falls Sie Navigationsdaten nutzen, wird Ihnen außerdem noch mitgeteilt, wo sich diese Fahrzeuge in den nächsten fünf, zehn, fünfzehn oder dreißig Minuten befinden werden. Meine These lautet: Autos generieren in Zukunft wesentlich mehr Daten als Mobiltelefone! Schauen Sie sich zum Beispiel das Verhalten der Leute in einem Restaurant an: Nehmen wir an, ein Paar sitzt in einem Restaurant und einer verlässt kurz den Tisch. Ich garantiere Ihnen, dass die andere Person, die am Tisch zurückbleibt, innerhalb von dreißig Sekunden zum Telefon greift. Dasselbe wird auch im Auto passieren. Wenn Sie den Leuten sagen, dass sie das Fahrzeug nicht mehr führen müssen, dann werden sie die gewonnene Zeit sofort für andere Dinge nutzen. Daher ist es absolut wichtig, dass das Auto für den ver-netzten Lebensstil über eine exzellente Datenverbindung verfügt.

DMR: In Sachen Innovation nehmen Deutschland und Japan eine führende Rolle in der Automobilindustrie ein. Zurzeit bringen aber auch die USA sehr interessante Innovationen hervor, größtenteils Anwendungen für vernetzte, elektrische oder selbstfahrende Autos. Wo werden sich Ihrer Meinung nach in den nächsten Jahren die interessantesten Innovations-Hotspots befinden?

Dr. Beiker: Solche Vorhersagen für die Zukunft zu treffen, ist generell eine heikle Angelegen-heit. Was die führenden Standorte für Automobilentwicklung betrifft, so ist das Silicon Valley dank Tesla hier mittlerweile präsent. Das bedeutet einerseits, dass sich Innovation auf globaler Ebene vollzieht, andererseits aber auch, dass sich jede Art von Innovation auf das Auto an-wenden lässt. Beim Auto geht es längst nicht mehr nur um das Fahren, sondern darum, dass man im Auto denselben Lebensstil wie außerhalb des Autos verfolgen kann. Daher ist so gut wie alles auf das Auto anwendbar. Das neue Modell von Mercedes ist zum Beispiel mit einem Duft-Steuerungssystem ausgestattet – man kann im Auto zwischen bestimmten Düften und Steuerungssystemen auswählen, und je nach Fahrsituation, Klimaanlageneinstellung oder Laune hat man dann den passenden Duft im Auto. Wer hätte gedacht, dass so etwas jemals Eingang in die Welt des Autos finden würde, in der man Gerüche eher mit Benzin, Gummi oder Metall assoziiert? Nach meiner Auffassung hat sich die Automobilindustrie nicht nur im Hinblick auf den weltweiten Absatz, der in den letzten zwanzig bis dreißig Jahren stattgefunden hat, global entwickelt, sondern ist zu einer Branche geworden, die Innovation global vorantreibt. Daher blickt auch jeder auf das Silicon Valley. Es ist sicherlich nicht zu einem neuen Detroit geworden, aber diese Branche kooperiert eng mit Detroit. Übrigens auch mit Stuttgart, Wolfsburg, Paris, Yokohama und Tokio. Und wenn es in der Zukunft ein neues Innovationszentrum gibt, wäre ich nicht erstaunt, wenn Automobilhersteller dort eine kleine Außenstelle errichten würden, um direkt zu sehen, was dort passiert.

DMR: Herzlichen Dank für all die neuen Erkenntnisse!

Page 46: PDF-Download (3.95 MB)

44 Detecon Management Report blue • 1 / 2015

Die Nutzung von Big Data Insights ist heute bereits wesentlich leichter und erschwinglicher. Sie erfordert jedoch nach wie vor eine angemessene Governa nce sowie eine klare Strategie, um die vorhandenen Technologien effektiv zu etablieren und zu nutzen und wertvolle Insights für die Geschäftsbereiche verfügbar zu machen.

atengesteuerte Business Insights innerhalb eines Unter-nehmens bilden keine Nische mehr. Sie sind ein notwendiger Bestandteil geworden, da sie sich branchenweit zu einem ech-ten Wettbewerbsvorteil entwickelt haben. Insbesondere das Internet der Dinge wird das Datenwachstum in Unternehmen wesentlich vorantreiben. Künftig wird man fast alles messen und in Zahlen und Kontexten ausdrücken können. Firmen sollten diese Daten nutzen – und sich in datengesteuerte Unternehmen verwandeln!

Herkömmlicher Enterprise-Data-Warehouse-Ansatz istnicht mehr ausreichend

Agile Start-ups wie Uber, Zalando, 23andMe und Netflix sind bereits extensive Nutzer modernster Big-Data- und Analytics-Technologien und führend in datengesteuerten Unternehmens-entscheidungen, die den zentralen Treiber ihres Erfolgs bilden. Zur Aufrechterhaltung der Wettbewerbsfähigkeit müssen Un-

D ternehmen das volle Potenzial aller Daten erschließen, die dem Unternehmen zur Verfügung stehen. Das heißt, sie müssen die Daten in einen Kontext einbetten, Erkenntnisse ableiten und sinnvolle und durchdachte datengesteuerte Entscheidungen treffen. Wenn es darum geht, wie verfügbare Daten inner-halb eines Unternehmens genutzt werden, unterscheidet sich der Ansatz eines vollständig datengesteuerten Unternehmens grundlegend von einem klassischen Ansatz. Datenvielfalt, Datengeschwindigkeit und Datenvolumen erfordern neue und erweiterte IT-Architekturen und -Technologien, um Streaming-Daten, Datenvolumen im Petabyte-Bereich und diverse un-strukturierte Daten managen zu können. Klassische Technolo-gien und Paradigmen wie Enterprise Data Warehouse (EDW) genügen diesen Anforderungen nicht länger. Insbesondere für größere Unternehmen wird sich der Prozess, der mit dem Wan-del zu einem datengesteuerten Unternehmen einhergeht, als langwierig und schwierig erweisen. Dennoch ist die Einleitung dieses Wandels zwingend erforderlich.

Business Insights

Big-Data-Technologien machen das Notwendige möglich

Page 47: PDF-Download (3.95 MB)

Seit Jahrzehnten errichten Unternehmen Reporting-Architek-turen auf klassische Weise, und zwar unter Verwendung von zwei Arten von Datenquellen: Betriebsdaten aus Systemen wie Enterprise Resource Planning (ERP) und Customer Relationship Management (CRM) sowie aus dem zentralen Enterprise Data Warehouse (EDW). Sämtliche Daten sind in herkömmlichen relationalen Datenbanken strukturiert, Analy-tics sind primär als vordefiniertes Reporting konfiguriert. Ad-hoc-Analysen können nur mit den vom Data Warehouse – oder Data Marts und Analytics Cubes – gelieferten Daten durchge-führt werden. Weiterhin ist die Durchführung von Advanced Analytics mit den zur Verfügung stehenden Datenstrukturen und Softwareprogrammen kaum möglich. Unternehmen nut-zen spezielle Infrastrukturkomponenten, die im Hinblick auf künftige Bedürfnisse kaum skalierbar sind. Die Kosten für diese Art Infrastruktur sind hoch, denn aufgrund teurer Lizenzen und spezieller Infrastrukturkomponenten werden die Kosten für die Errichtung eines Enterprise Data Warehouse gewöhnlich mit mindestens einer Million US-Dollar veranschlagt. Tatsächlich wird dabei nur ein Bruchteil der erzeugten Unternehmensdaten für das Treffen durchdachter Entscheidungen genutzt. Und dennoch hat sich die klassische Data-Warehouse-Architektur nicht überlebt – sie muss mit weiterentwickelten Technologien ergänzt werden, um die Anforderungen der Zukunft erfüllen zu können.

Big-Data-Architektur erhöht Gesamtkomplexität

Unter dem Dach von Big Data haben sich in den vergangenen zehn Jahren mehrere neue Technologien herausgebildet. Diese Technologien ermöglichen Unternehmen eine verteilte Daten-haltung und Datenanalyse sowie die Identifizierung von Mu-stern, Trends und sonstigen Insights.

Zusätzlich zu herkömmlichen vordefinierten Reports und Ad-hoc-Analytics, Statistical und Predictive Analytics wurden maschinelles Lernen, Graph Analytics und operative Intelligenz möglich. Dies wiederum erlaubte den Unternehmen nicht nur die Durchführung von historischen Analysen und rückwärts-gerichtetem Reporting, sondern auch den Blick nach vorn und damit die Vorhersage von Business Insights – eine aktive Unter-stützung für künftige Entscheidungen!

Die Big-Data-Technologien lassen sich in die sechs unter-schiedlichen Schwerpunktbereiche Datenspeicherung, Daten-integration, Analytical Processing, Visualisierung und Daten- Governance gruppieren, in denen spezielle Technologien genutzt werden (siehe Abbildung). Die neue Big-Data-Architektur ergänzt die traditionellen Sys-teme, erhöht aber gleichzeitig die Gesamtkomplexität. Es sind

Abbildung: Vereinfachter Big Data Stack

Quelle: Detecon

Datenintegration Datensicherheit und

Daten-Governace

Visualisierung

Analytical Processing

Datenzugriff

Datenspeicherung

VideoAudio

Prädiktiv

Batch-Verarbeitung

HadoopHDFS

Web

ErweiterteVisualisierung

MaschinellesLernen

Suchen undFinden

In-MemoryDatenbanken

Geo-räumlich

Dashboard

DataMining

Streaming undVerarbeitung

NoSQLDatenbanken

Textsemantik

Identitäts-management

Daten-konnektivität

Mandanten-fähigkeit

(Multitenancy)

Echtzeit-Intelligenz

Reporting

Anfrage

AnalytischeDatenbanken

Transaktions-datenbanken

Daten-verschlüsselung

DataIngestion

Governance

45 Detecon Management Report blue • 1 / 2015

Page 48: PDF-Download (3.95 MB)

46 Detecon Management Report blue • 1 / 2015

diverse spezielle Systeme erforderlich, um die unterschiedlichen Anforderungen und Methoden handhaben zu können. Insbe-sondere für das Internet der Dinge, M2M und Sensordaten ist die Anwendung von In-Memory- und Streaming-Datenbanken unverzichtbar, da die für die Daten erforderliche Echtzeitver-arbeitung und Analyse mittels herkömmlicher Systeme nicht geleistet werden kann.

Hadoop wird als zentrale Technologie für Big Data oft falsch verstanden

Hadoop hat einen regelrechten Hype erfahren. Das bedeutet je-doch nicht, dass Hadoop wirklich von jedem Unternehmen ver-standen wird. Bei Hadoop handelt es sich nicht um eine einzige Technologie, sondern um ein ganzes Framework, das aus vielen unterschiedlichen Technologien fast den gesamten Big Data Stack zusammenfasst. Die Hadoop-Technologien sind Open Source Software unter der Apache-Lizenz und wurden in ihrem Kern zuerst als Teil eines von Yahoo gestarteten Forschungspro-jekts entwickelt. Die wichtigsten Bestandteile von Hadoop sind Hadoop Common (Shared Library), Hadoop HDFS (verteilte Datenhaltung), Hadoop MapReduce (Datenverarbeitung), Pig (Datenmanipulation), Hive (Data Warehouse) und HBa-se (Bigtable NoSQL-Datenbank). Das Hadoop Distributed File System (HDFS) löste eines der Hauptprobleme traditio-neller relationaler Enterprise Data Warehouses: Es kann un-strukturierte Daten aus unterschiedlichsten Quellen speichern und die Gesamtheit der gespeicherten Daten über verteilte Standardsysteme – zum Beispiel x86-Architekturen – auf Tau-senden von kostengünstigen Servern verteilen. Die Nutzung von HDFS ermöglicht eine kostengünstige Speicherung von Datenvolumen im Terabyte-Bereich und ist in der Regel etwa 20 Mal preiswerter als spezialisierte BI-Systeme. Darüber hinaus ist HDFS hoch skalierbar, sodass neue Server der verteilten Infrastruktur einfach hinzugefügt werden können und histo-rische Daten nicht mehr ausgelagert werden müssen, wie es bei EDW-Systemen häufig der Fall ist. Die Hadoop-Komponente MapReduce wird zur Koordinierung und Programmierung von Batch-Verarbeitungsjobs verwendet, um Daten zu laden, zu ver-arbeiten und zu analysieren. MapReduce basiert nicht auf der Datenbanksprache SQL (Structured Query Language), sondern nutzt im Vergleich zu der weit verbreiteten SQL ein komple-xeres Programmiermodell und Paradigma. Um die Datenab-fragen und Datenverarbeitung zu erleichtern, versuchen viele Anbieter, zusätzliche SQL-Layer auf MapReduce aufzusetzen. Für Unternehmen, die gewaltige Datenvolumen, Datenvielfalt

und Datengeschwindigkeit handhaben müssen, kann Hadoop als zugrunde liegender Enabler für Big Data Insights betrach-tet werden. Hadoop ist jedoch keine Lösung für alle Big-Data-Herausforderungen, und Unternehmen, insbesondere, wenn es sich um kleine Unternehmen handelt, sollten sorgfältig prüfen, ob ihnen nicht gegebenenfalls bestehende traditionelle An-sätze dabei helfen können, ihren Bedarf an Daten-Insights zu befriedigen. Kommerzielle Hadoop-Anbieter haben bis Mitte 2014 eine Risikokapitalfinanzierung in Höhe von mehr als an-derthalb Milliarden US-Dollar erhalten, wodurch das enorme Wachstum der Hadoop-basierten Technologielösungen geför-dert wurde. Innerhalb des Hadoop-Marktes haben sich dabei vier große Anbieter als deutliche Marktführer positioniert: Hortonworks, MapR Technologies, Cloudera und IBM. Die-se Unternehmen haben es geschafft, das Open Source Frame-work mit zusätzlichen Services und klaren Geschäftsmodellen anzureichern. Sie bieten zum Beispiel professionelle Services für Implementierungs-Support, Enterprise-Grade-Support und Release-Zyklen sowie weitere (Analytics) Funktionen.

Analytics-Lösungen und industriespezifische Anwendungen

Hadoop und NoSQL-Datenbanken fördern die unternehmens-weite Nutzung unterschiedlicher Datenquellen und ermög-lichen daher eine einzige Schnittstelle für Business Analytics für vielfach strukturierte Daten. In erster Linie geht es hier jedoch nicht um die Technologie, sondern um den geschäftlichen Nut-zen und die Nutzung der Insights für Entscheidungsprozesse in Unternehmen. Relevante Analytics und deren Anwendung innerhalb der Geschäftsbereiche sind ausschlaggebend, nicht die technologischen Lösungen. Vorausschauende Analytics-Modelle werden von vielen Branchenteilnehmern genutzt, um Angebot und Nachfrage angemessen abschätzen zu können. Branchen wie Telekommunikation, Finanzdienstleistungen und Einzelhandel agieren bei der Nutzung der Daten stärker vorausschauend. Visualisierung ist für Unternehmen wichtig, die regelmäßig massive Datenvolumen erzeugen. Moderne Visualisierungstools sind zur Identifizierung von Mustern un-verzichtbar und bewirken stärker durchdachte Entscheidungen. Insbesondere im Bereich der Visualisierung haben diverse in-novative Unternehmen in den letzten Jahren neue Lösungen auf den Markt gebracht. Tableau und Quid sind Beispiele für die erfolgreiche Positionierung neuer Visualisierungslösungen, um Muster und Verbindungen zu identifizieren, Insights zu veranschaulichen oder ganze Marktlandschaften abzubilden. Die Verbesserung der Rechenleistung für Analytics und die Ge-

Page 49: PDF-Download (3.95 MB)

47 Detecon Management Report blue • 1 / 2015

schwindigkeit von Datenströmen führen dazu, dass die Bedeu-tung von Echtzeit-Analytics zunimmt. Unternehmen wollen bei neuen Ereignissen mit der Analyse auf dem Laufenden bleiben, um so die Durchführung ihrer Geschäftsprozesse optimieren zu können. SAP investiert seit einiger Zeit mit großem Aufwand in seine HANA-Lösungen für In-Memory-Datenverarbeitung mit der Zielsetzung, hiermit zentrale Enabler für Data Analytics in Echtzeit zu ermöglichen. Die steigende Komplexität der IT-Landschaft erzeugt eine Menge an Log- und Maschinendaten, die es zu analysieren gilt. Unternehmen wie Splunk oder Sumo Logic haben sich diesen Bereich mit operativen Data Analytics erschlossen, die Insights über Ausfälle und IT-Probleme liefern und diese zeitweise sogar automatisch lösen können. Neuere Be-reiche wie Text Analytics und Web & Social Analytics gewinnen ebenfalls an Bedeutung, da Unternehmen ihre Onlinepräsenz erweitern und Soziale Medien zunehmend an Akzeptanz gewin-nen.

Generische Analytics-Produkte ohne spezifische Branchen-ausrichtung sind der von Big-Data-Analytics-Anbietern am häufigsten genutzte Ansatz. Sie liefern den Unternehmen die passenden Tools, um Analytics-Lösungen an ihre Anforderun-gen anzupassen und somit ihre speziellen organisatorischen oder branchenspezifischen Herausforderungen meistern zu können. Für manche Industrien, zum Beispiel die Finanz-industrie, haben Anbieter aufgrund sich wiederholender Pro-bleme spezielle Lösungen entwickelt, um etwa Credit Scores innerhalb einer Sekunde zu analysieren oder Betrugsmuster zu identifizieren und Risiken zu vermeiden. Der Schwerpunkt der Lösungen für Retailer und E-Commerce liegt auf prädiktiver und operativer Analytics, um Kundenverhalten vorhersagen zu können, sowie auf der Analyse operativer Daten, um effektiver agieren zu können.

Telekommunikationsunternehmen stehen ebenfalls im Mittel-punkt, wenn es um die industriespezifische Nutzung geht. Prä-diktive und operative Analytics werden insbesondere eingesetzt, um Kundenabwanderungen vorherzusagen, Zeitreihendaten und gewaltige Kundendatenmengen wie CDRs zu analysieren, operative Effizienz und Marketing-Insights zu erzielen oder gar Mobilfunkinfrastruktur auf Basis von Nutzerdaten oder durch-schnittlicher Bandbreite zu planen. Weiterhin sind die visuelle Datenentdeckung (Data Discovery) und Mustererkennung für das Gesundheitswesen von großer Bedeutung. Stärker als andere Branchen setzt die Hightech- und Media-Branche ebenfalls auf Web und Social Analytics.

Neue Delivery-Modelle bilden sich im Big-Data-Ecosystem heraus

Um mit spezialisierten und innovativen Start-ups Schritt halten zu können, nehmen etablierte Hersteller wie Microsoft, IBM und Oracle Anpassungen an ihren Produktangeboten und -stra-tegien vor. Diese setzen verstärkt auf M&A-Maßnahmen, um ihre Portfolios entsprechend der neu generierten Nachfrage zu ergänzen. Flexible Lizenzmodelle und Open-Source-Produkte wirken sich dabei ebenfalls auf die Einkaufsmuster von Unter-nehmen aus. Stark beeinflusst wird dies durch die zunehmende Nutzung der SaaS-Delivery-Modelle für Big-Data-Lösungen. Um einfache und schnelle Lösungen liefern zu können, offe-rieren viele Anbieter Out-of-the-Box-Lösungen ihrer Produkte, die Hosting, Datenverarbeitung und auch die Software selbst beinhalten können. Dieser Ansatz ist nicht ganz problemlos, kann Unternehmen jedoch dabei helfen, Analytics-Lösungen kostengünstiger, schneller und flexibler einzusetzen. Self-Ser-vice-Analytics-Lösungen für nicht technische Nutzer sind dabei ein zentraler Enabler für geschäftliche Nutzer, um Daten-In-sights entsprechend ihren eigenen Bedürfnissen zu entdecken, zu analysieren und zu visualisieren. Hierbei sind insbesondere Advanced-Analytics-Lösungen sind von schwerfälligen, kom-plexen und umständlich zu nutzenden Tools hin zu Use-Case-basierten und intuitiven „Dashboards“ gereift.

Die Nutzung von Big-Data-Insights stellt nach wie vor eine technologische und organisatorische Herausforderung dar

Analytics-Lösungen und die zugrunde liegenden Technologien haben sich weiterentwickelt und sind während der vergangenen Jahre extrem gereift. Die effektive Nutzung von Big Data ist aber immer noch keine einfache Standard-Aufgabe. Anwendungs-fälle und Business-Anforderungen müssen von den Unterneh-mensbereichen nach dem Top-down-Prinzip definiert werden. Bis heute erfordern die zugrunde liegenden Datenbanktechno-logien ein hohes Maß an Anpassung und Implementierungs-aufwand, damit diese Lösungen angemessen in die bestehenden IT-Architekturen integriert werden können.

Lars Bodenheimer ist Senior Consultant und Experte für Strategie, Planung und Rollout neuer ICT-Produkte und Technologien sowie für eine Viel-zahl von Themen im Bereich ICT-Migration. Er arbeitet mit Festnetz- und Mobilfunkbetreibern in Nord- und Südamerika und anderen Regionen weltweit.

Kolja Schluetter arbeitet als Consultant bei Detecon Inc., USA, und unterstützt Klienten weltweit dabei, neue Technologien einzuführen und die Transformation in die digitale Geschäftswelt zu meistern.

Page 50: PDF-Download (3.95 MB)

48 Detecon Management Report blue • 1 / 2015

Big Data bedingt eine ganzheitliche und grundlegende Transformation des Unternehmens. Solange Unternehmen hierin nur eine weitere Technologieimplementierung sehen, können sie das Potenzial nicht ausschöpfen.

Warum Prozesse und Kultur von zentraler Bedeutung sind

Implementierung von Big Data

Page 51: PDF-Download (3.95 MB)

49 Detecon Management Report blue • 1 / 2015

Das starke Interesse von Unternehmen an Big Data und dessen zahlreichen Ap-plikationen ist mehr als gerechtfertigt: Vom Internet der Dinge bis hin zu Marke-ting Analytics verändert Big Data die Geschäftswelt. Die Implementierung von Big Data wird allerdings in vielen Unternehmen nur wie „noch eine weitere“ Techno-logieimplementierung behandelt. Diese Sichtweise ist nicht nur falsch, sondern vor allem ineffektiv.

Wer die Leistung von Big Data wirklich nutzen will, muss die internen Prozesse und operativen Ziele eines Unternehmens völlig neu gestalten. Wir sehen hierfür vier Gründe:

Alte Hierarchien sind ein Hindernis: Die Bezeichnung Big Data er-folgte aus gutem Grund. Damit Big Data sich für ein Unternehmen als effizient er-weist, müssen so viele Daten wie möglich aggregiert werden. Das bedeutet jedoch, dass Daten nicht separat gemäß den alten Linienfunktionen oder Hierarchien ge-speichert werden können. Individuelle Linienfunktionen oder Abteilungen, die ihre Daten in separaten Data Warehouses speichern, verfehlen den Zweck für Big Data.

Data Pockets stehen im Gegensatz zu Big Data: Technische Einschränkungen und die Nachteile der Linienfunktion – mangelndes „linien-übergreifendes“ Denken und Wissen auf der Fachseite sowie Machtinteressen – führen dazu, dass Daten heute oft nur eingeschränkt verfügbar sind. Damit Big Data effektiv ist, müssen die Daten jedoch für alle zugänglich sein. Big Data ist mit Linienfunktionen unvereinbar.

Verfügbarkeit der Rohdaten für alle: Die Rohdaten müssen allen Abteilungen und Mitarbeitern innerhalb eines Unternehmens zur Verfügung stehen und nicht über eine Abteilung oder Mitarbeitergruppe gefiltert werden. Zusätzliche Einblicke und Erkenntnisse, die nicht planbar oder vorhersehbar sind, können erst dann generiert werden, wenn verschiedene Personen und Abteilungen die Analysen aus unterschiedlichen Perspektiven durchführen.

Management der Analyse statt Management der Daten: Eines der größten Probleme bei Big Data ist nicht das Management der Daten, sondern das Management der Analyse. Das Problem „Paralyse durch Analyse“ wird sich in großen Unternehmen mit der Implementierung von Big Data noch potenzieren. Da viele Personen und Abteilungen Analysen durchführen, besteht für die Unternehmen das Risiko, eine Überfülle an Analysen zu erhalten und daher wichtige Entscheidungen nicht rechtzeitig zu treffen.

In welcher Weise müssen Unternehmen sich also neu aufstellen, um die Leistung von Big Data effektiv nutzen zu können?

Page 52: PDF-Download (3.95 MB)

50 Detecon Management Report blue • 1 / 2015

Eine effektive Big-Data-Implementierung beinhaltet Folgendes:

Neugestaltung der Unternehmenshierarchie: Falls Globalisie-rung und Soziale Medien es noch nicht geschafft haben, die alten Funktionssilos in den Unternehmen aufzubrechen, wird Big Data den Anstoß zum Handeln geben! Damit Big Data gut funktionieren und effektive Analysen auf der Basis von aggre-gierten Daten liefern kann, ist es erforderlich, die Datenströme neu zu definieren. In den meisten Unternehmen verläuft der Datenstrom „bottom-up“, da der Groß-teil der Daten sich aus den täglichen Interaktionen zwischen Unternehmen und Kunden generiert. Die Verwaltung dieser Daten ist entscheidend für den Erfolg von Big Data. In der Vergangenheit war das Management dieser massiven Datenvolu-men durch die Linienfunktionen eine wahre Herkules-Aufgabe. Wir sehen jedoch zwei Trends, die das Aufweichen dieser alten starren Struktur bewirken: Erstens geht mit dem Eintritt der Generation Y ins Arbeitsleben ein Wertewandel einher. Zweitens stehen heute leistungsstarke und kostengünstige Technologien für die Speicherung, Verarbeitung und Analyse unendlich vieler Daten zur Verfügung, die atemberaubend sind im Vergleich zu den Möglichkeiten der letzten drei Jahrzehnte. Geschwindigkeit und Datenvolumen der Analysen haben sich vervielfacht.

Zentrale Datenerfassung und -speicherung: Big Data ist nur dann effektiv, wenn alle Daten zentral aggregiert werden. In diesem Kontext sollte darauf hingewiesen werden, dass zentralisiertes Erfassen und Speichern nicht iden-tisch ist mit zentraler Kontrolle. Das zentrale Erfassen und Speichern ist absolut wichtig, damit gewährleistet werden kann, dass alle Daten für eine sorgfältige Ana-lyse und Interpretation der relevanten Fragen, die es zu beantworten gilt, verfügbar sind.

Verhindern, dass das Erfassen und Speichern von Daten in der Unternehmenshierarchie „verloren geht“: Eine der ein-schneidendsten Änderungen, die Unternehmen bei der Implementierung von Big Data kontinuierlich überwachen müssen, ist, dass die Daten nicht innerhalb der einzelnen Linienfunktionen oder Hierarchien „versteckt werden“ oder „verloren gehen“.

Bereitstellung der erforderlichen Tools, Schulungen und Support: Big Data ermöglicht es, die Daten innerhalb der gesamten Unter-nehmensstruktur „freizusetzen“. Diese Datenfreiheit ist jedoch mit einer großen Verantwortung in Bezug auf Analysen verknüpft. Eine freie Verfügbarkeit der Da-ten ohne die erforderlichen Schulungen, Tools und Support ist die Anleitung für eine perfekte Unternehmenskatastrophe. Ein konsequentes Schulungsprogramm ist unverzichtbar.

Dedizierter Support in Bezug auf Unternehmensressourcen: Eine effektive Big-Data-Implementierung erfordert ein mit Ressourcen ausgestat-

Page 53: PDF-Download (3.95 MB)

51 Detecon Management Report blue • 1 / 2015

tetes Team, dessen Aufgabe nicht nur in der schnellen Durchsetzung der kulturellen Veränderungen und Überprüfung der Prozesse besteht, sondern das zur effektiven Implementierung von Big Data angemessene Schulungen durch- und Regeln in-nerhalb des Unternehmens einführt.

Kultureller Wandel: Mit der Neukonzeption der Datenströme und der Verfügbarkeit von Datenanalysen müssen im Unternehmen neue kulturelle Normen gesetzt werden, um effektive Entscheidungsprozesse zu ermöglichen und der „Paralyse durch Analyse“ vorzubeugen. Die Verankerung einer entsprechenden Kultur ist von zentraler Bedeutung in einem Umfeld, in dem Daten ausgetauscht werden und für jeden verfügbar sind, insbesondere auch zur Vermeidung von Silobildung. Ebenso wichtig ist die Offenheit in Bezug auf Daten-Sharing und Analyse.

Bereinigte Daten ja, „politisch“ bereinigte Daten nein: Mit konsequent bereinigten Daten kann sichergestellt werden, dass die Analysen präzise sind und relevante Erkenntnisse liefern. Bereinigte Daten dürfen jedoch nicht als Daten interpretiert werden, die so bearbeitet wurden, dass einzelne Personen oder Abteilungen „gut aussehen“. Außer in Bezug auf die Konsistenz dürfen an den Daten keine Änderungen vorgenommen werden.

C-Level-Support: Das größte Hindernis bei der effektiven Implementie-rung von Big Data ist die Gewährleistung eines durchgehenden und dedizierten C-Level-Supports. Ohne C-Level-Support wird jeder Versuch einer effektiven Big-Data-Implementierung zum Scheitern verurteilt sein.

Da Big Data für den Ausbau von Wettbewerbsvorteilen unverzichtbar sein wird, müssen Unternehmen schnell handeln und adäquate Implementierungspläne er-stellen. Die hohe Relevanz, die Technologiepläne haben, muss auch den Verände-rungen in Kultur, Prozessen und HR beigemessen werden. Unternehmen sollten Big Data auf keinen Fall bloß als ein weiteres Technologieprojekt betrachten, das einfach nur implementiert werden muss. Vielmehr geht es bei Big Data um eine ganzheitliche und grundlegende Transformation des Unternehmens, die kurz- wie auch langfristig mit großer Sorgfalt angegangen werden muss. Nur wenn diese Prämisse eingehalten wird, können Unternehmen daraus ihren Nutzen ziehen.

Eric Quon-Lee ist als Management Consultant bei Detecon Inc., USA, tätig. Er ist Spezialist für Themen in den Bereichen Finanzen, Humankapital und Projektmanagement.

Thomas Peters, Senior Consultant, nutzt seine Erfahrungen aus der Telekommunikationsindustrie und erbringt Beratungsleistungen für Kunden in Sachen ICT-Systeme und -Infrastruktur in service-orientierten Umgebungen. Darüber hinaus erstellt er Geschäfts- und Marktanalysen und ist speziali-siert auf die Entwicklung und Ausrichtung von Geschäfts- und Technologiestrategien.

Page 54: PDF-Download (3.95 MB)

52 Detecon Management Report blue • 1 / 2015

Für Telekommunikationsunternehmen liegen die Chancen von Big Data in Einsparungen, die sie durch interne Effizienz steigerungen ihres Netzes und ihrer Abläufe erzielen. Sie sollten die zentralen Anwendungsfälle für Big Data identifizieren, die für ihre Organisation nutzbringend sind, und Pilotprojekte starten, um den potenziellen Nutzen eines datengesteuerten Betreibers zu testen.

Die Sweet Spots treffen – kurzfristige Chancen intern realisieren

Big Data für Telekommunikationsunternehmen

enn das Wachstum stagniert und die Gewinne sinken, halten Telekommunikationsbetreiber in entwickelten Märk-ten Ausschau nach neuen Potenzialen. Über Konnektivitäts-lösungen hinaus streben Telekommunikationsunternehmen nach Möglichkeiten, IoT-Plattformen und -Analytics, also die Big-Data-Komponente des Internet der Dinge, anzubieten. Die zentrale Frage lautet: Wird „Big Data“ zum „Big Thing“, das den nächsten Wachstumsschub auslöst?

Studie zeigt Potenziale und Grenzen auf

Um diese Frage für einen integrierten Tier-1-Betreiber (Festnetz und Mobilfunk) beantworten zu können, haben wir eine um-fangreiche Studie durchgeführt. Ziel war es, den tatsächlichen Wert von Big Data für die Unternehmen zu quantifizieren. Die Ergebnisse waren überzeugend: Die Möglichkeiten, die Big Data eröffnet, sind enorm. In unserem Fall könnte die poten-zielle Gesamtauswirkung einer bis an die Grenzen genutzten Big-Data-Strategie für diesen Betreiber mehr als fünf Milliarden

W US-Dollar Umsatz sowie Kostenersparnis während der nächsten fünf Jahre innerhalb eines einzigen Marktes generieren. Blickt man auf die Treiber dieser Möglichkeiten, ergeben sich zusätz-liche Erkenntnisse für die Entwicklung einer Big-Data-Strategie von Telekommunikationsbetreibern: Für integrierte Betreiber mit unternehmenszentrierten ICT-Portfolios eröffnet sich die Möglichkeit, Big-Data-Lösungen als Service zu entwickeln. Sie nutzen hierzu bestehende Ressourcen, um Hosting, pro-fessionelle Dienste sowie Big-Data-zentrische Innovationen, zum Beispiel Sicherheit und M2M, zur Erweiterung ihres Port-folios anzubieten. Unsere Quantifizierung zeigt jedoch auf, dass mehr als 60 Prozent aller Möglichkeiten in Bezug auf Big Data für die Betreiber realisiert werden können, wenn Big Data als eine potenzielle Effizienzquelle innerhalb des Unternehmens genutzt wird. Big-Data-Technologien können bei der Neu-definition und Verbesserung bestehender interner Abläufe un-terstützend wirken – von der Optimierung der Netzplanung über die Aktualisierung der Speicherinfrastruktur bis hin zur Reduzierung von Betrug.

Page 55: PDF-Download (3.95 MB)

53 Detecon Management Report blue • 1 / 2015

Unsere Studienergebnisse zeigen aber auch, dass das Potenzial für Big Data als Enabler neuer Geschäftsmodelle für Telekom-munikationsunternehmen nur ein Hype ist. Zwar ist es richtig, dass Daten eine wirtschaftliche Goldmine sind. Der Kreis der echten Gewinner bleibt jedoch klein und erstreckt sich letztend-lich auf digitale Giganten wie Google, Facebook oder Amazon, die sich mit ihrem immensen Volumen an personalisierten, kon-textuellen Insights den größten Wertschöpfungsanteil sichern. Auch wenn Telekommunikationsunternehmen innerhalb des digitalen Ökosystems als vertrauenswürdige Partner gelten, befinden sie sich aufgrund ihrer begrenzten Menge an kunden-spezifischen Datenbeständen – insbesondere im Vergleich zu digitalen Diensteanbietern – in einer relativ schwachen Posi-tion. Wir sehen wenig Sinn in der Verfolgung einer Strategie, die ein kurzfristiges Eindringen in diesen Markt bewirken soll, denn gemäß unserer Studie generiert selbst eine hocheffektive, erfolgreiche Markteindringung weniger als zehn Prozent der gesamten Big-Data-Umsätze. Da wir die Möglichkeiten in die-sem wettbewerbsintensiven Umfeld als suboptimal einschätzen, raten wir Betreibern, in diesem Bereich zurzeit nicht aktiv zu werden.

Es gibt allerdings einige sehr überzeugende Anwendungsfälle, aus denen Telekommunikationsunternehmen erheblichen ge-schäftlichen Nutzen entwickeln können. Entscheidend ist, zu wissen, wo und wie Betreiber in dieses Ökosystem eindringen können, um neue Umsätze als Anbieter von Big-Data-Services generieren zu können. Noch wichtiger ist es aber, die internen „Sweet Spots“ zu finden, Bereiche, für die Big Data zur Verbes-serung interner Prozesse genutzt werden kann.

Big Data als Wachstumschance Mobilfunkbetreiber haben den Vorteil, dass sie die in ihrem Be-sitz befindlichen Daten zu Geld machen und zusätzliche Um-satzströme generieren können. Diese Daten könnten wertvoll für kundennah arbeitende Unternehmen diverser Branchen wie Einzelhandel, Werbung, Marketing, Gesundheitswesen und Finanzen sein. Große Chancen liegen in der Analyse von Kun-dendaten, um den Absatz zusätzlicher Produkte und Dienste über Cross- oder Up-Selling zu steigern.

Die Abbildung zeigt die externen Möglichkeiten für Betreiber auf. Abgebildet sind das Volumen und die Geschwindigkeit von Big Data mit dem Wert, den Big Data auf den unterschied-lichen Stufen der Wertschöpfungskette – von den Rohdaten bis zu den vollständig analysierten Daten – generiert. Die inverse Beziehung zwischen Datenwert, -volumen und -geschwindig-keit zeigt, dass der tatsächliche Wert in der Bedeutung und Aus-legung der Daten liegt.

Rohdaten: Mobilfunkbetreiber können Rohdaten wie Standort, Kundenprofil und -demografie oder Verkehrsdaten an Unter-nehmen verkaufen. Diese Daten werden von den Unternehmen vorrangig dazu verwendet, um ihre bestehenden Produkte mit Mehrwert aufzuladen. Ein Beispiel ist Locaid, ein LaaS-Unter-nehmen (Location-as-a-Service), das Netzwerkstandortdaten an Life360, einem Anbieter für Family Safety Apps, vertreibt. Als reiner Datenanbieter haben Betreiber weniger Möglichkeiten, erweiterte Dienste anzubieten. Daher ist die Datenvermittlung eine weniger attraktive Option.

Abbildung: Big Data – eine Wachstumschance

Quelle: Detecon

Produktverbesserung/Marketing• Datengesteuerte Interaktionen mit Endanwendern• Cross-Selling, Up-Selling, Produktempfehlungen

und -verbesserungen

Rohdaten• Rohe, unverarbeitete Quelldaten • Location, Bewegung, Verkehr etc.

Hosting/Management• Datenerfassung und -transport• Data Hosting, Datenspeicherung und Datenmanagement

Big Data VAS• Data-Analytics-Plattform, Insights, Präsentation• M2M-Lösungen

Geschwindigkeit

Volumen

= Beispielhafte, sich steigernde Umsatzchance in den nächsten 5 Jahren für repräsentativen Service Provider

~ € 350 Millionen

~ € 700 Millionen

€ 1 Millarde

Page 56: PDF-Download (3.95 MB)

54 Detecon Management Report blue • 1 / 2015

Hosting/Management: Seit Betreiber mit dem Hosting, Verar-beiten, Verwalten und der Zusammenfassung von Daten für Unternehmen, die eine Plattform für Big Data benötigen, be-gonnen haben, steigt diese Option im Wert. M2M- und IoT-Unternehmen benötigen eine solide Datenverarbeitungs- und -managementplattform für ihre Lösungen. Sprint ist ein Beispiel für einen solchen Betreiber, der mit der Entwicklung einer offe-nen Plattform für M2M-Lösungen diese Chance ergriffen hat. Die Plattform bietet M2M-Lösungen für vernetzte Kraftfahr-zeuge, vernetzte Flotten, integrierte Versicherungs leistungen, Asset Tracking, Einzelhandel und Gastronomie, Fernüberwa-chung und Fernkontrolle oder das Gesundheitswesen. Andere Beispiele beinhalten Unternehmen wie Integra Telecom und Macquarie Telecom, die Daten-Hosting und Speicherlösungen für unterschiedliche Unternehmen und Branchen anbieten.

Big Data VAS: Betreiber haben Applikationen und Produkte entwickelt, die einen Einblick in die Daten ermöglichen und sie damit für Unternehmensentscheidungen branchenweit noch nützlicher machen. Solche Angebote ermöglichen es Unterneh-men, ihre Produkte mit Mehrwert aufzuladen und Plattformen für datengesteuerte Transaktionen für Bereiche wie M2M Ana-lytics, Echtzeit-Netzsicherheit/-Risikoerkennung und Customer Insights für Werbung zu entwickeln. Ein Beispiel dafür ist die von Telefónica Dynamic Insights kürzlich eingeführte Lösung für Händler. Sie liefert Erkenntnisse, die auf dem Verhalten von Crowds basieren und Unternehmen und staatliche Orga-nisationen dabei unterstützen, durchdachte Entscheidungen zu treffen. Dieses Produkt, das Kundendaten in Echtzeit anonym sammelt und aggregiert, zeigt die Verhaltensmuster der unter-schiedlichen Bevölkerungsschichten. Ein Händler kann bei-spielsweise vor Geschäftsöffnung die Anzahl der Kunden ken-nen, die – aufgeschlüsselt nach Zeit, Geschlecht und Alter – in einem Gebiet verweilen. Verizons Precision Market Insights, ein weiteres Beispiel in diesem Kontext, anonymisiert und verkauft Informationen über Standort und Nutzerverhalten der Kunden. Werbeunternehmen können erfahren, welche Inhalte ihre Ziel-gruppe mit hoher Wahrscheinlichkeit mobil konsumiert und somit ihr Cross- und Up-Selling optimieren.

Produktverbesserung/-Marketing: Der höchste Wachstumswert in Bezug auf Big Data kann dann erzielt werden, wenn Betreiber Daten nutzen, um ihre Kunden besser zu verstehen und sie mit kontextbezogenen Angeboten gezielt ansprechen. Die Daten, die mit Zustimmung der Kunden erfasst werden, ermöglichen es den Betreibern, eine 360-Grad-Sicht auf den Kunden zu er-halten und diesen mit stärker personalisierten und kontextbe-zogenen Inhalten, Produkten und Diensten anzusprechen. Ein Beispiel in diesem Zusammenhang ist die O2-App „Priority

Moments“, die den O2-Mobilfunkkunden exklusive und maß-geschneiderte Angebote liefert, die auf detaillierten und mit Zu-stimmung der Kunden zur Verfügung gestellten Daten basieren. OTT-Provider wie Netflix und Amazon zählen in diesem Seg-ment wahrscheinlich zu den Fortschrittlichsten. Netflix nutzt beispielsweise intelligente Algorithmen zur Analyse von Daten, die von den Abonnenten stammen, um diese mit personalisier-tem Content gezielt anzusprechen und eine Auswahl künftiger Inhalte vorzuschlagen.

Betreiber haben die Wahl, ob sie einen oder mehrere Anwen-dungsfälle implementieren. Sie können den passenden Ansatz mittels Durchführung einer Analyse des lokalen Marktes, der im aktuellen Portfolio enthaltenen Lücken, der Potenziale, der regulativen und rechtlichen Probleme, des Datenschutzes und der Ressourcen entwickeln.

Big Data als Treiber für Kosteneinsparungen

Der bei weitem größte Anteil des Big-Data-Nutzens ergibt sich allerdings aus den potenziellen Einsparungen durch die inter-nen Anwendungen der datengesteuerten Systeme. Die poten-zielle Reduzierung der globalen Kosten, die sich daraus ergibt, beträgt 54 Milliarden US-Dollar pro Jahr oder fast sechs Pro-zent der Gesamtkosten der Telekommunikationsunternehmen (IDATE 2013). Von den Möglichkeiten, Big Data in den opera-tiven Geschäftsablauf eines Unternehmens zu implementieren, heben sich drei Anwendungsfälle aufgrund ihres erheblichen Einsparpotenzials und ihrer frühzeitigen Zugkraft ab: Netz-planung und -optimierung, Identifizierung von Betrug (Fraud Detection) und Reduzierung der Kundenabwanderungsquote.

Netzplanung und -optimierung: Die Netzinfrastruktur ver-schlingt bei den meisten Unternehmen fast die Hälfte der Investitionskosten. Deshalb können sogar geringe Kostensen-kungsmaßnahmen, die für das gesamte Netz eines Telekom-munikationsunternehmens durchgeführt werden, enorme Ein-sparungen bringen. Netzoptimierungsplattformen sind keine Standardlösungen. Es sind komplexe Systeme, die auf einer Server- und Datenbankinfrastruktur, Datenmanagement- und Analysesoftware und kundenspezifischen Integrationen basie-ren, die auf die individuellen Spezifikationen eines Unterneh-mens zugeschnitten sind. Datengesteuerte Netzplanung und -optimierung wird schon seit einiger Zeit genutzt, aber die neuen Entwicklungen, Netzleistung in Echtzeit zu erkennen und zu analysieren, ermöglichen es, dass Plattformen wesentlich größere Datenvolumen verarbeiten können. Gemäß unserer Studie ergeben sich dadurch für die Betreiber innerhalb der nächsten fünf Jahre Kosteneinsparungen in einer Größenord-

Page 57: PDF-Download (3.95 MB)

55 Detecon Management Report blue • 1 / 2015

nung von 19 Milliarden US-Dollar. Das Unternehmen AT&T beispielsweise ist dafür bekannt, Unmengen an Daten in seinem Netz zu erfassen – das Volumen ist während der vergangenen sechs Jahre um sagenhafte 50.000 Prozent angestiegen und er-mittelt 30 Milliarden Datenpunkte pro Stunde. Mit einem in-tern entwickelten Analyse-Tool, dem Tower-Outage-Analyzer, kann AT&T feststellen, wie sich die Ausfälle auf Kundenaktivi-täten auswirken, um dann die Reparatur solcher Funkmasten zu priorisieren, deren Auswirkungen auf die Kunden am stärksten sind. Laut eigener Aussage konnte AT&T die Customer Expe-rience mit dieser Methode um 59 Prozent steigern.

Fraud Detection: Nach Angaben der Communications Fraud Control Association haben Telekommunikationsunternehmen aufgrund von Betrug weltweit einen Verlust in Höhe von 46 Milliarden US-Dollar allein in 2013 erlitten. Betrug kann über-all vorkommen. Unternehmen sind daher gezwungen, in Fraud-Detection-Systeme zu investieren. Mithilfe solcher Systeme können Riesendatenströme länder- und kundenübergreifend durchsucht werden, um betrugsverdächtige Nutzungs- und Zahlungsmuster zu identifizieren. Turkcell ging eine Partner-schaft mit Oracle ein, um eine Big-Data-Plattform zu imple-mentieren, die Beziehungen und Muster zwischen Schlüssel-parametern zur Vorhersage betrügerischer Handlungen erkennt. Dies ermöglicht eine schnelle Betrugsaufdeckung und mini-miert die negativen finanziellen Auswirkungen.

Reduzierung der Kundenabwanderungsquote: Als Wettbewer-ber in gesättigten Märkten entsteht für Telekommunikations-unternehmen der Nebeneffekt, dass sie mit steigenden Kosten für Kundengewinnung und Kundenbindung (SAC/SRC) kon-frontiert werden, die einen großen Teil des Kunden-ARPU ver-schlingen. Zur Aufrechterhaltung ihres Kundenstamms nutzen Betreiber eine Vielzahl spezieller Techniken einschließlich Kun-denbindungsprogramme wie „Net Promoter Score“ und „Voice of the Customer“, bei denen es sich um Methoden handelt, die Feedback in messbaren Datenpunkten zusammenfassen. Die Vielfalt an Kundenkontaktpunkten, aus denen sie Customer-Experience-Daten extrahieren, ermöglicht Kundenbindungsex-perten die gezielte Nutzung dieser Informationen. Hier kommt die Verbreitung der Customer-Experience-Management-Plattformen ins Spiel. Unternehmen wie Medallia entwickeln CEM-Softwaresysteme, die Kundenfeedback und CRM-Daten abteilungsübergreifend integrieren, um daraus umsetzbare In-sights zur Verbesserung der Kundenerlebnisse abzuleiten. Da Big-Data-Plattformen Kundenberatern einen leichteren Zugriff auf Kundendaten erlauben, können Telekommunikationsun-ternehmen eine persönlichere Beziehung zu ihren Kunden auf-bauen, was wiederum zu einer erhöhten Kundenzufriedenheit

Yasmin Narielvala leitet den Bereich Strategy & Innovation bei Detecon Inc., USA. Mit fast 20 Jahren Branchenerfahrung führt sie strategische Technologie bewertungen für Kunden durch und entwickelt Maßnahmen für das Innovations management, die Wachstum vorantreiben und der Disruption entgegenwirken.

Daniel Means ist Consultant und Mitglied des Teams Strategy & Innovation bei Detecon Inc., USA. Er unterstützt Kunden aus vielfältigen Branchen dabei, in jeweils angrenzenden Branchen aktiv zu werden und neue Produkte einzuführen.

und Reduzierung der Kundenabwanderungsquote führt. Als zum Beispiel die Kundendatensysteme von Telefónica Ireland ltd. hohe IT-Kosten und starke Verzögerungen bei der Daten-analyse verursachten, änderte das Unternehmen die Strategie und setzte zur Analyse des Kundenverhaltens eine einheitliche Data-Warehousing-Strategie ein. Das reduzierte die Total Cost of Ownership und verbesserte die Erreichbarkeit der Kunden über Location-based Marketing, das auf Personen abzielt, die sich in der Nähe von Telefónica-Niederlassungen bewegen.

Wir sehen erst die Spitze des Eisbergs

Für Anwendungsfälle wie die Reduzierung der Kundenab-wanderungsquote, Customer Experience Management und Netzplanungsoptimierung gilt, dass sie bereits jetzt mittels her-kömmlicher Data-Analytics-Technologien ständig optimiert werden. Der durch Hadoop herbeigeführte Technologiesprung liefert jedoch in all diesen Fällen Größenordnungen, höhere Transparenz und Effizienz. Daraus ergibt sich wiederum das Potenzial, die Leistungssteigerung voranzutreiben. Damit ver-bunden ist – wie in unserer Studie ermittelt – eine erhebliche finanzielle Auswirkung.

In den nächsten fünf Jahren wird Big Data weitere Möglich-keiten eröffnen, die wir zum jetzigen Zeitpunkt noch nicht quantifizieren können. Donald Rumsfeld, ehemaliger US-Ver-teidigungsminister, formulierte es in seinem berühmten State-ment zum Irak-Krieg so: „ ... aber es gibt auch unbekannte Un-bekannte – Dinge also, von denen wir nicht wissen, dass wir sie nicht wissen.“ Diese Formulierung trifft auch für Big Data zu. Was wir allerdings wissen, ist, dass Big Data für Telekommu-nikationsbetreiber kurzfristig beträchtliche Chance bereithält. Langfristig betrachtet haben wir möglicherweise erst die Spitze des Eisbergs entdeckt.

Page 58: PDF-Download (3.95 MB)

Die heutigen Telekommunikationsnetze sind nicht für Anwendungsfälle des Internet der Dinge ausgelegt. Welche Auswirkungen wird es auf die Netze der Betreiber haben, wenn bis 2020 26 Milliarden Dinge mit ihren Netzen verbunden sind?

Wie sich Netzbetreiber auf den Vormarsch der Maschinen vorbereiten

Auswirkungen des Internet der Dinge auf die Transportnetze

56 Detecon Management Report blue • 1 / 2015

Page 59: PDF-Download (3.95 MB)

57 Detecon Management Report blue • 1 / 2015

enn man über das Internet der Dinge (Internet of Things, IoT) spricht, geht die Auffassung darüber, welche Geräte tat-sächlich als „Dinge“ betrachtet werden – und somit auch die Anzahl der Dinge, die mit dem Internet jetzt schon verbunden sind und künftig verbunden sein werden –, weit aus einander. Im Folgenden konzentrieren wir uns auf innovative IoT-An-wendungsfälle wie implantierbare Herzmonitore, Biochip-Transponder bei Nutztieren, Fahrzeuge mit eingebauten Sen-soren oder intelligente Thermostatsysteme. Aus diesem Grund bleiben Endgeräte wie Smartphones, Tablets und Laptops un-berücksichtigt. Wir gehen auf die Netzanforderungen ein, die die IoT-Anwendungsfälle dem Transportnetz abverlangen, bei-spielsweise hinsichtlich Adressierung, Sicherheit, Verkehr und Servicequalität. Betreiber müssen ihre Netze für diese Anfor-derungen rechtzeitig vorbereiten, um das Umsatzpotenzial zu nutzen, das die IoT-Anwendungsfälle versprechen.

Die Adressierung des Internet der Dinge

Das gegenwärtig weit verbreitete Internet-Protokoll Version 4 (IPv4) wurde vor langer Zeit entwickelt mit der Folge, dass der Adressraum jetzt allmählich ausgeschöpft ist. Weltweit gibt es keine nicht zugewiesenen IPv4-Subnetze mehr. Um der stei-genden Anzahl an Geräten, die an das Netz angebunden sind, Adressen zuweisen zu können, wurde das Internet-Protokoll Ver-sion 6 (IPv6) entwickelt. IPv6 bietet einen riesigen Adressraum

W von zirka 3,4×1038 eindeutigen IP-Adressen, und selbst wenn wir sämtliche Adressen abziehen, die von Standardisierungs-gremien reserviert sind, bleiben noch etwa 4,6×1018 Adressen, die für Endsysteme, die mit dem Internet verbunden sind, ge-nutzt werden können. Auch wenn die Weltbevölkerung im Jahr 2020 auf acht Milliarden Menschen angewachsen sein wird, wird jeder Mensch weltweit zirka 575 Millionen IPv6-Adressen bekommen. Das ist der Grund, warum das IPv6-Protokoll für das Internet der Dinge das Protokoll der Wahl sein wird.

Derzeit liegt das Problem darin, dass die Internet Provider IPv6 nur sehr langsam einführen. Die RIPE-Statistik zeigt, dass zum jetzigen Zeitpunkt nur 18 Prozent der autonomen Systeme* IPv6 eingeführt haben. Aus Abbildung 1 geht ebenfalls deut-lich hervor, dass die Betreiber nach einer Wachstumsphase der IPv6-Einführung während der Jahre 2010 bis 2012, die durch den zunehmend knappen IPv4-Adressraum ausgelöst wurde, ihre Bemühungen zur Einführung von IPv6 gedrosselt haben. Lateinamerika bildet aufgrund des schnellen Internetwachs-tums und der fehlenden freien IPv4-Ressourcen die einzige Ausnahme.

Die tatsächliche Situation hinsichtlich der IPv6-Einführung ist noch gravierender, weil die RIPE-Statistik nur die Anzahl der IPv6-Subnetze ausweist, die von Organisationen erworben wurden, während aus Googles Statistik hervorgeht, dass nur

Abbildung 1: Prozentsatz der Netze (ASes), die ein IPv6-Präfix ankündigen

Quelle: RIPE

= EU= USA= Lateinamerika und Karibik= Asien-Pazifik= Afrika= Alle Länder

2004 2005 2006 2007 2008 2009 2010 2011 2012 2013 2014 2015

28 %

26 %

24 %

22 %

20 %

18 %

16 %

14 %

12 %

10 %

8 %

6 %

4 %

2 %

0 %

* Teil des Internet, das von einem Netzbetreiber betrieben wird.

Page 60: PDF-Download (3.95 MB)

58 Detecon Management Report blue • 1 / 2015

4,5 Prozent der Besucher der Google-Website IPv6-Adressen verwenden. Es liegt daher auf der Hand, dass Telekommuni-kationsbetreiber und Internet Service Provider stärkere An-strengungen zur Einführung des IPv6-Protokolls unternehmen müssen, um ihre Netze für das IoT-Zeitalter zu rüsten.

Implikationen in Bezug auf Sicherheit

Auch wenn das Adressenproblem mit dem IPv6-Protokoll ge-löst werden kann, erfordert die Nutzung von IPv6 gleichzeitig ein stärkeres, verlässlicheres und komplexeres Sicherheitsmodell als das zurzeit verwendete. Im Folgenden geht es um die Sicher-heit, die das Netz und nicht die Anwendungsschicht bietet.

Die derzeitige Beschränkung des IPv4-Adressraums führte zur Entwicklung der nachstehend üblichen Vorgehensweise, die in Kundennetzwerken zur Anwendung gelangt: Der Provider weist dem Kunden eine „öffentliche“ Adresse zu, während der Kunde in seinem privaten Umfeld mit seinem Internetzugangs-gerät (IAD) „private“ IP-Adressen für seine Geräte verwendet. Eine Network Address Translation(NAT)-Funktion im IAD übersetzt dynamisch private in öffentliche IP-Adressen. Wäh-rend NAT als Verfahren zur Überwindung des eingeschränkten IPv4-Adressraums entwickelt wurde, wird es fälschlicherweise auch als Sicherheitstool betrachtet, weil es die Topologie des privaten Kundennetzwerks verbirgt und die Verbindung vom Internet zum privaten Netzwerk einschränkt. Fälschlicherweise wird NAT als Sicherheitstool wahrgenommen. Aufgrund seiner Ubiquität und Einfachheit präferieren Betreiber und Nutzer jedoch NAT statt Firewalls, die verlässlicher, aber gleichzeitig auch komplizierter zu handhaben sind.

Ein weiterer Aspekt bei NAT ist, dass es Probleme für alle Pro-tokolle verursacht, die eine direkte Verbindung zwischen den Internet-Hosts, zum Beispiel VoIP-Gespräche und -Signalisie-rung, Internet-Video-Anrufen oder unterschiedlichen Cloud- Synchronisierungsprotokollen, erfordern. Entwickler von Inter-net-Anwendungen müssen große Anstrengungen unternehmen, um unterschiedliche Methoden zur Überwindung dieser NAT-Hindernisse zu entwickeln. Dies führt dazu, dass ihre Lösungen teurer, weniger skalierbar und weniger zuverlässig sind.

Mit der Entwicklung des IPv6-Protkolls fiel das NAT-Verfahren weg, weil IPv6 jedem Nutzer ausreichend öffentliche Adres-sen zuweisen kann. NAT bedeutet ein einfacheres Applika-tionsdesign für viele IoT-Anwendungsfälle, aber gleichzeitig erfordert es ein besseres Sicherheitskonzept, um die Verbindung zu und von den mit dem Internet verbundenen Dingen zu kon-

trollieren. Dies ist insbesondere für viele IoT-Anwendungsfälle wichtig, da sie die Kontrolle kritischer Infrastrukturen (Smart City, Smart Energy) oder die Überwachung sensibler Daten er-möglichen.

IADs mit IPv6-Support verfügen heute bereits über eingebaute Firewalls. Konfiguration und Handhabung jedes dieser Smart- Home-Geräte wie Glühbirnen, Kaffeemaschinen, Kühlschrank, Klimaanlage oder Überwachungskamera sind jedoch für den typischen Nutzer zu kompliziert. Für den Internet Service Pro-vider liegt darin die Chance, den Nutzer von dieser Bürde zu befreien und die Netzsicherheitsregeln für das Heimnetzwerk des Kunden zu managen. Um dies zu tun, muss der Provider die Geräte kennen, die im Netzwerk des Kunden eingesetzt sind. Anderseits ist der typische Kunde nicht mit allen technischen Einzelheiten seiner Geräte vertraut, weil er diese einfach nur nutzen, aber nicht verwalten will.

Heute gibt es neue Technologien, die dieses Dilemma lösen und es dem Kunden ermöglichen, sein Gerät mit dem Heimnetz-werk über Plug-and-Play zu verbinden, und es gleich zeitig dem Internet Service Provider erlauben, alle erforderlichen Sicher-heitsanforderungen für das installierte Gerät automatisch zu empfangen und geeignete Sicherheitsregeln auf dem IAD des Kunden und/oder den Edge Devices des Betreibernetzwerks zu implementieren. Diese Technologie wird als Software Defined Networking bezeichnet.

Verkehrswachstum und Qualitätsanforderungen

Aus sämtlichen Prognosen geht deutlich hervor, dass die An-zahl der mit dem Internet verbundenen Geräte die Anzahl der Menschen, die online sind, sehr bald übersteigen wird. In 2020 werden wahrscheinlich fünfmal mehr Geräte als Nutzer vernetzt sein, wenn man das Wachstum der Weltbevölkerung und die optimistische Annahme berücksichtigt, dass 75 Prozent der Bevölkerung bis 2020 online sind. Dieses eindrucksvolle Wachstum der vernetzten Dinge ist jedoch nicht der zentrale Treiber des Internet-Verkehrswachstums bis 2020, wie sich an-hand einer einfachen Berechnung aufzeigen lässt: Die meisten IoT-Anwendungsfälle verfügen über integrierte Sensoren oder Aktuatoren, die den Datenverkehr mit zirka 5 bis 15 Kilobytes pro Minute übertragen, wohingegen die durchschnittliche Hauptverkehrsstunde pro Internetnutzer eine Bandbreite von 100 bis 200 Kilobit pro Sekunde aufweist. Abbildung 2 zeigt die auf diesen Annahmen basierende Entwicklung der vernetzten Nutzer, Dinge und des Verkehrs.

Page 61: PDF-Download (3.95 MB)

59 Detecon Management Report blue • 1 / 2015

IoT-Anwendungsfälle werden den Internet-Verkehr in den kommenden Jahren wahrscheinlich nicht beschleunigen, aber sie erhöhen die Qualitätsanforderungen für Transportnetze. An-wendungsfälle wie die Überwachung von Herzschritt machern, Waldbränden, die frühzeitige Erdbebenerkennung oder die Überwachung der Energie- oder Gasindustrie stellen hohe Anforderungen an Netzqualitätsparameter, insbesondere hin-sichtlich Paketverlust oder Latenz. Die derzeitigen Netze sind für Breitbandnutzer und in erster Linie für Best-Effort-Verkehr und Kostenoptimierung konzipiert. Auch wenn für Video- Streaming oder Sprachanwendungen eine Verzögerung von 100 Millisekunden ausreichend sein kann, erfordern viele IoT-Anwendungsfälle eine Latenz von nur wenigen Milli sekunden. Bei der Entwicklung ihrer Netze sollten die Betreiber diese erweiterten Qualitätsanforderungen berücksichtigen und zum Beispiel Edge Clouds – dezentrale Netz-, Rechner- und Spei-cherressourcen – in ihre künftigen Netzwerkarchitekturen ein-binden. Da IoT-Anwendungsfälle generell ein hohes Maß an die Flexibilität der Transportnetze fordern, muss die Netzqualität ebenfalls flexibel und auf Abruf verfügbar sein. Zusätzliche Qua-litätsanforderungen resultieren ebenfalls aus der Entwicklung der traditionellen Breitbanddienste für Netzbetreiber. Cloud-basierte TV- oder Gaming-Dienste erfordern ein hohes Maß an Interaktivität und eine geringe Latenz. Daher steht die Trans-portnetzqualität bereits ganz oben auf der Agenda der Betreiber.

Diese können Synergien nutzen, wenn die Transportqualität für Breitbanddienste und IoT-Anwendungsfälle verbessert wird. Doch selbst wenn die eigenen Netze der Betreiber Qualität liefern, reicht dies nicht aus, um die Anforderungen der IoT-Anwendungsfälle zu unterstützen. Sensoren sind weltweit verteilt und mit den Netzen unterschiedlicher Betreiber ver-bunden. Wenn die Betreiber das Umsatzpotenzial des qualitäts-garantierten Transports für Smart City-, Smart Environment-, industrielle Steuerungs- oder eHealth-Applikationen nutzen wollen, muss diese Netzqualität Ende-zu-Ende verfügbar sein. Diese aus den IoT-Anwendungsfällen resultierende Anforde-rung für Ende-zu-Ende-Qualität könnte sich als neuer Treiber für Inter-Operator-Vereinbarungen über Netzqualität erweisen. Während des letzten Jahrzehnts waren die Inter-Operator-Ver-einbarungen über die Lieferung einer Ende-zu-Ende-Qualität nicht besonders erfolgreich: Die Herausforderung, Transport-qualität für Video-Streaming-Applikationen zu liefern, wurde zum Beispiel von CDN-Providern und nicht von Netzbetrei-bern gelöst. Doch insbesondere für Applikationen, die anfällig für Paketverluste sind und kein großes Verkehrsaufkommen ge-nerieren, können Inter-Operator-Qualitätsvereinbarungen eine gute Lösung sein. Betreiber sollten schnell den Bereich Ende-zu-Ende-Qualität besetzen, weil sonst die Gefahr besteht, dass die Applikationsebene eine Lösung liefern.

Abbildung 2: Wachstum der mit dem Internet verbundenen Dinge und Nutzer

Quelle: Gartner, UN, Detecon

3,0

0,9

3,4

1,8

3,8 3,54,4

6,9 5,0

13,4

5,6

26,3

2015 2016 2017 2018 2019 2020

30

25

20

15

10

5

0

10 %

9 %

8 %

7 %

6 %

5 %

4 %

3 %

2 %

1 %

0 %

Mit dem Internet verbundene Nutzer/Dinge in Milliarden

Teil des IoT-Verkehrs

= Mit dem Internet verbundene Nutzer= Mit dem Internet verbundene Dinge= Teil des Geräte-Verkehrs

Page 62: PDF-Download (3.95 MB)

60 Detecon Management Report blue • 1 / 2015

Dr. Stefan Schnitter ist Partner im Bereich International Telecommunications mit langjähriger, internationaler Erfahrung auf dem Gebiet IP-basierter Netze und Dienste. Der Schwerpunkt seiner Beratung umfasst Strategien für den Breitbandausbau für Festnetz- und Mobilfunk betreiber sowie die Architek-tur, Planung und Implementierung der Netze für Telekommunikationsunter-nehmen weltweit.

Vera Markova und Alexey Gumirov sind Senior Consultants aus dem Bereich International Telecommunications.

Die Lieferung von Netzqualität für IoT-Anwendungsfälle ist für Betreiber sowohl ein Erfordernis als auch eine Umsatzchance, wobei die zusätzliche Lieferung von Netzwerkdiensten eine weitere Möglichkeit darstellt. Da viele IoT-Anwendungsfälle Sensoren oder Aktuatoren mit Einschränkungen hinsichtlich des Energieverbrauchs und der Funktionen beinhalten, können die Betreiber mehrere Dienste wie standortbezogene Dienste, Synchronisierungsdienste oder Notrufdienste zur Unterstüt-zung der diversen IoT-Anwendungsfälle anbieten. Wenn diese Funktionen durch das Netz verfügbar gemacht werden, dann können die Sensoren, zum Beispiel durch Ent fernung der GPS-Module, vereinfacht und Kosten und Energieverbrauch entspre-chend optimiert werden.

Das Internet der Dinge und Software Defined Networking

Wie soll das IoT-Netzwerk aussehen? Kurz zusammengefasst: Das Netzwerk, das die Anforderungen des Internet der Dinge er-füllt, muss agil sein, um Verbindungen, Management und Kon-trolle der diversen Dinge, die über unterschiedliche Zugangs-technologien verbunden sind, mit Plug-and-Play-Mechanismen zu ermöglichen. Zusätzlich zu der gestiegenen Zahl an End-punkten (IPv6-fähig) müssen die Verbindungen zwischen den Endpunkten flexibel und auf Abruf eingerichtet werden, und zwar unter Verwendung unterschiedlicher Kommunikations-modelle, die sich von Hub and Spoke-Modellen für Thin Clients über lokale Vorverarbeitung bis hin zu Peer-to-Peer-Modellen für Smart Clients erstrecken. Ein weiterer zentraler Aspekt des IoT-Netzwerks ist die Interoperabilität, die die Integration von Geräten unterschiedlichster Hersteller ermög licht. Einige der IoT-Anwendungsfälle stellen zusätzliche Anforderungen an das Netz – beispielsweise eine stärkere Zuverlässigkeit sowie erhöhte Sicherheit und Datenschutz bei Anwendungsfällen aus den Be-reichen Gesundheitswesen und Sicherheit.

Sind die Netze der Betreiber für das Internet der Dinge gerüstet? Die bestehenden Netze weisen keine ausreichende Flexibilität auf, um sich den Anforderungen schnell anzupassen, die sich aufgrund ändernder Netzanforderungen, innovativer Service Offerings und der konsequenten Ende-zu-Ende-Betrachtung, um das gesamte Netz zu managen, ergeben. Es müssen neue Netztechnologien untersucht werden, damit das Internet der Dinge Realität werden kann, ohne dass für die bestehenden Netze zu hohe Belastungen entstehen. Software Defined Net-working (SDN) kann die erforderliche Flexibilität, Interopera-bilität und Netzwerkprogrammierung liefern.

SDN zeichnet sich aus durch die Trennung von Weiterleitung und Kontrolle des Verkehrs, die Existenz eines logisch zentrali-

sierten Netzmanagements und dadurch, dass das Netzwerk über offene APIs zur Anwendungsschicht verfügt. Die zentrale anbie-terunabhängige Kontrolle des gesamten Netzwerks von einem einzelnen logischen Punkt ermöglicht eine erhebliche Verein-fachung von Netzwerkdesign und -betrieb. Im Gegensatz zur gegenwärtig vorherrschenden Konfiguration auf Geräteebene ermöglicht die Ende-zu-Ende-Netzwerkansicht darüber hinaus die Bereitstellung von Diensten Ende-zu-Ende mit der erforder-lichen Sicherheit und den Servicequalitätsparametern (QoS).

Aufgrund der permanent steigenden Anzahl der IoT-Anwen-dungsfälle werden sich neue Umsatzchancen für Telekom-munikationsunternehmen und in noch stärkerem Maße für Betreiber ergeben, die in der Lage sind, innovative Dienste rechtzeitig anzubieten. SDN liefert einen Mechanismus, um Netzwerkressourcen schnell zu konfigurieren, zu verwalten und zu optimieren, und zwar mit Hilfe von automatisierten SDN- Anwendungen, die auch wieder verwendet oder bei Bedarf leicht erzeugt werden können. Eine zu SDN komplementäre Technologie, die zur Optimie-rung der Betreibernetze beitragen kann, um die Anforderung des IoT zu erfüllen, ist die Virtualisierung von Netzfunktionen (NFV). NFV wendet die weiterentwickelte IT-Virtualisierungs-technologie auf Netzwerkfunktionen an, um zu ermöglichen, dass statt proprietärer Plattformen standardisierte IT-Server, Switches und Speicher verwendet werden. Dies ermöglicht so-wohl die Skalierung der Kapazität als auch die Mobilität von Netzwerkfunktionen. Diese Flexibilität in der Dimensionierung und Lokalisierung von Netzwerkfunktionen wird sich für Be-treiber als leistungsstarkes Tool erweisen, um die Anforderun-gen des Internet der Dinge erfüllen zu können.

Page 63: PDF-Download (3.95 MB)

Bereit für die Zukunft ?

DETECONConsulting

Herausforderung „Zukunft“

Integrierter Ausbau der Netzkapazitäten

Forc

ieru

ngPa

rtner

ingEmpowerment

Wholesale

Differenzierte Marktbearbeitung

Agilität in Prozessen und IT

Info

rmat

ione

n un

ter: w

ww

.det

econ

.com

ModerneNetzkonzepte

Foku

ssie

rteIn

nova

tion

Page 64: PDF-Download (3.95 MB)

M2M für Telekommunikationsunternehmen

Strategiedimensionen für den Eintritt in den M2M-Markt

62 Detecon Management Report blue • 1 / 2015

Page 65: PDF-Download (3.95 MB)

63 Detecon Management Report blue • 1 / 2015

ie Einführung von Machine-to-Machine (M2M) in das Portfolio scheint zunächst für Telekommunikationsunternehmen einfach möglich, da sich das M2M-Geschäft vom traditionellen Mobilfunkgeschäft auf den ersten Blick nicht wesentlich unter-scheidet. Grundprozesse wie die Bereitstellung von SIM-Karten und Endgeräten sowie deren Provisionierung und Abrechnung sind in beiden Geschäften notwendig. Auf den zweiten Blick werden jedoch erhebliche Unterschiede mit Konsequenzen in der Bereitstellung von M2M-Dienstleistungen durch Telekommuni-kationsunternehmen deutlich.

Um erfolgreich in den M2M-Markt einzutreten, sollten Tele-kommunikationsunternehmen eine umfassende Strategie ent-wickeln. Hierbei müssen die Charakteristika des M2M-Marktes und der Betriebsmodelle ebenso betrachtet werden wie die not-wendige Technologielandschaft, die für die Bereitstellung von M2M-Dienstleistungen erforderlich ist (siehe Abbildung 1). Im Folgenden stellen wir zu diesen Themenkomplexen unsere Erfah-rung aus einer Vielzahl von Kundenprojekten vor, um entspre-chende Hilfestellungen an die Hand zu geben.

D

Telekommunikationsunternehmen sehen sich sich mit einem stagnierenden oder sogar sinkenden Mobilfunkgeschäft konfrontiert. Neue Geschäftsmodelle nahe den eigenen Kernkompetenzen und mit Umsatzsteigerungspotenzial rücken in den Fokus. Noch bietet der sich entwickelnde

M2M-Markt eine vielversprechende Chance für Telekommunikationsunternehmen.

Charakteristika des M2M-Marktes

Der M2M-Markt unterscheidet sich deutlich vom klassischen Mobilfunkgeschäft. Das M2M-Geschäft wird bestimmt durch eine Vielzahl von geschäftlichen Anwendungsfällen, in denen M2M-Kommunikation zum Einsatz kommt. Dies reicht von branchenspezifischen Lösungen, zum Beispiel Industrielle Automatisierungen oder Remote Health Monitoring, Smart Metering, mit lokal oder regional angepassten M2M-Service Portfolios bis hin zu generischen Tracking-Lösungen, die welt-weit zum Einsatz kommen können.

Aufgrund des breiten Einsatzspektrums von M2M-Technologie müssen Telekommunikationsunternehmen beim Einstieg in das M2M-Geschäft eine klare strategische Positionierung ent wickeln. Dazu müssen die angestrebte Wertschöpfungstiefe, das Produkt-portfolio und der regionale Fokus definiert werden. Darüber hinaus nehmen der Aufbau und die Pflege von Unternehmens-kooperationen und Partnernetzwerken eine heraus ragende Stellung ein.

Abbildung 1: Die M2M-Strategie

Quelle: Detecon

Der Markt Der Betrieb Die Technologie

• Wertschöpfungstiefe• Kundensegmentierung und Produktportfolio• Regionalität• Partnerschaften

• Organisation• Governance

• SIM/Roaming• Plattform• Netzwerk

Page 66: PDF-Download (3.95 MB)

64 Detecon Management Report blue • 1 / 2015

Die Wertschöpfungskette für M2M-Dienstleistungen kann schematisch in die notwendigen Hardware-Komponenten wie Kommunikationsmodule und Sensoren, Konnektivität, die IT-Plattform für das Management von Konnektivität und SIM-Verwaltung, die Plattform für „Solution Enabling“ und die (ver-tikale) Lösung für den Endkunden zerlegt werden. Für letztere sind oftmals umfassende Dienstleistungen für die Integration der M2M-Plattformen in die bestehende IT-Landschaft der Kunden notwendig.

In dieser komplexen Wertschöpfungskette müssen Telekom-munikationsunternehmen sich positionieren. Aus unserer Pro-jekterfahrung ergeben sich im Wesentlichen drei mögliche Plat-zierungen, die in Abhängigkeit von den eigenen Möglichkeiten bewertet werden müssen.

Telekommunikationsunternehmen können sich für das reine Anbieten der Konnektivität, das „Connectivity Wholesale“-Modell, entscheiden. In diesem Modell erfährt der Anbieter nur eine limitierte Wahrnehmung im Markt – keinen direkten Endkundenzugang – und kann nur einen geringen Anteil am Gesamtumsatz einer M2M-Lösung abschöpfen. Dies veranlasst viele Telekommunikationsunternehmen, ihr Angebot „Managed Connectivity“-Szenario um die Bereitstellung von Diensten zum Konnektivitäts- und SIM-Management zur Verfügung zu stellen. Entscheidet sich das Telekommunikationsunternehmen,

die Position als „End-to-End Solution Provider“ einzunehmen, ist neben einer Plattform für „Solution Enabling“ auch die Or-chestrierung möglicher Partner entlang der gesamten Wertschöp-fungskette nötig. Mit dieser Option hat der Operator jedoch einen direkten Endkundenzugang und kann seine eigene Marke für die Vermarktung nutzen.

Kundensegmentierung und Produktportfolio: Abgeleitet aus den zu-vor genannten möglichen Positionierungen eines Telekommuni-kationsunternehmens im M2M-Markt stellen B2B oder B2B2C die wesentlichen Modelle dar. Das Spektrum potenzieller Kun-den deckt die komplette Bandbreite von kleinen Unternehmen, vielfach auch Start-ups, bis hin zu globalen Großkonzernen ab. Die avisierten Kundensegmente haben erheblichen Einfluss auf die Art der angebotenen Dienstleistungen. So müssen für klei-ne Unternehmen standardisierte Produkte angeboten werden, während für große Kunden vielfach maßgeschneiderte Lösungen zum Einsatz kommen, die auch eine tiefe Integration in beste-hende IT-Systeme erfordern. Die Auswahl der zu adressierenden Kundensegmente hängt deshalb stark von den eigenen Kompe-tenzen beziehungsweise von den Partnerschaften des Anbieters im Bereich Systementwicklung und Systemintegration ab.

Das Dienstleistungsportfolio ist zudem branchenspezifisch aus-zurichten. Spezifische Lösungen und Produkte werden angebo-ten und auf die jeweiligen Bedürfnisse einer Industrie angepasst.

Abbildung 2: Die M2M-Wertschöpfungskette

Quelle: Detecon

Geräte und Module

Option 1: Wholesale Provider

Option 2: Managed Connectivity Provider

Option 3: End-to-End Solution Provider

Konnektivität

Konnektivität

Konnektivität

Konnektivität

M2M-Wertschöpfungskette

Tren

d be

iTe

leko

mm

unik

atio

nsun

tern

ehm

en

Konnektivitäts- undSIM-Management

Konnektivitäts- undSIM-Management

Konnektivitäts- undSIM-Management

SolutionEnabling

SolutionEnabling

Vertikale Lösungen Integration

Page 67: PDF-Download (3.95 MB)

65 Detecon Management Report blue • 1 / 2015

Horizontale Lösungen hingegen sind Standardprodukte, welche branchenübergreifend angeboten werden können. Die Anwen-dungsfälle für horizontale Lösungen sind jedoch nach wie vor begrenzt.

Regionalität: Ein Großteil der Komplexität des M2M-Geschäfts hängt von der geographischen Reichweite des M2M-Angebots ab. Weltweit ist zu beobachten, dass sich Telekommunikations-unternehmen dazu entschließen, ausschließlich im Heimatmarkt oder in benachbarten Regionen M2M-Dienstleistungen anzubie-ten. Nur wenige große Anbieter, beispielsweise Vodafone, setzen auf eine globale Bereitstellung von Lösungen. Ein Kriterium zur Bestimmung der geographischen Reichweite ist die derzeitige Marktabdeckung, Partnerschaften und das Marktpotenzial des Anbieters.

Partnerschaften: Der M2M-Markt ist vielfältig und komplex. Um hier zu bestehen, sind Partnerschaften unabdingbar. Diese können in allen zuvor beschriebenen Dimensionen – Wertschöp-fungstiefe, Produktportolio und Regionalität – genutzt werden.

Die funktionalen Partnerschaften decken Bestandteile der M2M-Wertschöpfungskette ab, die nicht im Kompetenzbereich des eigenen Unternehmens liegen, zum Beispiel Entwicklung von Hardware-Komponenten. Vertikale Partner unterstützen bei der Entwicklung und Vermarktung von Dienstleistungen in den fokussierten Industrien. Mithilfe von geographischen Partner-schaften können Telekommunikationsunternehmen ihren „Foot-print“ erweitern – im M2M-Markt kann dies in Form von ein-zelnen Roaming-Verträgen, M2M-Kooperationen mit anderen Anbietern oder durch den Eintritt in bestehende M2M-Allianzen erreicht werden. Nicht zuletzt sollten auch in der Vermarktung von M2M-Produkten Partnerschaften angestrebt werden. Neben Vertriebskooperationen, die insbesondere in großen Deals An-wendung finden, hat sich für Telekommunikationsunternehmen die Bereitstellung eines Marktplatzes als veritables Modell heraus-gestellt. Hier können Kunden Partnerlösungen erwerben, die auf Basis einer Plattform für „Solution Enabling“ funktionieren. Die Wahl des Partnermodells hängt stark von der Produktreife und Kundenbeziehung des Partners im Vergleich zur eigenen ab.

Operatives M2M-Geschäft

Nicht nur bei der Segmentierung des Marktes und der zugehö-rigen Positionierung birgt das M2M-Geschäft Besonderheiten, sondern auch bei der operativen Bereitstellung von M2M-

Dienstleistungen. Durch die typischerweise niedrigen ARPUs, die notwendige IT-Expertise und die Anforderungen bezüglich Flexibilität und Schnelligkeit der Lösungsbereitstellung sind die Organisation und Governance im Vergleich zum traditionellen Mobilfunkgeschäft anders aufzustellen.

Organisation: Die optimale interne organisatorische Aufstellung hängt im Wesentlichen von der gewählten Wertschöpfungstiefe und der Priorität des M2M-Bereichs im Unternehmen ab. Es können drei Basisvarianten für die Einbindung von M2M in die Organisation unterschieden werden.

Die integrierte M2M-Organisation bindet ein M2M-Team in-nerhalb einer bestehenden B2B-Organisationeinheit des Anbie-ters ein. Diese Variante ist durch ihre schnelle Umsetzbarkeit vor allem im Szenario „Connectivity Wholesale“ relevant. Die geringe Autonomie bei der Budgetgestaltung und die gerin-gere Wahrnehmung innerhalb der Organisation hindert jedoch die Umsetzung höherer M2M-Ambitionslevels. Der Aufbau einer strategischen Business Unit für M2M verspricht dahinge-hend die Nutzung von Querschnittsfunktionen bei gleichzeitig höherer Eigenbestimmung. Eine Gefahr liegt jedoch im Wettbe-werb mit bereits etablierten Einheiten, dem sich die M2M-Ein-heit mit ihren typischerweise geringeren Margen und längeren Akquisezeiten stellen muss. Die Einführung einer unabhängigen Legaleinheit für M2M, mit eigenverantwortlicher GuV und Ver-tragsautonomie gegenüber Kunden und Partnern, ist die typische Lösung bei End-to End-Solution Providern.

Klare Governance: Telekommunikationsunternehmen mit mehr als einer operativen Gesellschaft, zum Beispiel mehreren Lan-desgesellschaften, müssen die Rollen und Verantwortungen im Bereich M2M eindeutig festlegen. Bei einer zentralisierten Governance wird das M2M-Geschäft aller operativen Gesell-schaften auf der Konzernebene gesteuert und kontrolliert. Wird dieses Governance-Modell mit dem Aufbau eines zentralen M2M-Kompetenzteams verbunden, das mit den lokalen B2B-Einheiten kooperiert, kann kurz- bis mittelfristig ein entschei-dender Wettbewerbsvorteil entstehen, da die M2M-Expertise schnell und zielgerichtet aufgebaut werden kann. Im Gegensatz dazu, wird bei in einem Modell mit lokaler Governance das M2M-Geschäft auf Ebene der operativen Gesellschaften geführt. Diese Option verspricht eine hohe lokale Spezialisierung auf die jeweiligen Märkte bei geringeren Synergieeffekten auf Konzern-ebene. Bei der föderierten Governance werden die Verantwort-lichkeiten zwischen Konzern und operativen Gesellschaften

Page 68: PDF-Download (3.95 MB)

66 Detecon Management Report blue • 1 / 2015

aufgeteilt. Der höhere Abstimmungsaufwand kann durch den Aufbau eines zentralen M2M-Kompetenzteams bei gleichzeitig gezieltem Angang der lokalen Märkte ausgeglichen werden.

Schlussendlich hängt die Wahl des Governance-Modells stark von der etablierten Organisationsstruktur des Konzerns und der Mitwirkung der einzelnen operativen Gesellschaften ab.

Technologische Landschaft

Neben Markt und Betrieb ist Technologie der dritte Bestandteil einer M2M-Strategie. Auf den Ebenen Plattform – für Konnek-tivität & SIM-Management und Solution Enabling –, SIM-Strategie/Roaming und Netzwerk müssen wesentliche Dinge beachtet werden.

Plattform: Die Art und der Umfang der notwendigen M2M-Plattform hängt insbesondere von der verfolgten Positionierung innerhalb der Wertschöpfungskette ab.

Eine Plattform für Konnektivitäts- und SIM-Management dient als eine Art „Self Service Portal“. Sie stellt wesentliche Funktionen zur Verwaltung von SIM-Karten – zum Beispiel SIM-Karten Ak-tivierung und Deaktivierung, Bestellung, Provisionierung – und die zugehörigen Verbindungen für den Geschäftspartner zur Ver-fügung. Darüber hinaus kann sie als Basis für den Aufbau einer Plattform für Solution Enabling dienen. Eine Solution-Enabling-Plattform stellt Programmbibliotheken häufig benutzter Funktio-nalitäten und sonstige Programmierschnittstellen zur Verfügung. Hiermit kann die Entwicklung branchenspezifischer, vertikaler M2M-Lösungen vereinfacht und beschleunigt werden.

„Solution-Enabling-Plattformen wurden lange Zeit sehr stief-mütterlich behandelt. Sie gewinnen jedoch zunehmend an Bedeutung wenn Telekommunikationsunternehmen größere Anteile der Wertschöpfung und damit des Umsatzes von M2M-Lösungen abschöpfen möchten.“, erklärt Claus Eßmann, Senior Consultant bei Detecon. „Die aktuelle Marktentwicklung, ins-besondere von dem Hintergrund des Internet der Dinge, deutet klar in die Richtung, dass Solution-Enabling-Plattformen zum essentiellen Angebotsbaustein von Telekommunikationsunter-nehmen im M2M-Markt werden.“

Ist die Entscheidung für den Aufbau einer M2M-Plattform ge-fallen, muss die „make or buy“-Frage gestellt werden. Soll die Plattform selbst aufgebaut werden oder auf ein existierendes Standardprodukt zurückgegriffen werden? Unsere Erfahrung

zeigt, dass Projekte zur Eigenentwicklung nur selten im ge-planten Zeit horizont realisiert werden können. Häufig werden die Komplexität, zum Beispiel für die direkte Netzintegration, beziehungsweise der mangelnde Einfluss auf gewisse Faktoren, zum Beispiel die Bereitstellung benötigter Leistungsmerkmale auf Systemen von Drittanbietern, unterschätzt. Im Gegensatz dazu können beim Einsatz einer Standardsoftware mit dem Zu-lieferer Vertragsstrafen im Falle von Nichteinhaltung von Liefer-terminen vereinbart werden. Darüber hinaus werden zunehmend Betriebsmodelle angeboten, in denen die Plattform über ein Umsatzbeteiligungsmodell mit dem Zulieferer finanziert werden kann. Bei diesem Modell zahlt das Telekommunikationsunter-nehmen meist nur einen geringen Betrag für den Aufbau, die Be-reitstellung und die Integration der M2M Plattform in das eigene Netz. Hinzu kommt ein bestimmter Anteil des Verkaufspreises für jede verkaufte SIM-Karte, der an den Zulieferer gezahlt wird. Diesen Vorteilen bezüglich der finanziellen Risikominimierung steht jedoch die reduzierte Möglichkeit zur Individualisierung der Leistungsmerkmale der Plattform gegenüber.

M2M-Experte Eßmann rät: „Übergreifend muss die Auswahl der M2M-Plattform in enger Abstimmung mit vorhandenen Technologiestrategien, zum Beispiel Netzwerk-/IT-Strategie, er-folgen, um eine nahtlose Integration in die existierende Techno-logielandschaft sicher zu stellen. Eine „tiefe“ Integration in schon vorhandene BSS- und OSS-Systeme ist jedoch aufgrund der Wachstumsvorhersagen im M2M-Geschäft nicht zu empfehlen.“ Durch mögliche Skalierbarkeitsprobleme können sich unmit-telbar negative Auswirkungen auf das Kerngeschäft im Massen-markt ergeben.

SIM/Roaming: Im M2M-Geschäft gilt es, bei der Auswahl der SIM-Karte zwei wesentliche Zielrichtungen zu verfolgen: mini-male Kosten für die Bereitstellung der SIM-Karte bei Sicherstel-lung der gewünschten Netzabdeckung. Als Basis für die Auswahl dienen also das geplante Einsatzgebiet der SIM-Karte – lokal ver-sus regional versus global – und die geforderten Anforderungen an die Netzabdeckung. So kann es beispielsweise für beide Sei-ten von (finanziellem) Vorteil sein, statt einer lokalen SIM-Karte dem Kunden eine sogenannte „Global Roaming SIM“ Karte zur Verfügung zu stellen. Diese SIM-Karte hat kein „Heimatnetz“ und ist in jedem Netz, in dem sie sich anmeldet, im Roaming-Modus.

Netzwerk: Auch im Netzwerkbereich müssen Spezifika des M2M-Geschäfts beachtet werden. So können existierende Netzwerk-knoten für die M2M-Kommunikation verwendet werden, das

Page 69: PDF-Download (3.95 MB)

67 Detecon Management Report blue • 1 / 2015

Dr. Philipp Bodenbenner ist Management Consultant und berät Klienten aus der Dienstleistungsbranche. Er beschäftigt er sich mit Themen an der Schnittstelle von Geschäftsstrategie und Informationstechnologie und berät Unternehmen zu Geschäftsmodellinnovationen und Marktangangsstrategien für innovative (Technologie-)Produkte.

Andreas Winter ist Management Consultant. Sein Beschäftigungsfeld liegt in der Erstellung von Marktangangsstrategien und der kommerziellen Bewertung von innovativen ICT-Produkten für Kunden in der Telekommunikations- und Automobilindustrie. Im Bereich IoT und M2M unterstütze er bereits Unternehmen bei der Konzipierung der Geschäftsfeldstrategie und deren Implementierung.

heißt M2M SIM-Karten und M2M-Datenverkehr werden in den bestehenden Sytemen (HLR/HSS beziehungsweise GGSNs) verwaltet. Insbesondere die großen Telekommunikationsanbieter verfolgen jedoch zunehmend einen anderen Ansatz. „Aufgrund der Vorhersagen zum drastisch steigenden Kommunikationsvolu-men in den nächsten Jahren wird die M2M-Kommunikation zu-nehmend über dedizierte Netzwerkknoten durchgeführt.“, so die Einschätzung von Eßmann. Diese Separierung bietet eine Rei-he von Vorteilen. Zum einen lässt sich der M2M-Datenverkehr so einfacher von herkömmlichem Datenverkehr unterscheiden, zum Beispiel um einfach und flexibel zusätzliche (Roaming-)Ta-rife anzubieten. Zum anderen benötigen M2M SIM-Karten viele (teure) Funktionen im HLR/HSS nicht. Hier kann aufgrund günstigerer Lizenzgebühren pro SIM-Karte im dedizierten HLR/HSS ein erhebliches Einspar potenzial realisiert werden.

Sorgfältige Analyse ist erfolgsentscheidend

Telekommunikationsunternehmen sollten sich vor dem Eintritt in den M2M-Markt die Unterschiede gegenüber dem traditio-nellen Mobilfunkgeschäft bewusst machen. Das M2M-Geschäft bietet ein breites Spektrum an Gestaltungsoptionen und fordert entsprechend grundlegende Entscheidungen. Für die Entwick-lung einer umfassenden, erfolgreichen M2M-Strategie sind marktseitige, betriebliche und technische Aspekte zu berücksich-tigen. Aus unserer Erfahrung heraus sollten für den Entschei-dungsweg zunächst die marktseitigen Ziele im Fokus stehen, gefolgt von der betrieblichen Ausgestaltung und der technischen Umsetzung. Alle drei Komponenten müssen dabei aufeinander abgestimmt sein und sich zu einer einheitlichen M2M-Strategie zusammenfügen. Zudem muss der Abgleich mit der übergreifen-den Geschäfts- und Technologiestrategie sichergestellt werden.

Page 70: PDF-Download (3.95 MB)

68 Detecon Management Report blue • 1 / 2015

Trends, Ökosystem und strategische Optionen für Carrier

Wearable Technology

Marktforschungsstudien liefern sehr optimistische Perspektiven für das Wachstum des Wearables-Marktes. Für Carrier liegt die offensichtlichste Chance im Reselling der Geräte über ihre bestehenden Kanäle und der Bereitstellung von Konnektivität.

Wearables bestimmen die Zukunft!“, prognostiziert Mary Meeker, Expertin aus dem Silicon Valley. Die von aller Welt er-wartete Ankündigung der Apple Watch hat unsere Social Media Feeds geradezu überschwemmt und Wearables als neue Geräte-kategorie etabliert. Damit sind sie aus dem Nischendasein be-freit und zum Standard erhoben.

Wearables sind mit Sensoren ausgestattete Geräte, die am Körper getragen werden. Die Landschaft dieser neuen Mini-Computer ist vielfältig und fragmentiert und reicht von Fitness-Armbändern, Uhren und Brillen bis hin zu Hautpflastern und intelligenter Kleidung. Die meisten Wearables können zurzeit noch nicht direkt an das Internet angeschlossen werden. Mit auf dem Smartphone installierten Companion Apps, einer Schnitt-stelle zwischen Smartphone und Wearables, kann aber über Bluetooth auf die Wearables zugegriffen werden. Diese Apps sammeln und synchronisieren Sensordaten in der Cloud und senden Updates und Benachrichtigungen an die Wearables.

Bedürfnisse des Verbrauchers im Fokus

Marktforschungsstudien liefern sehr optimistische Perspektiven für das Wachstum des Wearables-Marktes. Sie prognostizieren für den Zeitraum von 2013 bis 2018 durchschnittliche jähr-liche Wachstumsraten (CAGRs) von mehr als 50 Prozent. Sie

„ zeigen jedoch eine große Wachstumsabweichung, wenn es um die Entstehung des Marktes geht. Während ABI die Zukunft der Smartwatches sehr optimistisch einschätzt und insbesondere für Brillen und Kontaktlinsen 485 Millionen Lieferungen für 2018 vorhersagt, ist Junipers Marktstudie konservativer und prognostiziert 130 Millionen Lieferungen. Der Wearable-Markt wird durch eine hohe Smartphone-Durch-dringung und die allgegenwärtige drahtlose Konnektivität sowie durch kleinere und erschwinglichere Sensoren angetrieben. Zu den weiteren Enablern gehören intelligente Warnsysteme und Nutzererkenntnisse, die auf Predictive Analytics und Big Data basieren, darüber hinaus neue Anwendungsfälle im Internet der Dinge, die Technologien wie M2M-Kommunikation und integrierte SIM-Karten ermöglichen. Doch bevor Wearables massentauglich sind, müssen noch einige Hindernisse über-wunden werden. Wearable-Hardware muss einen Reifeprozess durchlaufen, um den Mode- und Designansprüchen der Ver-braucher gerecht zu werden. Verbesserungswürdig ist darüber hinaus die Batterieleistung. Software und Apps müssen bislang nicht gelöste Datenschutz- und Sicherheitsprobleme lösen, ins-besondere in Anbetracht der personenbezogenen Daten.

Die meisten Geräte, die auf den Markt kommen, zielen auf die Bedürfnisse der Verbraucher ab, das heißt auf Fitness und auf

Page 71: PDF-Download (3.95 MB)

69 Detecon Management Report blue • 1 / 2015

die Quantified-Self-Bewegung sowie auf Nischen im Gesund-heitsbereich wie die Überwachung der Herzfrequenz und des Blutzuckerspiegels. Anwendungsfälle im B2B-Umfeld befinden sich in der Entstehungsphase. Intelligente Brillen könnten zum Beispiel für die Baubranche nützlich sein, um die Arbeitskräfte untereinander zu vernetzen oder die Leistungsfähigkeit der Fern-wartung zu steigern. Im Gesundheitssektor öffnen die Applika-tionen der intelligenten Brillen ein breites Anwendungsfeld: Sie ermöglichen Ärzten, direkt am Krankenbett ihrer Patienten auf klinische Informationen zugreifen und diese bestätigen zu kön-nen. Auch das Fern-Coaching bei Live-Operationen per Aug-mented Reality, wo genau angezeigt wird, an welcher Stelle ein Instrument platziert werden muss oder ein chirurgischer Ein-griff vorzunehmen ist, ist realisierbar.

Angesichts der leichten Zugänglichkeit für den Nutzer sind Wearables überzeugende Begleitgeräte für das Internet der Dinge. Selbst in diesem frühen Stadium lassen sich bereits interessante Implementierungen beobachten, zum Beispiel das Kontrollieren der Beleuchtung anhand einer Armbanduhr oder die Entwicklung bedingter Anweisungen über die App IFTTT, die eine beliebige Anzahl von Home-Automation-Systemen integrieren kann. Überzeugende M2M-Anwendungen für Connected Cars beinhalten die Überprüfung des Ladezustands der Batterie auf der Smartwatch mit anschließender Benach-richtigung auf dem Display über einen eventuellen Dienst-leistungsbedarf.

Entwicklung des Ökosystems

Ähnlich der Entwicklung von Dumbphones zu Smartphones entwickeln sich auch Wearables von zweckorientierten Geräten zu Plattformen. Die Leistungsmerkmale der ersten Wearables beschränkten sich lediglich auf Aufgaben wie Schritt-, Herz-schlag- oder Schlafüberwachung. Erst in letzter Zeit haben Apple und Google Wearable-Plattformen eingeführt, auf denen Third-Party-Apps laufen. Im Einklang mit der Android-Smartphone-Strategie entwickelte Google das Android-Wear-Betriebssystem sowie Protokolle, hielt aber für die Fertigung der Geräte nach be-stehenden Android-Hardware-Partnern Ausschau. Apple dage-gen entwickelte ähnlich dem iPhone für die Apple Watch beides – das Betriebssystem und die Hardware. In Bezug auf die Apps, die auf diesen Plattformen – bis jetzt nur auf Android Wear – laufen, scheint es so, dass die beliebtesten Android Smartphone-Apps ihre Führungsposition auf diese neuen Plattformen auswei-ten: Spotify für Musik, Runkeeper für Fitness und andere mehr. Für die Aussage, dass ihre Dominanz eine ausgemachte Sache ist, ist es jedoch zu diesem Zeitpunkt noch zu früh, da neue Form-faktoren und Daten aus neuen Sensoren den Wettbewerbern so-wohl das Eindringen in bestehende App-Kategorien als auch die Entwicklung gänzlich neuer Kategorien ermöglichen.

Da dieselben OEMs, OTTs und App-Entwickler, die auf dem Smartphone-Markt im Wettbewerb stehen, auch bei den Wearables um die Customer Ownership konkurrieren, sollten die MNOs diesen Bereich für sich in Anspruch nehmen, um die Bedeutung und Nutzung bestehender Kunden-Smartphone- und Datenübertragungsverträge zu erweitern, ARPU zu steigern oder zu stabilisieren und gegen Disintermediation zu wirken.

Die offensichtlichste Chance für Carrier auf dem Wearable-Technologiemarkt liegt im Reselling der Geräte über ihre be-stehenden Kanäle und der Bereitstellung von Konnektivität. Während man davon ausgeht, dass nur wenige Wearables in den nächsten Jahren SIM-fähig sein werden, wird das Um-satzpotenzial im Zuge der Entwicklung des Internet der Dinge steigen. Zweitens bilden die Wearables für MNOs ein weiteres Fenster, um ihre eigenen Mehrwertdienste, zum Beispiel Zah-lungs- und IP-basierte Kommunikations-Apps, voranzutreiben und sich gegen den Wettbewerb zu wappnen. Darüber hinaus haben Carrier wie AT&T und NTT DoCoMo das Potenzial zur Entwicklung von Ökosystemen erkannt, die auf Vertikale wie Gesundheit abzielen, um ihre bestehenden Fähigkeiten in der Sicherung von Datenspeicherung und Cloud-Plattformen zu nutzen. Daten aus unterschiedlichen Geräten und Quellen können auf einer integrierten Plattform gesammelt und aggre-giert werden, um Nutzer, Ärzte, Krankenhäuser und Versiche-rungsgesellschaften mittels eines zweiseitigen Geschäftsmodells zu vernetzen.

Laut Markus von Blumröder, Vice President Product & Innova-tion Terminals, Deutsche Telekom, der das Wearables-Geschäft der Deutschen Telekom leitet, sollten sich Carrier frühzeitig positionieren, um so Anspruch auf ihre Nische zu erheben und Entwicklungen im Wearables-Ökosystem voranzutreiben: „Angesichts des niedrigen Umsatzes und der eingeschränkten Verbrauchernachfrage sollten wir unsere Bemühungen auf keinen Fall reduzieren. Jede Innovation benötigte bislang eine Anlaufzeit, immer steht man vor der Herausforderung, Dienst-leistungen und Geschäftsmodelle so zu gestalten, dass das Er-gebnis einen deutlichen Kundenutzen liefert. Daher hat die Deutsche Telekom damit begonnen, diese neue Kategorie zu entwickeln, sich auf die Herausforderungen einzustellen und die strategische Bedeutung und zukünftigen Chancen für Car-rier zu adressieren.“

Lars Theobaldt verantwortet als Managing Partner den Bereich Innovations- und Geschäftsentwicklungsstrategie und berät die Deutsche Telekom in Deutschland und den USA. Er ist durch seine Beiträge über die Zukunft des ICT-Marktes bekannt.

Miriam Jansche ist Senior Consultant bei Detecon Inc., USA, und berät Unternehmen aus dem Telekommunikationsumfeld zu Strategie und Innova-tion.

Page 72: PDF-Download (3.95 MB)

70 Detecon Management Report blue • 1 / 2015

Big Data und das Internet der Dinge befinden sich auf dem Höhepunkt der Erwartungen. Erweisen sie sich als herausragende Innovationen für die Telekommunikationsbranche mit entsprechenden Auswirkungen auf viele andere Wirtschaftszweige? Agile Economics liefert Antworten.

er weiß schon genau, was eine Innovation so alles nach sich zieht? Klassische Innovationscontrolling-Methoden helfen nicht immer weiter. Sie funktionieren oft nach dem „Wasserfall-Prinzip“: Man beginnt mit einer Idee, erstellt eine Machbar-keitsstudie, bevor ein detailliertes Design entwickelt wird – die Dinge nehmen ihren Lauf. Bei jedem Übergang in die nächste Phase sollte der Business Case präziser sein und weniger Risiken aufweisen. Auf den ersten Blick erscheint alles gut und schön. Aber wie sieht es aus, wenn die Prämissen dieser Business Cases fast ausschließlich auf „Papierkram“ basieren?

Wasserfall-Prinzip ist für die Steuerung vieler Innovationen ungeeignet

Da nur geringe Investitionsspielräume vorhanden sind, um in der Anfangsphase marktbezogene Pilotstudien durchzuführen, führt der Mangel an einschlägigen Marktdaten dazu, dass sich Umsatzannahmen nur sehr schwer untermauern lassen. Es ist daher keine Überraschung, wenn die Blase nach einer Weile platzt und zur Enttäuschung wird. Oft wird zu wenig Geld ausgegeben, um eine echte Faktengrundlage für den Business Case zu schaffen. Das Ergebnis ist leider, dass diese Projekte zu-rückgestellt werden. Und wenn der Paradigmenwechsel endlich eingetreten ist, ist es bereits zu spät, um auf dem Markt wirklich erfolgreich zu sein. Ein Teufelskreis!

W

Agile Economics

Eine Methode zur wirtschaftlichen Bewertung und Steuerung von Innovationen wie Big Data

Controlling-Methoden müssen agiler werden, um eine stärkere Kontrolle zu erlangen und Risiken aktiv managen zu können. Agile Economics ermöglicht es, auf Innovation beruhende Ge-schäftsprinzipien in der Praxis zu testen, sodass Business Cases auf einer echten Faktengrundlage basieren. Die Methode be-ruht auf iterativen Lernzyklen, in denen über Praxistests Wissen gewonnen wird, um die Annahmen im Hinblick auf Umsatz und Kosten des Geschäftsmodells zu validieren. Sowohl Erfolge und unerwartete positive Neben effekte als auch Fakten, die den Business Case nicht unterstützen, werden erfasst. Praxisorien-tierte Pilotprojekte als Basis verringern so das Risiko der „Luft-blasenbildung“.

Prinzip I: Den Umbruch schrittweise zu verstehen lernen

Agile Economics zwingt dazu, zuerst ein Geschäftsmodell zu entwickeln und dieses dann anhand praxisorientierter Pilotpro-jekte ausreichend nachzuweisen. Die Praxistests werden nicht nur dazu verwendet, um die Technologie zu testen und poten-zielle Kosten zu schätzen, sondern auch, um die Nutzenseite des Geschäftsmodells soweit wie möglich zu validieren.

Die Verwendung praxisorientierter, geschäftsgesteuerter Tests führt dazu, dass Agile Economics durch das systematische und schrittweise Sammeln von Informationen die Erfolgswahr-

Page 73: PDF-Download (3.95 MB)

71 Detecon Management Report blue • 1 / 2015

scheinlichkeit erhöht. Der relativ kleine Umfang der Praxistests begrenzt die Anfangsinvestition und bewirkt einen Ausbruch aus dem Teufelskreis:

> Definieren und aktualisieren Sie den Business Case oder das Geschäftsmodell, indem Sie sich auf den wirtschaftlichen Wert der Informationen konzentrieren, den es im Praxistest zu defi-nieren und validieren gilt. Definieren Sie wirtschaftliche Krite-rien!

> Erstellen Sie die vorläufigen Testumfänge basierend auf der Validierung wirtschaftlicher Kriterien. Dies betrifft beispiels-weise die Auswahl der Technologie und der Testpopula tion.

> Treffen Sie die endgültige Rangfolge und Auswahl der Be-standteile des Testumfangs basierend auf erwartetem ROI oder anderen geeigneten Kriterien des Pilotprojekts.

> Führen Sie den Praxistest unter Verwendung eines Bewer-tungsrahmens durch, um die Geschäftstreiber zu validieren.

> Bewerten Sie den Praxistest mit Fokussierung auf Geschäfts-treiber und gleichzeitiger Erfassung unerwarteter Nebeneffekte.

> Validieren Sie den Business Case und treffen Sie eine Ent-scheidung über das weitere Vorgehen.

Prinzip II: Risiko und Ungewissheit zur Kenntnis nehmen

„Agile Economics kann Risiken und Ungewissheit minimieren.“, sagen Detecon-Berater Daniela Ujhelyiová und Julian Oberloer. Der Business Case-/Geschäftsmodell-Ansatz ist eine Anpassung an eine Methode, die in der Öl- und Gasindustrie vorherrschend ist. Sie basiert auf Variablen, die mit Wahrscheinlichkeitsvertei-lungen definiert werden. Da Experten hiermit eine realistischere Bewertung abgeben können, werden die Annahmen dadurch in ihrer Genauigkeit erfasst. Ein weiterer Vorteil ist, dass sie nicht nur wirtschaftsübliche Projektbewertungsdaten, sondern auch Zahlenwerte der in diesen Kriterien enthaltenen Risiken liefert. Die erforderlichen Monte-Carlo-Simulationen werden von be-währter Standardsoftware unterstützt, wobei Oracle Crystal Ball quasi den Industriestandard darstellt.

Lösung des Big-Data-Hype als zentraler Anwendungsbereich

Agile Economics passt sich aufgrund der Tatsache, dass die Methode auf dem Konzept des Informationswertes basiert, be-sonders gut in den Big-Data-Kontext ein:

> Die statistische Beschaffenheit ist stark an die Eigenheiten von Big Data angepasst.

> Da die Methode auf dem Konzept des Informationswertes basiert, werden die Kerngrößen direkt adressiert und innerhalb der Big-Data-Anwendungen validiert.

Abbildung: Agile Economics und Big Data

Quelle: Detecon

Big

Dat

a U

se C

ases

Verbesserung in %

Verbesserung in %

Verbesserung in %

Wahrscheinlichkeit

Wahrscheinlichkeit

Wahrscheinlichkeit

Informationswert(Verbesserungspotenzial)

FunktionaleAuswirkung

WirtschaftlicheAuswirkung

Volumen Kosten

Geschwindigkeit Umsatz/Kosten

Vielfalt Umsatz/Kosten

Steigert Verringert zumeist

Verbessert Agilität der Entschei-dung wirkt sich aus auf

Qualität der Entschei-dung wirkt sich aus auf

Beinhaltet

Page 74: PDF-Download (3.95 MB)

72 Detecon Management Report blue • 1 / 2015

> Da Big Data sich nach wie vor in der Hype-Phase befindet, ist es für Unternehmen sehr schwierig, fundierte wirtschaftliche Bewertungen abzugeben.

Der Big-Data-Use-Case wird in seine zentralen Auswirkungen zerlegt. Das Modell basiert auf der Big Data inhärenten 4V-Definition:*

Volume: Die Big-Data-Technologie sollte große Datenvolumen managen können. Das Versprechen von Big Data lautet, dass es diverse Terabytes im zweistelligen Bereich – das Volumen einer derzeitigen Speicherlösung – in Minuten verarbeiten und ein Gesamtvolumen im Petabyte-Bereich (= 1015 Bytes: entspricht der Größe Tausender aktueller Festplattenlaufwerke) managen kann.

Velocity: Die Big-Data-Technologie sollte große Datenvolumen schnell analysieren können. Die Leistung, die von den Big-Da-ta-Systemen versprochen wird, liegt in der Unterstützung der Right-Time-Datenverarbeitung. Unter „Right-Time“ verstehen wir, dass das Ergebnis der Datenverarbeitung dann vorliegen muss, wenn es betrieblich gebraucht wird, was nicht notwendi-gerweise in Einklang mit Echtzeit sein muss. So muss Big Data in der Lage sein, die Threads in den sozialen Medien schnell genug interpretieren zu können, um Änderungen der „Stim-mungsbilder“ aufspüren zu können, sodass die Steuerung der Kundenwahrnehmung proaktiv ermöglicht wird.

Variety: Die Big-Data-Technologie sollte unterschiedlichste Datentypen bearbeiten können. Sie sollte nicht nur Antworten in solchen Daten finden, die, ähnlich wie Bewegungsdaten wie Billing-Daten, stark strukturiert sind, sondern auch in der Lage sein, aus Quellen mit wenig oder überhaupt keiner Struktur, zum Beispiel E-Mails oder Kundenanrufen, Informationen zu ziehen.

Value ist der erwartete Net Present Value für Big-Data-Investi-tionen, der mit diesem Modell analysiert wird.

Ein Volumeneffekt, zum Beispiel aufgrund der Migration eines klassischen Data Warehouses in einen Hadoop Cluster, wirkt sich zumeist auf die Kosten aus. Aufgrund bisheriger Erfah-rungen führt das meist zu einer Kostenverbesserung pro ge-speichertem Volumen, jedoch nur mit einem gewissen Grad an Gewissheit. Daher besteht der Wert der zu validierenden In-formationen in dem Kostensenkungspotenzial, das es im Lern-zyklus zu validieren gilt. Da das Kostensenkungspotenzial von Fall zu Fall variiert, liegt das Verbesserungspotenzial in einer Verteilung.

Dr. Frank Wisselink ist Interimsmanager und Managing Consultant. Er leitet Innovations- und Strategiegroßprojekte innerhalb und außerhalb des Deutsche- Telekom-Konzerns.

Tim Horn ist Junior Business Development Manager für Big Data bei T-Systems und berät Kunden über deren innovative Anwendung.

Ein weiteres Beispiel, das sich stärker an dem Informations-wert orientiert, ist der Geschwindigkeitsaspekt bei Big Data. In diesem Zusammenhang sollte die Frage gestellt werden: „Welchen wirtschaftlichen Beitrag hat es, wenn ich dies vor-her wissen würde?“ Der Geschwindigkeitsaspekt von Big Data wirkt sich auf die Kosten aus, beispielsweise verkürzte Abwicklungszeiten im einem Call Center oder Umsatzeffekte oder ein verringerter Umsatzrückgang aufgrund optimierter Entscheidungszeiträume, die dadurch ermöglicht werden.

„Die Mehrwertschöpfung von Big Data lässt sich durch Anwendung statistischer Verfahren am besten ermitteln.“, sagt Dr. Bert Klöppel, Consulting Enterprise Architect bei T-Sys-tems.Die Vielfalt kann die Qualität von Entscheidungen durch das Kombinieren unterschiedlicher Datentypen steigern. Dies betrifft die Antwort auf folgende Frage: „Welchen wirtschaft-lichen Nutzen hätte es, wenn ich darüber vorher umfassender Bescheid wissen würde?“ Das Kombinieren stark strukturierter Daten (Bewegungsdaten) mit gering strukturierten Daten wie Social Media Feeds ist ein Beispiel dafür. Die Serviceleistung kann daher verbessert werden und ermöglicht, abhängig vom Anwendungsfall, Umsatzsteigerungen oder Kostenersparnis.

Ein anderes Beispiel für Vielfalt ist die vorausschauende War-tung. Es werden unterschiedliche Kennzahlen für Abnutzung erfasst und miteinander in Beziehung gesetzt, um Wartungen recht zeitig, also bevor sich der tatsächliche Ausfall ereignet, durch zuführen und somit Kosten zu sparen.

Bessere Steuerung von Innovationen bei schneller Time-to-Market

Da Agile Economics auf statistischer Wertschöpfungsrechnung basiert, sind die Innovationsrisiken präziser quantifizierbar und können systematisch bewertet und gemanagt werden. Mit Ein-führung dieser Methode wird das Time-to-Market verkürzt, „Paralyse durch Analyse“ verhindert und Risiken minimiert, weil die Methode auf echten Daten und nicht auf spekulativen Prognosemodellen basiert und ausdrücklich Risiken quanti-fiziert. Die Methode ist kosteneffizient, weil Ressourcen nur schrittweise und bedingt zugeteilt werden. Daher stehen mehr Gelder für Diversifizierung oder zur Erforschung anderer Mög-lichkeiten zur Verfügung. Agile Economics steigert somit die Investitionssteuerung und leistet große Unterstützung, wenn es um die Bewältigung von Big-Data-Umbrüchen geht.

* Dr. Frank Wisselink, Intelligent Business by Big Data, Detecon Opinion Paper, July 2013

Page 75: PDF-Download (3.95 MB)
Page 76: PDF-Download (3.95 MB)

Det

econ

Man

agem

ent

Rep

ort

blu

e •

1 /

2015

www.detecon-dmr.com

DMRDetecon Management Report

Ausgabe 1 / 2015blue

Internet der Dinge

Car-to-X-Technologien verändern die Zukunft :K.I.T.T. Bitte kommen!

Interview mit Hagen Rickmann, T-Systems : „Wir verstehen uns als Partner der Industrie

auf dem Weg zu Industrie 4.0“

Big Data für Telekommunikationsunternehmen : Die Sweet Spots treffen – kurzfristige Chancen intern realisieren

Künstler haben unsere Themen neu interpretiert und unsere neue Webseite mitgestaltet.

Besuchen Sie uns unter: www.detecon.com

Wir geben Kunst eine Bühne.Die neue Detecon-Webseite ist online!

Art meets Consulting

Wir stehen mit unseren Geschäftsfeldern

an einer der spannendsten Baustellen unserer Zeit:

Die Vernetzung globaler Information und Kommunikation.