Analysen
Mit Object Storage ins Zettabyte-Zeitalter
Mehr Erfahren
News
Cloud-Diät oder welche Daten sollen auf den Cloud-Teller?
Mehr Erfahren
News
Digitalisierung und Internet of Things (IoT): Muss der CIO musikalisch sein?
Mehr Erfahren
Studien
Der ITK-Budget-Benchmark: IT-Ausgaben im Vergleich
Mehr Erfahren
Analysen
Object Storage

Mit Object Storage ins Zettabyte-Zeitalter

Die wachsenden Datenmengen erfordern neue Ansätze im Bereich Storage. Dazu zählt Object Storage in Verbindung mit der Datenspeicherung in der Cloud.

Mehr erfahren
News
Cloud-Mix

Cloud-Diät oder welche Daten sollen auf den Cloud-Teller?

Welche Daten sollen auf den Cloud-Teller? Wo ist Cloud-Diät zu halten? Und wird bis 2030 jedes Unternehmen Hybrid Clouds im Einsatz haben?

Mehr erfahren
News
Digitalisierung und IoT

Digitalisierung und Internet of Things (IoT): Muss der CIO musikalisch sein?

Die Bewältigung von Digitalisierung und IoT ist nur mit der Cloud möglich – und einem musikalischen CIO. Warum? Hier sind Antworten!

Mehr erfahren
Studien
Der ITK-Budget-Benchmark

Stellen Sie Ihr ITK-Budget auf den Prüfstand

Wie verhalten sich meine IT-Ausgaben im Vergleich zu denen meiner Mitbewerber? Für viele IT-Leiter und CIOs blieb diese Frage bislang unbeantwortet. Antworten gibt nun der „ITK-Budget-Benchmark“, den die Marktbeobachter von techconsult in Zusammenarbeit mit der CANCOM-Tochter PIRONET entwickelt haben. IT-Verantwortliche erhalten nach der Eingabe weniger …

Mehr erfahren
News
27. Mai 2016

Cloud-Diät oder welche Daten sollen auf den Cloud-Teller?

Cloud-Diät oder welche Daten sollen auf den Cloud-Teller? Cloud ist „allgegenwärtig“, aber alle Daten in die Cloud? Hurra, bald beginnt die Badesaison. Wer jedoch winterspeckbedingt nicht mehr in seine Badehose respektive seinen Bikini passt, der sollte schnell noch ein paar Kilos runterhungern. Eine Woche lang nichts essen und nur Tee, Saft, Wasser und Gemüsebrühe trinken? Von einer solchen Radikalkur sei abgeraten. Sie bringt zwar kurzfristig Erfolg, aber kaum ist die Woche vorbei, steigt auch das Gewicht wieder. FDH (= Friss die Hälfte) eignet sich da schon besser. Fazit: Lieber Mittelwege suchen als Extremtouren machen. Das gilt auch für die Auslagerung von Daten in die Cloud. Will heißen: Überhaupt keine Daten auszulagern ist ebenso keine Lösung wie alle Daten in die Cloud zu schieben. Sowohl beim Essen als auch bei der Datenauslagerung empfiehlt sich das, was der Lateiner „ne quid nimis“ nennt: »von keinem zu viel« beziehungsweise »nichts im Übermaß«! Das meint auch Joel Dolisy, CIO von SolarWinds, der die SolarWinds-Studie „IT Trends Report 2016 – The Hybrid IT Evolution“ folgendermaßen kommentiert: „Die Ergebnisse der diesjährigen Studie sprechen eine deutliche Sprache: Der Einsatz der Cloud ist fast allgegenwärtig, doch sie wird weder jetzt noch in absehbarer Zukunft für alle Workloads geeignet sein. Selbst wenn es so wäre, würden – wenn überhaupt – nur sehr wenige Unternehmen sämtliche bestehenden Anwendungen in die Cloud migrieren.“ Mehr über die von SolarWinds durchgeführte Umfrage, „an der 153 IT-Profis, Manager und Führungskräfte aus kleinen, mittleren und großen Unternehmen des öffentlichen und privaten Sektors in Deutschland teilgenommen haben“, lesen Sie im „Marketwired“-Bericht „SolarWinds-Studie: Hybride IT in den meisten Unternehmen präsent, aber Qualifikationen fehlen“ … HR-Daten in die Cloud? Kommt drauf an, welche! Also: Auch wenn 85 Prozent der von SolarWinds befragten IT-Experten angeben, „dass der Einsatz von Cloud-Technologien für den langfristigen Geschäftserfolg ihrer Unternehmen wichtig ist“, so sagen fast ebenso viele der Studienteilnehmer (80 Prozent), „es sei unwahrscheinlich, dass jemals die gesamte Infrastruktur ihrer Organisation in die Cloud migriert wird.“ Dass nicht alle Daten auf den Cloud-Teller gehören, zeigt auch eine Untersuchung von Bitkom und Kienbaum, bei der „branchenübergreifend 211 Geschäftsführer, Datenschutzbeauftragte und HR-Verantwortliche aus öffentlichen und privaten Organisationen in Deutschland“ befragt wurden. „Ob und in welchem Maße sich die Personaler an Cloud-Lösungen herantrauen, hängt den Erkenntnissen der Autoren zufolge stark von der Art der dort zu verwaltenden HR-Daten ab: ‚Personalakten außerhalb des eigenen Unternehmens zu speichern, gilt fast als Tabu‘, schreiben die Autoren zu diesem Punkt.“ Weiterhin heißt es: „Gehaltsabrechnungen sowie Datenauswertungen in der Cloud erzeugen Unbehagen. Mobile Zugriffe von Personal- und Linienmanagern auf HR-Daten schätzen zwei Drittel aller Befragten als sehr kritisch ein.“ Wenn es allerdings um die Personalgewinnung geht, dann gibt es bei den Personalern kaum „Unbehagen“ im Hinblick auf die Cloud-Nutzung, wie Sie genauer im „Haufe.de“-Artikel „Datenschutz-Studie: Personaler sind keine Digitalisierungsbremsen“ nachlesen können … Hybrid Cloud bis 2030 flächendeckend im Einsatz? Was lernen wir also aus den beiden eben vorgestellten Untersuchungen? Es wird mitnichten so sein, dass irgendwann alle Daten aller Unternehmen in einer Cloud beziehungsweise in einem Mix aus verschiedenen Clouds, also einer Hybrid Cloud, lagern – auch wenn manche Meldungen diesen Anschein erwecken. So ist laut IDC die „Verbreitung von Hybrid Clouds […] im Vergleich zum Vorjahr um rund ein Drittel von 15 auf jetzt 20 Prozent gestiegen. Zusätzlich planen 57 Prozent der befragten Unternehmen den Aufbau hybrider Cloud-Umgebungen innerhalb der kommenden zwei Jahre“.  Auch die globale IBM-Studie „Growing up Hybrid: Accelerating Digital Transformation“ singt ein Loblied auf hybride Wolken: So gaben „zwei Drittel der führenden Unternehmen […] an, dass sie dank einer hybriden Cloud ihrem Wettbewerb voraus sind.“ Und nicht nur das. Auch künftige Projekte wollen sie mit der Flexibilität einer Hybrid Cloud schneller als bisher realisieren. „Zudem lassen sich, so die IBM Studie, zentrale IT-Themen wie Skalierbarkeit, Sicherheit oder Compliance über hybride Cloud-Strategien besser und einfacher abdecken.“ Bei so vielen Vorteilen fragt man sich, ob vielleicht nicht doch bis – sagen wir mal – 2030 überall Hybrid Clouds im Einsatz sind? Nun, dies ist wie gesagt kaum zu erwarten. Was jedoch die eingangs erwähnte nicht vorhandene »Bella Bade-Figura« anbelangt – dafür haben wir hier eine zappendustere Zukunftsprognose: „2030 wird kaum jemand normalgewichtig sein“. Na, wenn das so ist, dann können Sie das mit dem Abnehmen auch gleich sein lassen und einfach neue Badekleidung kaufen ;-)
News
24. Mai 2016

Digitalisierung und Internet of Things (IoT)

Digitalisierung und Internet of Things (IoT): Muss der CIO musikalisch sein? IT-Radar: CIOs haben keine Zeit für Digitalisierung Stellen Sie sich vor, Ihre Millionen-Frage bei Günther Jauch lautet: »Was ist derzeit das Thema Nummer eins auf der Agenda der CIOs?« Als Antwortmöglichkeiten stehen zur Auswahl: »Business Intelligence«, »IT-Sicherheit«, »Digitalisierung« und »Compliance«. Da würden Sie doch – ohne den Telefon- oder einen anderweitigen Joker zu bemühen – »Digitalisierung« antworten, oder? Und damit – je nachdem für welche Risikovariante Sie sich entschieden haben – auf 16.000 respektive 1.000 Euro zurückfallen. Denn der „IT-Radar für Business Process Management (BPM) und Enterprise Resource Planning (ERP)“ der Hochschulen Koblenz und Bonn-Rhein-Sieg zeigt: Digitalisierung steht auf der CIO-Liste ganz unten, genauer gesagt „auf dem zwölften und damit letzten Rang“. Dagegen halten die mehr als 100 Studienteilnehmer „folgende Themen für aktuell am wichtigsten: IT-Sicherheit, Compliance und die Integration von Prozessen und Systemen“. Fazit: Die Digitalisierung muss warten. Denn: „IT-Praktiker sind mit dem Tagesgeschäft und der Sicherung des Status-quo so beschäftigt“!?! Mehr dazu lesen Sie im „CIO.de“-Bericht: „IT-Radar BPM und ERP: Wie sich die Top-Themen der CIOs ändern“ … PS: Der Vollständigkeit halber sei noch erwähnt: Business Intelligence, das 2012 und 2013 noch auf dem vierten Platz lag, ist 2016 „auf Rang elf gerutscht“. Digitalisierung mit CIO, CPO, CDO, CC oder CD? Dass die Digitalisierung im Tagesgeschäft untergeht – das geht natürlich gar nicht. Deshalb meint Professor Andreas Gadatsch von der Hochschule Bonn-Rhein-Sieg, dass CIOs in Sachen Digitalisierung eine federführende Rolle einnehmen sollten. „Offenbar gleichrangig mit dem CIO sieht Gaddatsch einen Chief Process Officer. Übernimmt weder der eine noch der andere diese Aufgabe, würden innovative Themen […] von den Fachbereichen besetzt, […] oder sogar von neuen Rollen wie dem Chief Digital Officer.“ CIOs stehen also unter Digitalisierungsdruck – allein schon um ihre Pfründe zu wahren. Denn sonst wird ihnen das Digitalisierungsheft aus der Hand genommen. Damit dies nicht passiert, sollten sie idealerweise musikalisch sein. Doch, Sie haben schon richtig gelesen: musikalisch! Denn laut EuroCloud Deutschland_eco e. V. müssen sich CIOs „künftig vor allem um eines kümmern: die Koordination der Cloudservices, die ihre Firmen in Anspruch nehmen. […] Die Berufsbezeichnung ‚Cloud Conductor‘ (Cloud-Dirigent) sei daher passender als der herkömmliche ‚Chief Information Officer‘ (CIO)“, wie Sie  im „Cloud Computing Report“-Beitrag „EuroCloud Deutschland_eco: CIO muss ‚Cloud Conductor‘ werden“ genauer nachlesen können … EuroCloud Deutschland_eco: Ohne Cloud geht’s nicht Warum muss nun der  CIO zum Cloud Conductor (CC) beziehungsweise Cloud-Dirgenten (CD) werden? Nun, laut EuroCloud Deutschland_eco wird es künftig ohne Cloud nicht mehr gehen. Denn: „Die klassische Firmen-IT sei überhaupt nicht ausgelegt auf die Verarbeitung der zu erwartenden immensen Datenmengen, die je nach Anwendungsfall über Millionen von Eingabequellen […] in Echtzeit anfallen würden.“ Schuld an der Cloud-Alternativlosigkeit ist somit das Internet der Dinge. So sagt Andreas Weiss, Direktor EuroCloud Deutschland_eco e. V.: „Bei heute schon über 20 Milliarden vernetzten Geräten weltweit – Tendenz steigend – stößt die klassische IT an ihre Grenzen.“ Laut Weiss sei „allein die Verarbeitung der zu erwartenden extrem großen Datenvolumina […] künftig selbst für Konzerne in den eigenen Rechenzentren nicht mehr zu leisten“. Zitat Weiss: „Das Internet der Dinge, bei dem jedes Gerät von der Armbanduhr über die Kaffeemaschine und das Auto bis hin zu technischen Anlagen im Sekundentakt ständig neue Daten übermittelt, wird von keinem Firmen-Rechenzentrum zu bewältigen sein.“ Gartner: 2016 „ein großes Jahr für das IoT“ Dass das Internet der Dinge keine Zukunftsmusik mehr ist, zeigt eine aktuelle Gartner-Umfrage unter 465 IT- und Business-Managern rund um den Globus und quer durch alle Branchen. Demnach werden „noch in diesem Jahr […] 43 Prozent der Unternehmen IoT-Lösungen einsetzen. Im Vergleich zum Vorjahr bedeutet das eine Steigerung um 50 Prozent. Weitere 21 Prozente wollen 2017 auf den IoT-Zug aufspringen.“ Gut, 10 Prozent der befragten Unternehmen glauben immer noch, „auch langfristig komplett auf das IoT verzichten zu können“. Allerdings hat sich laut Jim Tully, Vice-President und Chef-Analyst bei Gartner, hier der Wind nun gedreht: „Wir sehen gerade einen merklichen Umschwung hin zu IoT-Szenarien, die vor allen den Kundennutzen ins Auge fassen. IoT-Programme werden schon in diesem Jahr zu einem Schlüssel für die Wettbewerbsfähigkeit von Unternehmen […].“ Somit wird laut Gartner 2016 „ein großes Jahr für das IoT. Die Anzahl von Implementationen und die Vielfalt von IoT-Szenarien würden erheblich zulegen, praktisch alle Branchen erfassen und gleichsam zum Mainstream werden“, wie Sie im „Computerwoche“-Bericht „Durchbruch für das Internet of Things in diesem Jahr“ genauer nachlesen können. Und was heißt das für die CIOs? Sie müssen die Digitalisierung ganz oben auf ihre Agenda setzen – egal ob als CIO, CPO, CDO oder musikalischer CC beziehungsweise CD ;-) PS: „Wie CIOs mit PaaS das IoT in den Griff bekommen“ lesen Sie im gleichnamigen silicon.de-Beitrag.  
Analysen
20. Mai 2016

Mit Object Storage ins Zettabyte-Zeitalter

Mit Object Storage ins Zettabyte-Zeitalter „Daten sind das Öl der Wissensgesellschaft“, diese Aussage ist häufig zu hören, von Wirtschaftsfachleuten, Unternehmern und Wissenschaftlern. Und sie haben Recht. Denn High-End-Technologien wie das Internet der Dinge (IoT, Internet of Things), Industrie 4.0 und selbstfahrende Autos sind ohne das Bearbeiten, Speichern und Übermitteln von Daten ebenso wenig denkbar wie triviale Vorgänge wie das Schreiben einer E-Mail oder der Einkauf bei einem Online-Versender. Doch dieses „Öl“ fällt mittlerweile in derart großen Mengen an, dass klassische Storage-Umgebungen damit Probleme bekommen. So kommt eine Studie, die das Marktforschungsunternehmen IDC im Auftrag des Storage-Spezialisten EMC erstellte, zu dem Schluss, dass der weltweite Datenbestand bis 2020 auf 44 Zettabyte anwachsen wird. Im Jahr 2013 lag er noch bei 4,4 Zettabyte. Zum Vergleich: 1 Zettabyte entspricht einer Milliarde Terabyte. Daran „schuld“ sind nicht nur Dokumente, Bilder und Videos, die Unternehmen und private User speichern. Das Marktforschungsunternehmen Gartner geht beispielsweise davon aus, dass im Jahr 2020 weltweit rund 20 Milliarden IoT-Komponenten (Internet of Things) im Einsatz sind, etwa Sensoren und RFID-Chips in Maschinen, Haushaltsgeräten, Fahrzeugen und intelligenten Kleidungsstücken. Hinzu kommen medizinische Daten, ERP-Archive (Enterprise Resource Planning) und Web-Content. Laut IDC steigt der weltweite Datenbestand bis zum Jahr 2020 auf 44 Zettabyte an. Das entspricht über 40 Milliarden Terabyte-Festplatten. Bild: IDC / EMC Spagat zwischen Kosten, Performance und Datenflut Diese Entwicklung setzt die IT-Abteilungen unter Druck. Denn die müssen einerseits dafür Sorge tragen, dass für die rapide wachsenden Datenmengen genügend Speicherkapazitäten vorhanden sind. Andererseits dürfen jedoch die Kosten nicht aus dem Ruder laufen, weil vorhandene Speichersysteme ausgebaut beziehungsweise neue angeschafft werden müssen. Doch häufig sind die Speichertechnologien, die in Unternehmensnetzen eingesetzt werden, nur bedingt für rapide zunehmende Datenmengen gerüstet. Das gilt insbesondere für Informationen, die in strukturierter Form oder als halb- und unstrukturierte Daten vorliegen: als Fotos, Tabellen, Videos, E-Mails, Word- und PDF-Dateien, Archivdaten et cetera. Der klassische Ansatz: Datei- und blockbasierte Speicherstrukturen Derzeit dominieren bei Storage-Systemen zwei Ansätze: Dateibasierte (File) und blockorientierte Technologien. File-orientierte Verfahren kommen vorzugsweise bei Network-Attached-Storage-Systemen (NAS) zum Einsatz. Protokolle von CIFS (Common Internet File System), NFS (Network File System) und SMB (Server Message Block) legen Daten in einer hierarchischen Datei- und Verzeichnisstruktur auf einem Netzwerkspeicher ab. Nutzer können von unterschiedlichen Systemen aus auf diese Informationen zugreifen. Laut dem Visual Networking Index (VNI) von Cisco steigt das Volumen des weltweiten IP-Traffics bis 2019 auf 168 Exabyte pro Monat. Bild: Cisco Ein Nachteil von File-basierten Systemen: Wo auf einem physischen Datenträger, etwa den SSDs oder Festplatten eines NAS-Systems, die Daten lagern, wem sie „gehören“ und wer gerade auf sie zugreift, ist in Meta-Daten festgelegt. Je mehr Dateien vorhanden sind, desto komplexer wird das Verzeichnis dieser Meta-Daten und desto aufwändiger ist deren Verwaltung. Das schlägt sich negativ auf die Performance der Speichersysteme nieder. Hinzu kommt, dass sich NAS-Systeme nicht sonderlich gut skalieren lassen. Auch in diesem Fall erweist sich die hierarchische Dateistruktur mit einem begrenzten „Namensraum“ (Namespace) als Bremsklotz. Blockorientierte Techniken für iSCSI und SAN Vor allem in Speichernetzen (Storage Area Networks, SANs) kommen blockorientierte Speicherverfahren zum Zuge. Ein Block ist ein Rohdatensegment fester Größe, das über Schnittstellen und Protokolle wie Fibre Channel (FC), iSCSI oder Fibre Channel over Ethernet (FCoE) angesprochen wird. Ein Datenblock verfügt über keine Meta-Daten. Als Kontrollinstanz dient vielmehr das Server-Betriebssystem. Es verfügt über die Informationen, auf welchen Storage-Ressourcen welche Datenblöcke abgelegt sind und wer Zugriff darauf hat. Aus Sicht eines Endsystems (Client) stellt sich Block-orientierter Speicher wie eine Festplatte dar. Allerdings können die Datenblöcke auf diverse Speichermedien verteilt werden. Zu den größten Vorteilen von Block-Storage zählt die hohe Performance, sprich geringe Verzögerungszeiten beim Datenzugriff. Der Grund ist, dass auf keine File-Systeme wie EXT3 Rücksicht genommen werden muss. Hinzu kommt die hohe Zuverlässigkeit von Block-Storage-Systemen. Die drei Storage-Technologien im Überblick - Bild: Canonical Zu den Nachteilen zählen die relativ hohen Kosten solcher Systeme und die eingeschränkte Skalierbarkeit. Daher werden Block-Storage-Komponenten meist in einem Rechenzentrum konzentriert. Große, räumlich verteilte Storage-Umgebungen, erhöhen die Komplexität und Managementkosten. Doch gerade solche Speicher-Strategien liegen derzeit im Trend. So „wandern“ Daten verstärkt in externe Rechenzentren, etwa Cloud-Datacenter. In einer Cloud lassen sich Daten auf einfache und kostengünstige Weise archivieren. Außerdem können Nutzer Daten und virtuelle Maschinen (Virtual Machines) in eine Cloud „replizieren“. Nach Ausfall von IT-Systemen im eigenen Rechenzentrum stehen diese Ressourcen dann schnell wieder zur Verfügung, Stichwort Disaster Recovery. Object Storage – der neue „Star“ am Storage-Himmel Anders liegt der Fall bei einer relativ jungen Technik: Object Storage. Sie organisiert Daten in Objekten. Ein Objekt besteht aus drei Elementen: Den eigentlichen Daten: Diese können in unterschiedlicher Form und Größe vorliegen, vom Word-Dokument über Fotos bis hin zu einem 1000 Seiten starken Handbuch für eine Werkzeugmaschine. Einem variablen Bestand an Meta-Daten, die der Nutzer definieren kann: Sie enthalten beispielsweise Informationen über die Art der Informationen, ihren Verwendungszweck, die Zugriffberechtigung, die Vertraulichkeitsstufe etc. Ein Vorteil ist, dass sich diese Meta-Daten nach Bedarf anpassen lassen. So kann der Nutzer ergänzende Informationen hinzufügen, etwa auf welchen Speichersystemen an welchen Standorten Objekte abgelegt werden sollen, etwa im Rechenzentrum eines Cloud-Service-Providers. Einer eindeutigen ID („Object Identifier“): Sie ermöglicht es, den Speicherort jedes Objekts zu ermitteln, auch dann, wenn Daten auf unterschiedlichen Storage-Systemen gespeichert werden. Ein Object-Storage-System kommt ohne File-System und Datenblöcke aus. Die Objekte werden direkt von den Anwendungen beziehungsweise Mobile Apps angesprochen. Das erfolgt über das http-Protokoll oder RESTful APIs (Representational State Transfer Application Programming Interfaces). Beim objektorientierten Speicher gibt es zudem keine Verzeichnisstruktur und Mount-Punkte. Ein Index sorgt dafür, dass die Objekte anhand ihrer ID schnell wiedergefunden werden können. Dieser Index ist deutlich einfacher zu handhaben als die Informationen, die bei block- und dateiorientierten Speichertechniken verwaltet werden. Ein weiteres Element von objektorientierten Daten und entsprechenden Storage-Lösungen ist ein „Global Namespace“. Er ermöglicht eine logische Sicht auf die Storage-Ressourcen, unabhängig davon, auf welcher Technologie diese basieren und an welchem Standort sich die Speichersysteme befinden. Der Vorteil: Daten können auf Storage-Komponenten in einer Cloud und im Unternehmensrechenzentrum verteilt werden und lassen sich dennoch zentral verwalten. Die Struktur eines Objekts: Es besteht aus den Nutzdaten sowie system- und nutzerbezogenen Meta-Informationen. Hinzu kommt eine eindeutige ID für jedes Objekt. Bild: HDS Vorteile: Ausfallsicherheit und Skalierbarkeit Zu den größten Vorteilen von Object Storage zählt die Skalierbarkeit. Die Speicherressourcen lassen sich nach Belieben um weitere „Storage-Knoten“ (Nodes) erweitern, ohne dass die Performance leidet. Hinzu kommt die hohe Fehlertoleranz, vor allem in Verbindung mit Object-Storage-Services aus der Cloud. Je nach Anforderung lässt sich ein Objekt parallel in drei, vier oder noch mehr Nodes ablegen. Diese können an unterschiedlichen Standorten platziert werden, etwa mehreren Rechenzentren eines Cloud-Service-Providers. Fallen Speicherknoten aus, sind die Informationen dennoch verfügbar. Eine weitere Sicherheitsmaßnahme ist das „Erasure Coding“. Die Technologie arbeitet ähnlich wie RAID und ermöglicht es, Daten anhand von Paritätsinformationen wiederherzustellen. Beide Techniken – das Speichern von Objekten auf mehreren Nodes und Erasure Encoding – ermöglichen es, wichtige Informationen gegen Verlust abzusichern. Das gilt vor allem dann, wenn neben dem unternehmenseigenen Datacenter ein externes Cloud-Rechenzentrum als Speicherort genutzt wird. Dann hat der Anwender die Gewähr, dass sich auch nach massiven IT-Problemen Datenbestände wiederherstellen lassen. Tabelle: Techtarget Für welche Aufgaben Object Storage in Frage kommt Nach Einschätzung des amerikanischen IT-Beratungshauses ESG eignen sich Object-Storage-Lösungen vor allem für das Archivieren von Daten, auch von heterogenen Informationsbeständen mit Dokumenten, Bild- und Videodaten sowie Informationen aus den Bereichen Internet der Dinge (IoT, Internet of Things) und M2M-Kommunikation (Machine-to-Machine). Gleiches gilt für Informationen, die aus rechtlichen Gründen lange Zeit vorgehalten werden müssen, etwa Finanz- und medizinische Daten. ESG zufolge bietet es sich für Unternehmen und Organisationen an, objektbasierte Storage-Ressourcen im eigenen Rechenzentrum mit solchen bei einem Cloud Service Provider zu kombinieren. Das hat mehrere Vorteile: eine bessere Absicherung der Daten und die Gewähr, dass der Speicherplatz in der Cloud bei Bedarf erweitert werden kann. Da Object Storage keine kostspielige Storage-Infrastruktur voraussetzt, halten sich bei diesem Modell zudem die Kosten in Grenzen. Konsolidierung der Backup- und Storage-Infrastruktur Objektbasierte Speicherdienste, die ein Unternehmen aus der Cloud bezieht, eröffnen jedoch weitere Optionen. ESG sieht beispielsweise im Bereich Konsolidierung von Backup-Zielsystemen („Targets“) und File-Servern ein lohnendes Einsatzfeld. So lassen sich Daten von NAS-Systemen und Dateiservern auf Object-Storage-Systeme auslagern. Backup-Software führender Anbieter unterstützt mittlerweile entsprechende Cloud-Protokolle wie Amazon S3. Bei der Auswahl eines entsprechenden Cloud Service Providers sollten Unternehmen daher darauf achten, dass dieser De-facto-Standards wie S3 unterstützt. Ein weiterer Punkt, den es zu beachten gilt, ist der Datenschutz. Juristisch auf der sicheren Seite sind Anwender, die Object-Storage-Services bei einem Service-Provider mit Sitz in Deutschland buchen. Denn spätestens seitdem der Europäische Gerichtshof das Safe-Harbor-Abkommen für obsolet erklärte, dürfen personenbezogene Daten nur in Rechenzentren in Deutschland oder der EU bearbeitet werden. Fazit Mit Object Storage hat eine Speichertechnologie die Bühne betreten, die Unternehmen vor allem im Zusammenspiel mit Public-Cloud-Services erhebliche Vorteile bietet. Das heißt jedoch nicht, dass block- und File-orientierte Verfahren „out“ sind. Sie kommen dort zum Zuge, wo Daten schnellstmöglich und mit geringen Latenzzeiten bereitbestellt werden müssen, etwa im Bereich Online-Transaktionsverarbeitung. In vielen anderen Anwendungsfeldern dagegen ist Object Storage aus der Cloud eine exzellente Alternative.
News
17. Mai 2016

German-Cloud-Angst? Mittelstand findet die Cloud „great“!

German-Cloud-Angst? Mittelstand findet die Cloud „great“! Cloud-Bedenken in Deutschland: kulturell bedingt Was ist der Unterschied zwischen einem Deutschen und einem Amerikaner? Der Kabarettist Sebastian Pufpaff bringt es auf den Punkt: „Wir meckern immer nur rum. […] Der Amerikaner ist da ganz anders. Den Amerikaner können Sie mitten in der Nacht wecken und fragen: Wie isses? – „Great!“ Ja, stimmt: great, amazing, awesome, excellent, fantastic, incredible, unbelievable, wonderful – die Amerikaner sprühen nur so vor Begeisterung und Optimismus. Somit probieren sie neue Technologien wie Cloud Computing einfach aus – ganz im Gegensatz zu uns Deutschen: „Die ‚Just Do It‘-Mentalität sowie Try and Error sind hierzulande eher verpönt“. Warum? Karsten Leclerque, Principal Consultant – Outsourcing & Cloud bei Pierre Audoin Consultants (PAC), hat dazu folgende Erklärung: „Deutschland ist ein Land der Ingenieure. Das heißt, ein Produkt muss komplett ausgereift und funktionsfähig sein, bevor es auf den Markt kommt […].“ Auch Lynn Thorenz, Senior Director Research & Consulting bei IDC, meint, dass die Vorbehalte gegenüber Cloud Computing in Deutschland eine „kulturelle Komponente“ haben. Sie sagt: „Der für die deutsche Wirtschaft prägende Mittelstand ist bekannt für seine konservative Einstellung bei der Adaption neuer Technologien. Dieses Unbehagen gegenüber der Cloud bei Datenschutz und IT-Security wurde schließlich durch den NSA-Skandal weiter befeuert.“ Allerdings gibt es noch eine typische deutsche Eigenschaft, die sich in punkto Cloud Computing jetzt Bahn zu brechen scheint: Pragmatismus! Zumindest zeigt die aktuelle IDC-Studie „Hybrid Cloud in Deutschland 2015/16“, dass die „Sicherheitsbedenken beim Aufbau von Cloud-Umgebungen im letzten Jahr erheblich abnahmen“, wie Sie im „Computerwoche“-Bericht „Pragmatismus verdrängt die Cloud-Angst“ genauer nachlesen können … Cloud im Mittelstand: Vorteile zerschlagen Bedenken Wenn es also ganz so aussieht, als hätte der deutsche Mittelstand die Empfehlung von Sebastian Pufpaff „Seien Sie amerikanisch!“ beherzigt, so liegt der wahre Grund der abnehmenden Wolkenbedenken darin, dass die Cloud einfach zu viele Vorteile hat, als dass man weiterhin abwartet. In diesem Sinne sagt Karsten Leclerque von PAC: „Unternehmen handeln mittlerweile pragmatischer, da sie die Vorteile der Cloud wie Flexibilität, Skalierbarkeit und niedrigere Kosten erkennen. Zudem ist ihnen klar, dass sie sich mit der Cloud beschäftigen müssen, um künftig im hartumkämpften Wettbewerb nicht unter die Räder zu geraten […].“ Trotzdem sind deutsche Unternehmen von einem „great“ gegenüber der Cloud weit entfernt. Denn in Deutschland haben wir nun mal weltweit die strengsten Datenschutzgesetze, so dass wolkenwillige Unternehmen prüfen müssen, „ob die verschiedenen Cloud-Anbieter, Betreiber von Rechenzentren und deren Partner auch alle Compliance-Anforderungen erfüllen“, so Leclerque. Damit dürfte niemanden wundern, was die Capgemini-Studie „IT-Trends 2016“ zu Tage gefördert hat: „Bei Cloud-Anbietern ist der Standort des Rechenzentrums entscheidend. Wenn Leistungen von einem Anbieter eingekauft werden, sind die wichtigsten Auswahlkriterien, dass der Speicherort der Daten bekannt ist und das Rechenzentrum in Kontinentaleuropa steht.“ Mehr dazu lesen Sie in der Capgemini-Studie auf Seite 22f … Cloud-Rechenzentrum bietet mehr Sicherheit Was lässt sich noch tun, um die „German-Cloud-Angst“ (weiter) schwinden zu lassen? Einen Tipp hat hierzu Lynn Thorenz: „Der IDC-Analystin zufolge sollten die Unternehmen […] die Ebenen Datenschutz und IT-Security getrennt sehen. Das Thema Datenschutz bezieht sich laut Thorenz auf die rechtliche Seite und den Zugriff auf die Daten […]. IT-Security umfasst dagegen Themen wie das sichere Speichern von Daten, Verschlüsselung, Backup & Recovery etc.“ Trifft man diese Unterscheidung, wozu übrigens Crisp Research Analyst René Büst schon seit über einem Jahr dringend rät, dann wird schnell ein weiterer großer Cloud-Vorteil klar: Ein Cloud-Rechenzentrum ist gegenüber den Servern im firmeneigenen Keller deutlich sicherer. Denn, wie Lynn Thorenz sagt: „Bei IT-Security sind die Cloud-Provider bestens aufgestellt, da sie aktuellste Sicherheitstechnologie einsetzen und IT-Sicherheit zu ihrem Kerngeschäft gehört. Einen vergleichbar hohen Sicherheitsstandard können Unternehmen kaum in ihrem eigenen Rechenzentrum zu vertretbaren Kosten herstellen.“ Ja, werte Frau Thorenz, das ist Wasser auf unsere Mühlen. Schon seit drei Jahren predigen wir: „Das Firmenrechenzentrum ist – leider – keine Burg“. Insofern: Gut, wenn auch IDC das jetzt einmal explizit sagt. Das finden wir „great!“ :-)
News
13. Mai 2016

Digitalisierungsbremse Fachkräftemangel?

Digitalisierungsbremse Fachkräftemangel? KMU: Nachlassende Innovationskraft Herrenknecht, Otto Bock, Lürssen Maritime Beteiligungen, Delo, Windmöller & Hölscher, Grimme Landmaschinenfabrik, Haver & Boecker, Duravit, Kaeser, Peri – Sie haben diese zehn Unternehmensnamen noch nie gehört? Nun, es handelt sich hier um die „Top 10 der Weltmarktführer im deutschen Mittelstand“ – und jetzt wissen Sie auch, warum man diese Firmen neudeutsch »Hidden Champions« nennt. Vor allem diese »unsichtbaren Meister« und generell alle kleinen und mittelständischen Unternehmen (KMU) in Deutschland „werden aufgrund ihrer großen Bedeutung für Beschäftigung und Innovation gemeinhin als eine der besonderen Stärken der deutschen Wirtschaft bezeichnet“. Doch jetzt zeigt das neue Jahresgutachten der Expertenkommission Forschung und Innovation (EFI), „dass die Bereitschaft der KMU, in Innovationstätigkeiten sowie in Forschungsprojekte zu investieren, seit Jahren abgenommen hat“. Und das ist noch nicht alles. Das Gutachten kommt auch zu dem Ergebnis, „dass Deutschland weder in der klassischen IKT-Branche […] noch in den neuen, internetbasierten Bereichen der digitalen Wirtschaft wie Cloud-Computing oder Big Data besondere Stärken aufbauen konnte“. Das kann doch nicht sein?! Mehr dazu lesen Sie im „Mittelstand in Bayern“-Bericht „Expertenkommission: Mittelstand investiert zunehmend weniger in Innovation und Forschung“ … „Hemmschuhe“: Mangel an Förderung und Fachkräften Woran liegt das? Was sind die Gründe für die nachlassende Innovationskraft des deutschen Mittelstandes? Die EFI hat darauf zwei Antworten: Erstens werden in Deutschland „nur 14 Prozent der Ausgaben für Forschung und Entwicklung (FuE) von KMU aus staatlichen Quellen finanziert“, während die Förderung in anderen Ländern „mehr als doppelt so hoch“ ist. Und Innovationshemmer Nummer zwei ist laut EFI-Gutachten der Fachkräftemangel. Zu einem ähnlichen Ergebnis kommt auch eine Studie von Ernst & Young (EY), bei der 3.000 Betriebe des deutschen Mittelstands befragt wurden: „Die größten Hemmschuhe [bei der Digitalisierung] sind demnach zu kleine Budgets, Fachkräftemangel oder fehlendes Wissen im eigenen Betrieb.“ Damit geraten die kleinen gegenüber den großen Firmen ins Hintertreffen, und das „obwohl gerade sie von den Früchten der Digitalisierung profitieren könnten“. Genaueres dazu erfahren Sie im „Wirtschaftswoche“-Artikel „Studie: Deutschem Mittelstand droht digitale Zweiklassengesellschaft“ … PS: Das vollständige EFI-Gutachten finden Sie hier zum kostenfreien Download. „Mythos 7: Deutschland steht vor einem Fachkräftemangel“ Allerdings wollen wir hier nicht in ein großes Fachkräftemangel-Lamento verfallen (schon gar nicht kurz vor dem »be-geist-ernden« Fest Pfingsten), sondern auf Thomas Straubhaar verweisen. Der Leiter des Hamburgischen Welt-Wirtschafts-Instituts (HWWI) und Professor für Internationale Wirtschaftsbeziehungen an der Hamburger Universität hat gerade ein Buch herausgebracht: „Der Untergang ist abgesagt. Wider die Mythen des demografischen Wandels“. Darin widerlegt der renommierte Ökonom zehn Mythen des demographischen Wandels – auch „Mythos 7: Deutschland steht vor einem Fachkräftemangel“. Sollten Sie im Augenblick keine Zeit für die Lektüre des neuesten Straubhaar-Buches haben, so lesen Sie zumindest seinen „ZEIT“-Artikel „Der Fachkräftemangel ist ein Phantom“, in dem er zeigt, dass die Digitalisierung die demografischen Effekte ausgleicht. Übrigens: Das probate Mittel von PIRONET gegen den Fachkräftemangel heißt, den Nachwuchs selbst heranzuziehen. So bilden wir aktuell rund ein Dutzend junge Menschen zu IT- und Cloud-Spezialisten aus und sorgen somit für unsere Fachkräfte von morgen! Apropos morgen beziehungsweise übermorgen: Frohe Pfingsten! :-)
News
10. Mai 2016

Hybrid Cloud und Digitalisierung: Lassen Sie sich nicht verrückt machen!

Hybrid Cloud und Digitalisierung: Lassen Sie sich nicht verrückt machen! Hybrid Cloud als „Wegbereiter für die Digitalisierung“ Erst einmal: Eine Runde Verständnis für all die Unternehmen, welche die Plattitüde »Die Digitalisierung ist in aller Munde« nicht mehr lesen oder hören wollen – ebenso wie den Satz, dass »heute nicht mehr die Großen die Kleinen schlucken, sondern die Schnellen die Langsamen«. Und dass all diejenigen, die jetzt noch nicht mitten im digitalen Transformationsprozess stecken, schon so gut wie tot sind. Diese Aussagen sind zwar nicht falsch, denn: An der Digitalisierung wird über kurz oder lang kein Unternehmen vorbeikommen. Doch ist eine solche Drohkulisse (noch) notwendig? Dass die Digitalisierung eine notwendige Maßnahme ist, scheint nämlich inzwischen verstanden worden zu sein, wie unter anderem eine aktuelle Studie von EMC zeigt: 87 Prozent der befragten Unternehmen in Deutschland haben „bereits eine Hybrid-Cloud-Umgebung etabliert oder planen dies in naher Zukunft“. Damit wird von den deutschen Unternehmen ganz bewusst die Voraussetzung für die Digitalisierung geschaffen. Denn: „Insgesamt 79 Prozent der deutschen Betriebe sehen solche [Hybrid-Cloud-]Umgebungen als Wegbereiter für die Digitalisierung ihres Unternehmens.“ Kurzum: Die Unternehmen sind gerade mitten im digitalen Wandel, der keinesfalls übers Knie gebrochen werden sollte, auch wenn 73 Prozent der deutschen Studienteilnehmer der Aussage zustimmen, dass Hybrid Clouds die Infrastrukturkosten im Unternehmen „erheblich“ reduzieren. Vielmehr „sei vor Schnellschüssen gewarnt“. In diesem Sinne: Lassen Sie sich nicht verrückt machen, sondern lesen Sie in aller Ruhe den „IT-Zoom“-Beitrag „Hybride Cloud verspricht Flexibilität“ … Den großen Trend Hybrid Cloud in kleinen Schritten realisieren Operative Hektik ist weder bei der Digitalisierung im Allgemeinen noch beim Etablieren von Hybrid-Cloud-Umgebungen das Mittel der Wahl. Vielmehr ist grundsätzlich empfehlenswert, „in kleinen Schritten vorzugehen. So können erst einzelne Prozesse wie Kommunikationsanwendungen oder Entwicklungsumgebungen in die Cloud migriert werden, um Erfahrungen zu sammeln.“ Dieser Meinung ist nicht nur Interxion Deutschland-Geschäftsführer Peter Knapp, sondern auch Stefan Haffner, Director Innovation von Campana & Schott. Er sagt: „Da jedes Unternehmen andere Prozesse einsetzt, ist eine Pauschalaussage über die effektive Integration der Hybrid-Cloud-Idee fahrlässig.“ Vielmehr empfiehlt auch er einen „Einstieg mit einem konkreten Szenario […], z.B. bei Kommunikations-Tools. Seiner Meinung nach lassen sich Collaboration-Prozesse mit Externen gut über die Cloud abbilden „und intern – für Daten, die man nicht in die Cloud speichern möchte – über On-Premise-Installationen“. Sie sehen: Bei der Hybrid-Cloud sind keine Hauruck-Aktionen notwendig, vielmehr lässt sie sich häppchenweise einführen. Wahrscheinlich ist dies mit ein Grund, warum die Hybrid Cloud zu den fünf großen Cloud-Trends dieses Jahres gehört, die Crisp Research ausgemacht hat: Auf Platz zwei steht hier die „Hybrid- und Multi-Cloud-Integration“. Der Grund dafür ist laut Crisp Research, Sie ahnen es schon, die digitale Transformation: Dadurch „stehen CIOs vor der Herausforderung, neben der Einführung neuartiger Infrastruktur- und IT-Umgebungen zur Unterstützung moderner Workloads, ihre Legacy- und Compliance-kritischen Systeme nicht zu vernachlässigen“. Mit der Hybrid Cloud können CIOs diese Aufgabe besser bewältigen. Im „CIO.de“-Beitrag „Die 5 wichtigsten Cloud-Trends 2016“ von Crisp Research-Analyst René Büst lesen Sie mehr über den Hybrid-Cloud-Boom und die weiteren vier Wolkentrends …
News
06. Mai 2016

Gute Laune bei den CIOs dank Digitalisierung

Gute Laune bei den CIOs dank Digitalisierung Digitalisierung: Chefs „lassen kümmern“ Haben Sie (zu) viel zu tun im Büro? Fühlen Sie sich ständig gestresst und unter Druck? Prima! Denn eine aktuelle Studie der New Yorker Columbia University zeigt: „Stress im Beruf tut gut und fördert die Laune.“ Und nicht nur das: Wer besonders viel arbeitet, der tut etwas für seine Selbstachtung: „Die hohen Arbeitsanforderungen einigermaßen auf die Reihe zu bekommen, stärke das Selbstwertgefühl eines Mitarbeiters, heißt es in dem Bericht.“ Damit dürften alle CIOs vor Selbstachtung nur so strotzen. Denn die bekommen vom CEO im Augenblick die gesamte Digitalisierung auf den Schreibtisch gekippt. Zumindest zeigt eine aktuelle Lünendonk-Studie, bei der 103 Großunternehmen zu ihrem Umgang mit Digitalisierung befragt wurden: „Chefs überlassen den Bereich gerne der direkt unter ihnen angesiedelten Ebene, sie kümmern sich nicht, sie lassen kümmern.“ Dies ist jedoch laut Peter Buxmann, Professor für Wirtschaftsinformatik an der TU Darmstadt, „der falsche Weg“. Gut, dass der CEO diese Mammutaufgabe nicht alleine stemmen kann, leuchtet ein. Jedoch solle die digitale Transformation „idealerweise in einem Team aus Vorstand, CIO und Fachabteilungen umgesetzt werden“. Details zu den Studienergebnissen lesen Sie im „CIO.de“-Bericht „Studie zeigt Schwachstellen: Digitalisierung leider keine Chefsache“ … CIOs: Unsichere Sicherheitseinschätzung Dabei haben CIOs gleich doppelt die Möglichkeit, Ihr Selbstwertgefühl durch noch mehr Arbeit zu stärken: Denn Sie werden zum einen vom CEO oft mit der Digitalisierung allein gelassen – laut Lünendonk-Studie ist das Thema „vielfach noch nicht im Top-Management angekommen“. Zum anderen sind ihnen nicht selten auch die Fachabteilungen keine Hilfe: „Nur knapp 30 Prozent der Befragten gaben an, dass Fachbereiche die IT frühzeitig in Digitalisierungsprojekte einbinden.“ Und was passiert, wenn die Fachbereiche ihr eigenes »digitales Süppchen« kochen? Richtig: Die IT-Sicherheit leidet. Um die scheint es in vielen Unternehmen ohnehin nicht besonders gut bestellt zu sein. Dies zeigt eine aktuelle IT-Security-Studie von IBM, bei der „700 Führungskräfte aus 28 Ländern in 18 Branchen mit einem ‚C‘ im Titel“ befragt wurden. Eines der Ergebnisse: „Zwei Drittel glaubten, ihr Unternehmen sei gut gerüstet gegen Sicherheitsrisiken. Nachweisen konnten das aber weniger als ein Fünftel“. Somit wiegen sich die Chefs in einer trügerischen Sicherheit, und zwar auch die, die es besser wissen müssten, also die CIOs: Von denen glauben drei Viertel (76 Prozent), „ihre Organisation sei beim Thema Cybersicherheit sehr gut aufgestellt. […] Dabei stellte IBM fest, dass diese Behauptung bei gezieltem Nachfragen nur bei 17 Prozent der Unternehmen haltbar ist.“ Mehr dazu lesen Sie im „Linux-Magazin“-Artikel „Chefs irren bei der Sicherheit“ … CIOs sicherheitsbewusster als CxOs, aber … Allerdings gibt es noch eine andere Studie von IBM, bei der mehr als 5.200 Entscheider befragt wurden (darunter über 1.800 CIOs), wo sie die Stellschrauben für die Digitalisierung sehen. Diese Untersuchung zeigt, dass bei den CIOs das Thema Sicherheit höchste Priorität hat – im Gegensatz zu anderen CxOs: „Insgesamt 76 Prozent der CIOs nennen das [Thema Sicherheit] als Priorität. Unter den CxOs sind es 67 Prozent.“ Dennoch gibt es Schelte für die CIOs vonseiten IBM, und zwar im Hinblick auf den Einsatz zukunftsweisender Technologien und ihre Einschätzung, an welchen externen Faktoren sich ein Unternehmen auf den Weg in die Digitalisierung orientieren sollte. Genaueres dazu lesen Sie im „CIO.de“-Beitrag „Stellschrauben der Digitalisierung – Wo CIOs daneben liegen“. Fazit: CIOs haben im Hinblick auf die Digitalisierung besonders viel zu tun, womit Sie laut der eingangs zitierten Columbia-University-Studie besonders gut gelaunt sein müssten :-)
News
04. Mai 2016

Helmpflicht beim mobilen Zugriff auf Unternehmensdaten

Helmpflicht beim mobilen Zugriff auf Unternehmensdaten Mobile Sicherheit in Unternehmen? Fehlanzeige! Fahrradfahren ohne Helm? Geht gar nicht – Schädelhirntrauma vorprogrammiert. Ohne Sicherheitsgurt im Auto durch die Lande brausen? An dieses Vergnügen können wir uns – wenn überhaupt – nur noch vage erinnern. Viel zu gefährlich. Und auch ein Flugzeug betreten wir natürlich nur, wenn wir dem vorausgegangenen Sicherheitscheck vertrauen können. Mobile Sicherheit ist in unserem alltäglichen Leben fest verankert – so lange keine mobilen Endgeräte im Spiel sind: Denn noch immer nehmen erstaunlich viele Unternehmen den Schutz von vertraulichen Geschäftsinformationen, auf die Mitarbeiter mit Mobilgeräten zugreifen, auf die leichte Schulter. Und das, obwohl 56 Prozent der auf Firmen-PCs abrufbaren Daten auch mobil verfügbar sind. Zu diesem Ergebnis kommt eine Umfrage des Ponemon Institute Research unter 588 IT- und Sicherheitsexperten aus den Global 2000-Unternehmen. „Tatsächlich wissen 44 der Befragten noch nicht einmal, auf welche Arten von Unternehmensdaten Mitarbeiter mit ihren Mobilgeräten Zugriff haben.“ Gleichzeitig sind sich die Experten der Gefahr von Datensicherheitsverletzungen aber durchaus bewusst. So glauben 83 Prozent, „dass die Mobilgeräte von Mitarbeitern für Hackerangriffe anfällig sind.“ Zwei Drittel vermelden sogar, dass bereits Datensicherheitsverletzungen stattgefunden haben. Und die Kosten, die Unternehmen durch mobile Bedrohungen entstehen können, sind immens, wie Sie bei IP-Mittelstand im Artikel „Mobile Bedrohungen können Unternehmen bis zu 23,4 Millionen Euro kosten“ nachlesen können. Mittelstand: IT-Sicherheitsbewusstsein wächst Cloud-basierte Dienste flexibel und mobil zu nutzen, wird für Mitarbeiter immer wichtiger. „Sie möchten gleichzeitig auf berufliche Apps wie Salesforce und persönliche Apps wie Facebook zugreifen können“, erläutert Gert-Jan Schenk, VP EMEA von Lookout, Mit-Initiator der Ponemon-Studie. Die Verantwortlichen für Informationssicherheit in Unternehmen sollten daher ein ausgewogenes Verhältnis zwischen Mobilität und Sicherheit anstreben – und das Thema mobile Sicherheit von Anfang an auf eine solide Basis stellen. Dass der deutsche Mittelstand hier noch großen Nachholbedarf hat, belegt auch die aktuelle Studie „Security Bilanz in Deutschland“. Im Bereich IT-Sicherheit für mobile Endgeräte sehen die befragten Mittelständler insbesondere bei Smartphones und Tablets große Defizite. Das fängt schon bei relativ einfach umsetzbaren Antiviren-Lösungen und Firewalls an: „50 Prozent der Unternehmen geben an, dass Antiviren-Lösungen und Malware-Erkennung bei ihnen nicht gut gelöst sind – bei entsprechenden Lösungen für mobile Endgeräte sind es sogar 66 Prozent.“ Dass sich der Mittelstand aktuell sogar noch schlechter abgesichert fühlt als bei der Befragung im Vorjahr, mag sich dadurch begründen, dass die potenziellen Risiken endlich im Bewusstsein angekommen sind. Jetzt gilt es, konkrete Schwachstellen systematisch aufzuspüren und entsprechende Sicherheitskonzepte konsequent umzusetzen. Weitere Details zur Studie finden sie bei heise.de unter „Security Bilanz Deutschland: Mittelstand hat Probleme mit Mobile Security“.
News
29. April 2016

Nicht alle Daten in die »Cloud-Waschmaschine«

»Private Cloud-Handwäsche« für sensible Daten So, höchste Zeit, die Wintersachen wegzuräumen und die Sommerklamotten hervorzuholen. Doch die Wollpullover einfach alle hinten in den Schrank legen? Vorher sollte man sie schon mal waschen, oder? Nein, wir geben Ihnen an dieser Stelle keine Tipps für die Pflege von Kaschmir-Pullovern, schließlich lesen Sie gerade ein Business-Cloud-Blog :-) Nur so viel: Jammern Sie nicht, wenn Sie dann nach dem Öffnen der Waschmaschine Ihre Wollpullover in drei Nummern kleiner haben. Denn auch, wenn Dilek Can von der „Cashmere Clinic“ in München (doch, die gibt’s tatsächlich!) behauptet, „eine neue Waschmaschine mit Schonprogramm sei absolut verträglich für Kaschmir“, raten wir lieber dazu, es mit Kaschmir-Pullovern wie mit sensiblen Daten zu halten. Von denen gehören eben auch nicht alle in die »Cloud-Waschmaschine«, und schon gar nicht in eine öffentliche. Somit betont unser Managing Director Business Strategy, Khaled Chaar, im Hinblick auf ein Auslagern von Daten in eine Public Cloud, dass „auch das vermeintlich sicherste Verschlüsselungsverfahren nie einen vollkommenen Schutz bieten kann. Für besonders sensible Daten, etwa aus Forschung und Entwicklung, ist die öffentliche Cloud daher unserer Ansicht nach nicht der richtige Ort.“Das gesamte Interview mit Khaled Chaar von PIRONET und Bertram Dorn von Amazon Web Services lesen Sie im „IT-ZOOM“-Beitrag „Sicherheitsbedenken beim Cloud Computing“ … IDC: Public Cloud boomt Zudem mahnt Khaled Chaar, bei der Public-Cloud-Ja-oder-Nein-Diskussion „die Themen Datenschutz und Datensicherheit nicht miteinander [zu] vermischen. Die Verschlüsselung ist ein rein technisches Thema. Personenbezogene Daten dürfen nach der Entscheidung gegen Safe Harbor nicht mehr in die USA transferiert werden – egal ob verschlüsselt oder nicht!“ Deshalb sollten Anwenderunternehmen, so resümiert Chaar, „für kritische Daten auf eine europäische oder noch besser auf eine deutsche Cloud setzen. Denn hiesige Provider unterliegen den äußerst strengen deutschen Datenschutzbestimmungen.“ Also: Wer auf Nummer sicher gehen will, der steckt seine sensiblen Daten zumindest in eine deutsche »Cloud-Waschmaschine«. Kein Wunder, dass laut IDC „Private- und Hybrid-Cloud-Installationen“ am schnellsten wachsen. Allerdings ist – Sicherheitsbedenken hin oder her – die Public Cloud stark im Kommen. So soll der „weltweite Markt für Public-Cloud-Dienste […] laut einer aktuellen IDC-Erhebung in den kommenden Jahren jeweils um fast 20 Prozent zulegen. Die Umsätze steigen demnach von 70 Milliarden Dollar im vergangenen Jahr auf mehr als 141 Milliarden Dollar in 2019.“ Mehr dazu lesen Sie im „Computerwoche“-Bericht „Der Cloud-Markt wächst weiter zweistellig“ … PIRONET: „Cloud-Lösung mit maximalem Datenschutz“ Abschließend noch einmal zurück zum Appell von Khaled Chaar, bitte nicht die Themen Datenschutz und Datensicherheit miteinander zu vermischen. Das kommt in der Berichterstattung nicht selten vor, sodass man gerne dem einen oder anderen Autor gerne dieses nette Erklär-Video „Was ist der Unterschied zwischen Datensicherheit und Datenschutz!“ senden möchte. Im Ernst: Die Frage »Public Cloud oder Private Cloud?« lässt sich im Prinzip sehr einfach anhand des erforderlichen Datenschutzes beantworten. Wenn es um das Auslagern personenbezogener Daten in die Cloud geht, dann kommt eigentlich nur eine Private Cloud in Frage, die im Rechenzentrum eines deutschen Anbieters gehostet wird. So hat sich zum Beispiel die Christoffel-Blindenmission e.V. „insbesondere [wegen] der restriktiven Datenschutzbestimmungen des evangelischen Kirchenrechts“ für PIRONET und damit für eine „Cloud-Lösung mit maximalem Datenschutz“ entschieden – oder sollen wir lieber sagen: für eine sichere »private Cloud-Handwäsche«?
Analysen
26. April 2016

Sparen durch die Cloud: Was ungenutzte Software kostet

Sparen durch die Cloud: Was ungenutzte Software kostet Viele Diskussionen um die Nutzung von Cloud-Services drehen sich darum, wie sicher Daten in einer Cloud sind oder welches Cloud-Modell das „richtige“ ist, beispielsweise eine Hybrid Cloud oder Private-Cloud-Umgebung. Dabei wird ein offenkundiger Nutzen oftmals übersehen: Dass die Cloud Geld sparen kann, und zwar nicht wenig. Etwa ein Viertel der Software in europäischen Unternehmen landet im „Mülleimer“, so eine Studie von 1E, einem britischen Software-Haus. Und dies nicht nur deshalb, weil Unternehmen Rechenleistung oder Storage-Kapazitäten nach Bedarf bei einem Service Provider ordern können. Das bedeutet, dass die hauseigene IT-Abteilung in das meist eh bereits gut gefüllte Rechenzentrum nicht weitere Server oder Speichersysteme „quetschen“ muss. Vielmehr heißt das Zauberwort „Software“. Software bunkern – und Geld verlieren Von Programmen aller Art kann man offenkundig nicht genug haben. Dieser Auffassung scheinen viele Unternehmen und öffentliche Einrichtungen zu sein. Denn anders lassen sich die Zahlen nicht erklären, die das britische IT-Unternehmen 1E Software im Rahmen einer Studie ermittelt hat. Demnach wimmelt es in Unternehmen von „Software-Zombies“. Das sind Applikationen beziehungsweise entsprechende Lizenzen, die zwar angeschafft wurden, jedoch brachliegen. Laut der Untersuchung sitzen alleine Unternehmen in den USA auf einem Berg ungenutzter Programme im Wert von 30 Milliarden Dollar. Nicht viel besser sieht es in Großbritannien aus: Dort beträgt der Wert der Programme, die zwar bezahlt wurden, aber in Software-Schränken oder auf Servern sanft vor sich hinschlummern, an die 5,7 Milliarden Pfund. Das sind umgerechnet mehr als 7,5 Milliarden Euro. Diese Zahlen beziehen sich auf 35 Applikationen, die 1E für die Untersuchung heranzog. Geldverschwendung in großem Stil: Alleine in den USA beläuft sich der Wert ungenutzter Software auf 30 Milliarden Dollar. Bild: 1E Alle Branchen betroffen Leider ist in der Studie Deutschland nicht separat aufgeführt. Doch dürften auch Unternehmen in der Bundesrepublik ebenso viele „Software-Leichen“ im Keller liegen haben wie ihre Pendants in England. Für den Raum EMEA (Europa – Mittlerer Osten – Afrika) taxiert 1E Software den Anteil der ungenutzten Software-Lizenzen bezogen auf den Gesamtbestand auf 23 Prozent. Deutlich nachlässiger sind Unternehmen in den USA: Dort liegt der Prozentsatz bei 37 Prozent, also mehr als einem Drittel des Bestands. Rund 23 Prozent der Software, die Unternehmen im Raum Europa erworben haben, wird nicht eingesetzt. Noch nachlässiger sind Firmen in den USA und Kanada. Bild: 1E Der allzu lässige Umgang mit Software ist ein Phänomen, von dem alle Branchen betroffen sind, vom Bildungsbereich über Industrie und Handel bis hin zu Behörden. Interessanterweise ist der Anteil der Software-Zombies auch in Unternehmen hoch, die eigentlich über eine besonders hohe Kompetenz in Bezug auf IT verfügen – solchen aus dem Technologie- und dem Kommunikationssektor (41 Prozent beziehungsweise 39 Prozent). Wenig tröstlich ist, dass Behörden und öffentliche Einrichtungen mit einem Anteil von 28 Prozent ungenutzter Programmpakete am unteren Ende der Skala zu finden sind. Immerhin wird dadurch der Steuerzahler etwas weniger belastet. Doch verfahren auch öffentliche Einrichtungen nach demselben Muster wie Unternehmen: Sie legen die Kosten auf den Kunden beziehungsweise Bürger um. Das gilt auch für nicht genutzte Software. Aus deutscher Sicht wenig erfreulich ist zudem, dass mittelständische Firmen mit einem „Zombie-Anteil“ von 41 Prozent in Bezug auf die Unternehmensgröße Spitzenreiter in puncto Software-Verschwendung sind. Denn bekanntlich dominieren in Deutschland in vielen Branchen Mittelständler. Somit ergibt sich dort ein besonders hohes Einsparpotenzial. Von Terminalemulationen bis Grafiksoftware Von den untersuchten Programmen bleiben vor allem Lizenzen der Terminalemulation Microfocus Attachmate Reflection X und von Microsoft Visio (jeweils 52 Prozent) ungenutzt. Auch die nicht gerade preisgünstige Grafik- und Bildbearbeitungssoftware Photoshop von Adobe (43 Prozent) liegt im vorderen Bereich. Spitzenreiter sind jedoch die Autodesk-Applikationen AutoCAD LT (61 Prozent) und Inventor (58 Prozent). Nur um einen Eindruck zu vermitteln, was dieses „Laissez-faire“-Verhalten kostet: Eine Jahreslizenz von AutoCAD LT kostet 360 Euro (netto), Microsoft Office Visio Standard 2016 ist für rund 400 Euro zu haben. Rund 23 Prozent der Software, die Unternehmen im Raum Europa erworben haben, wird nicht eingesetzt. Noch nachlässiger sind Firmen in den USA und Kanada. Bild: 1E Natürlich hat 1E die Studie nicht erstellt, um für die Cloud Werbung zu machen, sprich Software-as-a-Service-Modelle (SaaS). Das Unternehmen bietet vielmehr eine Lösung an, mit der sich die genutzten Lizenzen von Programmen im Unternehmensnetze erfassen und verwalten lassen. Dadurch wird transparent, welche Software tatsächlich genutzt wird. Lösung: Software aus der Cloud Doch in der Tat besteht eine Alternative zum Einkauf von Applikationen darin, Programmpakete als Software as a Service (SaaS) bei einem Cloud Service Provider zu ordern. Das hat den Vorteil, dass der Nutzer exakt die Zahl der Lizenzen buchen kann, die tatsächlich benötigt werden. Bei einer Kostenbetrachtung sollten zudem weitere Faktoren berücksichtigt werden, etwa dass der Service Provider die Server-Infrastruktur stellt und die Aufgabe übernimmt, die Software auf dem aktuellen Stand zu halten. Natürlich kann es auch in diesem Fall vorkommen, dass User eine Applikation nicht mehr oder nur noch unzureichend nutzen. Doch das lässt sich mithilfe von Management-Tools auf relativ einfache Weise feststellen. Vor allem für mittelständische Unternehmen, die häufig über keine übermäßig gut ausgestattet IT-Abteilung verfügen, ist es somit eine Überlegung wert, Applikationen aus der Cloud zu beziehen, und zwar nur so viele, wie tatsächlich genutzt werden.
News
25. April 2016

Software-Immobilie kaufen oder Traumhaus in den Wolken ...

Software-Immobilie kaufen oder Traumhaus in den Wolken mieten? Ist die Cloud langfristig teurer? Welcher Mieter träumt nicht vom Eigenheim? Endlich keine Miete mehr zahlen und nie wieder Sorgen, aus seinen vier Wänden vertrieben zu werden – durch Luxussanierung oder Eigenbedarf. Zudem stehen die Kreditzinsen für Immobilien so günstig wie nie. Worauf also noch warten? Nun, wer bereits eine Wohnung oder gar ein Haus sein eigen nennt, weiß, dass das Eigenheim nicht die reinste Wonne ist. Denn man muss sich ständig um die Instandhaltung seines Eigentums kümmern, was viel Zeit und noch mehr Geld kostet. Kaufen ist also mitnichten die deutlich bessere Alternative zum Mieten. Das ist bei Software nicht anders. So hält sich zwar immer noch hartnäckig das Vorurteil, dass die Cloud langfristig betrachtet teurer ist. Somit gibt es folgende Befürchtung: „Die Cloud macht Technologie-Investitionen zu Service-Investitionen und verursacht damit auf unbestimmte Zeit immer wiederkehrende Kosten.“ Allerdings gilt bei eigener Software dasselbe wie beim Eigenheim: Nach dem Kauf fallen ständig Kosten an – „zum Beispiel: Installations- und Implementierungskosten, Kosten für den Aufbau und Erhalt des IT-Teams, Hardware-Infrastrukturkosten wie Strom, Kosten für die Pflege und Aktualisierungen der Software, Kosten für Fehlerbehebungen“. Mit dem Einsatz einer Cloud fallen alle diese Kosten weg – und nicht nur das. Die Cloud verschafft ebenso wie eine Mietwohnung ein Stück Freiheit. Man muss sich eben nicht mehr kümmern, sondern kann – ohne regelmäßig Maßnahmen für Upgrades, Wartung oder Sicherheit ergreifen zu müssen – einfach die Wolkenwohnung nutzen, was unterm Strich dann doch günstiger kommt als die Software-Immobilie. Mehr über den Mythos „Auf Dauer ist die Cloud teurer“ und weitere Wolken-Vorurteile lesen Sie im „Scope Online“-Artikel „Drei Mythen über Business Cloud-Lösungen“ … SAP S/4 Hana aus der Cloud ist die Zukunft Auch Gartner betont den Mietvorteil der Cloud, also dass Anwender Cloud-Applikationen eben nicht testen, „keine Hardware installieren und auch nicht für Backup und Recovery sorgen [müssen]. ‚All das macht der Cloud-Dienstleister‘, sagt [Gartner-Analyst Massimo] Pezzini.“ Doch abgesehen davon, dass mit der Cloud die „IT-Mannschaft des Anwenderunternehmens […] ihre wertvolle Arbeitszeit nicht für Patches, Uprades, Backups oder die Archivierung einsetzen“ muss, gibt es noch viele weitere Vorteile der Cloud, zum Beispiel „schnelleren Zugang zu Innovationen“. Deswegen werden laut der Einschätzung von Gartner und auch von PAC über kurz oder lang auch deutsche SAP-Anwender in die Cloud wechseln. Die halten derzeit aber noch hartnäckig an ihren Software-Immobilien fest, wie PAC-Analyst Frank Niemann erläutert: „Fast alle der aktuellen SAP-Kunden in Deutschland betreiben ihre Systeme noch On-Premise […]. Und die meisten von ihnen denken auch in Zukunft nicht daran, in die Cloud zu migrieren.“ Nun, auch wenn es im Augenblick auf das Nachfolgeprodukt für die SAP Business Suite, SAP S/4 HANA, noch keinen Run gibt, zumindest nicht auf die Cloud-Version, so prognostiziert Niemann: „S/4 Hana ist auf dem Weg, sich zu einem vollständig gleichwertigen ERP zu entwickeln. Und früher oder später werden die Unternehmen auf das neue System migrieren – manche davon auch auf die Cloud-Variante.“ Mehr dazu lesen Sie im „ZDNet“-Beitrag „Mehraufwand und Kontrollverlust schrecken potenzielle Cloud-Nutzer“ …
News
20. April 2016

Cloud-Sicherheit: Top! – Mobile Payment: Flop!

Cloud-Sicherheit: Top! – Mobile Payment: Flop! Mobile Payment? Sicher ist: Nur Bares ist Wahres! „In zehn Jahren wird Bargeld wahrscheinlich nicht mehr existieren“, prognostizierte Deutsche-Bank-Chef John Cryan auf dem Weltwirtschaftsforum in Davos Ende Januar. Kurz darauf sprach die Bundesregierung davon, Barzahlungen von mehr als 5.000 Euro zu verbieten, und die EZB spielte laut mit dem Gedanken, 500-Euro-Scheine aus dem Verkehr zu ziehen. Dieser geballte „Angriff aufs Bargeld“ löste bei den deutschen Bürgern eine Welle der Empörung aus. Denn die Deutschen lieben Münzen und Scheine! „Knapp 80 Prozent aller Transaktionen werden laut Deutscher Bundesbank in Geldscheinen und Münzen abgewickelt. […] Doch die Kartenzahlung ist eindeutig auf dem Vormarsch.“ Kartenzahlung? Und was ist mit Mobile Payment? Tja, das scheint in Deutschland noch kein Thema zu sein. Zumindest steht Mobile Payment laut der Capgemini-Studie „IT-Trends 2016“ auf Platz 34 – und zählt damit zu den „IT-Flops des Jahres“. O-Ton Gapgemini: „Mobile Payment […] ist im deutschsprachigen Raum kaum verbreitet [. … Vielmehr ist] die EC-Karte ein etabliertes und günstiges Zahlungsmittel, so dass es aus Sicht vieler Verbraucher wenig Bedarf für neue Zahlungsmittel gibt.“ Dass es in punkto Bezahlen mit dem Smartphone so bald keine Trendwende gibt, hoffen bestimmt nicht nur alle deutschen Sparschweinfreunde, sondern bestimmt auch das Deutsche Kinderhilfswerk. Die soziale Organisation hat nämlich in rund 40 000 deutschen Geschäften nahe der Kasse Spendendosen stehen. Allein Rossmann-Kunden spendeten im vergangenen Jahr „371.180 € für das Deutsche Kinderhilfswerk“. Insgesamt sollen mit dem Kleingeld über eine Million Euro Spenden jährlich zusammenkommen! Sicherheit: Wichtiges Cloud-Entscheidungskriterium Und warum lehnen die Deutschen Mobile Payment ab? Einer der Hauptgründe ist, dass „viele Menschen das Bezahlen mit dem Smartphone für unsicher halten und sich Sorgen wegen des Datenschutzes machen.“ Datenschutzbedenken plagen offensichtlich nicht nur Endverbraucher, sondern auch IT-Verantwortliche. Denn stünde sonst laut der IT-Trend-Studie von Capgemini das Thema „Cloud Security“ ganz vorne, nämlich auf Platz fünf? Damit gehört Wolkensicherheit ganz klar zu den IT-Trends dieses Jahres. Das Beratungshaus betont, dass es sich hier um keine Zukunfts-, sondern bereits etablierte Trends handelt. Es ist also keine Prognose, sondern Tatsache: Für CIOs ist „die Sicherheit der Daten und Informationen eines der wichtigsten Entscheidungskriterien für oder gegen Cloud-Lösungen“. Genaueres dazu lesen Sie im „Computerwoche“-Bericht „Business-Applikationen: 2016 ist das Jahr des Großreinemachens“  Für mehr Sicherheit: Anwendungen besser pflegen Apropos Applikationen: Diese zu pflegen – im Allgemeinen sowie im Besonderen in der Cloud – das rät im Hinblick auf mehr Sicherheit dringend Arved Graf von Stackelberg, Director Central Europe bei Veracode. Der neueste „Statusbericht zur Softwaresicherheit“ von Veracode hat nämlich gezeigt, dass die Anwendungspflege oft nicht die beste ist: „In der 18-monatigen Testperiode des Reports wurde über ein Viertel der Unternehmensanwendungen (28 Prozent) nur einmal geprüft. Neue Sicherheitslücken tauchen jedoch häufiger auf.“ Mehr dazu lesen Sie im LANline-Artikel von Graf von Stackelberg mit dem Titel „Cloud-Anwendungen schützen. Sichere Applikationen trotz wolkiger Basis“. Schlampige Applikationspflege geht also gar nicht. Ob wir wohl mit mobilen Bezahlanwendungen sorgsamer umgehen würden? Unseren Geldbeutel müssen wir ja nicht regelmäßig „hätscheln“ – es reicht, wenn wir ihn nicht verlegen.
News
18. April 2016

Cloud: Highways statt Holperstraßen

Zu viel Cloud fürs Netzwerk? Cloud: Highways statt Holperstraßen Wer in einem unsanierten Altbau wohnt, kennt das Problem: Zum einen gibt es viel zu wenige Steckdosen. Zum anderen ist es nicht ratsam, gleichzeitig Geschirrspüler und Waschmaschine anzustellen, den Laptop anzuschmeißen und sich dann noch schnell die Haare zu föhnen – weil es dann die Sicherung raushaut. Kurzum: Die Stromleitungen von anno dazumal sind nicht für den (gleichzeitigen) Einsatz der vielen Elektrogeräte von heute ausgelegt. Ähnliches gilt für herkömmliche Netzwerk-Infrastrukturen: Sie sind nicht auf den aktuellen Cloud Traffic ausgelegt, der ständig zunimmt. Kein Wunder, denn die Cloud hat einfach viele Vorteile, sodass sie immer mehr zum Einsatz kommt, wie eine aktuelle globale Studie von Tata Communications zeigt: „Demnach nutzen bereits 97 Prozent der befragten Unternehmen eine Form der Cloud. Allein 83 Prozent der Befragten gaben an, dass die Cloud ihnen Vorteile gebracht hat, die sie nicht erwartet hatten: darunter eine gestiegene Produktivität (69 Prozent), verbesserter Zugang zu Daten (65 Prozent) und eine Kostenreduktion (63 Prozent).“ Mehr über die Vorzüge der Cloud und was das für die bestehende Netzwerk-Infrastruktur bedeutet, lesen Sie im „Funkschau“-Beitrag „Carrier-Infrastruktur: Neue Wege für die Cloud“ aus der Feder von Hans Göttlinger, Country Head Germany von Tata Communications … Industrie 4.0 braucht Glasfaserkabel! Ja, der Strom kommt halt aus der Steckdose und das Internet ist inzwischen so selbstverständlich vorhanden wie die Luft zum Atmen. Während man früher noch »online gehen« musste, »offline« also der Normalzustand war, ist es heute genau umgekehrt. Oder würde es sonst derartige Freizeitangebote geben: „Offline im Urlaub: Ferien im Funkloch“?! Jedoch ist Internet nicht gleich Internet, wie vor allem der deutsche Mittelstand zu spüren bekommt: „Wie eine aktuelle Untersuchung der Friedrich-Ebert-Stiftung zeigt, sind der schlechte Zugang zu Breitband und die Internetkriminalität weiterhin die größten Hindernisse für den deutschen Mittelstand in Sachen Industrie 4.0.“ Aus der Studie „Herausforderungen von Industrie 4.0 für den Mittelstand“ geht zudem hervor, dass es gerade für KMUs nicht einfach ist, „den Datenfluss zu den angrenzenden internen und externen Bereichen herzustellen, um den Austausch von Produktionsdaten horizontal zu Lieferanten und Kunden oder vertikal für Vertrieb, Planung, Service oder das Controlling zu ermöglichen“. Dazu sind jedoch mehr als „zwei Megabit pro Sekunde“ erforderlich: „Diese Übertragungs­geschwindigkeit ist keinesfalls ausreichend, um eine unternehmensübergreifende internetbasierte Produktion zu organisieren oder nachgelagerte Dienstleistungen wie die Auswertung von Echtzeitdaten zu realisieren“. Vielmehr braucht es dazu „Hochleistungsübertragungswege über Glasfaserkabel“, womit es jedoch in Deutschland zappenduster aussieht. Denn: „Deutschland [liegt] mit einer Glasfaser-Quote von lediglich einem Prozent auf dem letzten Platz in Europa.“ Mehr dazu erfahren Sie im „DeutscheMittelstandsNachrichten“-Bericht „Langsames Internet gefährdet Industrie 4.0 im Mittelstand“ …
News
15. April 2016

Wortklaubereien rund um die Cloud

Wortklaubereien rund um die Cloud Neologismus für CIOs »Eiderdaus, ein Backfisch kann fürwahr berückend sein.« Mit diesem Satz wollten wir eigentlich keine »Fisimatenten« machen – schließlich haben wir die »Flegeljahre« schon lange hinter uns, sondern Ihnen einige sogenannte Archaismen vorführen, kurz: ein paar vom Aussterben bedrohte Worte. Ja, Sprache lebt, und das heißt: Einige Wörter sterben und einige werden neu geboren. So wurde jetzt von Capgemini ein neuer Begriff (Neologismus) aus der Taufe gehoben, den es für CIOs schleunigst zu lernen gilt: „Digital Dexterity“ im Gegensatz zu „Digital Capability“. Heißt nicht beides einfach „Fertigkeit“? Nun, mit „Digital Capability“ sind laut Capgemini „eher technologische Fertigkeiten [gemeint], die beispielsweise nötig sind, um Services via mobile Apps bereitzustellen“. Dagegen wird „Digital Dexterity“ definiert als „die Fähigkeit, sich rasch an Veränderungen anzupassen“. Kurzum: Bei „Digital Dexterity“ geht es „um einen gewandten Umgang mit den digitalen Technologien, während der [den] CIOs vertrautere Begriff der ‚capability‘ ihre praktische Beherrschung im Sinn hat“. Etwas zu können ist also nicht alles, man muss auch verstehen, es geschickt anzuwenden! Mehr dazu lesen Sie im „CIO.de“-Artikel „Digital Dexterity – IT-Organisationen und Änderungsdruck“ … Ohne Cloud weder digitale Fertigkeit noch Geschicklichkeit Die Studie von Capgemini zeigt, dass die »digitaldexterisierten« Unternehmen im Wettbewerb die Nase vorn haben: „80 Prozent der gewandten Unternehmen fällt es leicht, Partnerschaften zu etablieren. Jeweils 73 Prozent empfinden es als leicht, benötigte Fachkräfte zu finden und auf individuelle Kundenbedürfnisse einzugehen.“ Und das sind nur einige von vielen weiteren genannten Vorteilen. Echt »dufte« (ein weiteres vom Aussterben bedrohtes Wort), oder? Allerdings: Ohne Pflicht keine Kür, will heißen: Digital Capability ist die Voraussetzung für Digital Dexterity. Und die Basis der technologischen Fertigkeiten ist wiederum die Technologie, also die Cloud. Dass letztendlich die Cloud es ist, die den Unternehmen Rückenwind verleiht, das zeigt eine aktuelle Studie von IDG Connect und Oracle, bei der 300 Führungskräfte aus Deutschland, Großbritannien, Russland, Frankreich, Südafrika und den Vereinigten Arabischen Emiraten befragt wurden. Ergebnis: „92 Prozent der Befragten sagen, dass sie mit der Cloud Innovationen schneller umsetzen können. 73 Prozent gaben an, dass die Cloud die Kundenbindung fördere und 76 Prozent sehen die Cloud als große Unterstützung bei Neukundenakquise.“ Weitere Details finden Sie im „TeleTalk“-Bericht „Studie: Cloud stärkt Innovationsfähigkeit von Unternehmen“ … Was ist denn DaaS? Allerdings, wenn wir uns heute schon mit Wortklaubereien beschäftigen, sind wir beim Lesen dieses Beitrags über folgende Passage der Studienberichterstattung gestolpert: „Innerhalb der Rubrik Private Cloud wird Software-as-a-Service (SaaS) von 68 Prozent der Teilnehmer als das wichtigste Thema erachtet und liegt damit vor Database-as-a-Service (DaaS) (61%) und Platform-as-a-Service (PaaS) (57%).“ Moooment! DaaS soll die Abkürzung für Database-as-a-Service sein? Das geht gaaar nicht! Denn DaaS ist seit Jahr und Tag für Desktop-as-a-Service reserviert. Das wissen wir sehr genau, da DaaS schließlich eines unserer zentralen Angebote ist! Daher möchten wir hiermit beantragen, dass sich Database-as-a-Service bitteschön eine andere Abkürzung suchen soll – wie wär‘s mit »DatabaaS«? Das klingt doch auch ganz schön »knorke«
ITK-BUDGET
PAAS-KOMPENDIUM
PAAS-STUDIE
STUDIE PRIVATE CLOUD
Must Reads von anderen Tech-Seiten
silicon.de: Safe-Harbor-Nachfolger – EU-Datenschützer verlangen Nachbesserungen Weiterlesen

 

CANCOM.info: Drei Gründe für die Hybrid Cloud – Das leistet der Cloud-Mix in Unternehmen Weiterlesen

 

Scope Online: Cloud Computing in der Produktion – Drei Mythen über Business Cloud-Lösungen  Weiterlesen