eBizTalk - Berichten, Unterhalten, Weiterbilden
Ob Branchendiskurs, Fachartikel oder ein Blick hinter die Unternehmenskulissen: eBizTalk ist die Plattform, die uns auffordert, unsere Leser über Events und Projekte auf dem Laufenden zu halten. Und uns gegenseitig natürlich auch.

Wasser und Licht

Veröffentlicht am 15.06.2017 von Clemens Kruse , Insights@ebizcon

Es ist Montagmorgen, ich sitze an meinem Arbeitsplatz, klappe meine Höllenmaschine von Laptop auf und Blicke gespannt zum Rascheln an der Tür. Der Chef stürmt rein, heute sieht er noch entschlossener aus als sonst. Ich gehe in Deckung.

"Student, ich habe von Deiner Bachelorarbeit geträumt! Es wird fett!" - "Jawoll, Chef!" – es ist schön hier.

Dass wir uns mit Chef und Student anreden ist ein Artefakt aus alten Tagen, da wir beide aus Firmen kommen, wo man das noch so gemacht hat.

Tatsächlich bin ich nicht von Anfang an hier. Ich begann mein duales Studium bei einem Unternehmen, dessen Name mir entfallen ist und sah mich dort bald an den Grenzen meiner Entwicklungsmöglichkeiten. Um meine Situation zu verbessern bewarb ich mich also bei der eBiz. Unter anderem. Am Ende hatte ich die Wahl zwischen Firmen in meiner Heimat Dresden (was unheimlich bequem gewesen wäre) und der totalen Blackbox - fremde Firma, fremde Stadt, wieder in eine WG ziehen (ich dachte eigentlich, aus dem Alter wäre ich raus), organisatorischer und nervlicher Stress.

Da brauchte ich nicht lange nachzudenken: Blackbox.

Das kann nun daran liegen, dass ich ein Teufelskerl bin und die Gefahr liebe. Aber eigentlich liebe ich die Gefahr nicht sonderlich. Tatsächlich gehe ich gern auf Nummer sicher, was die wichtigen Entscheidungen im Leben betrifft.

Und genau darum geht es: die wichtigen Entscheidungen im Leben. 2014 Nach meinem Ausflug in die Medieninformatik an der TU nochmal von vorn zu beginnen fällt sicherlich in diese Kategorie. Ebenso die Entscheidung, mitten im Studium den Praxispartner zu wechseln. Das sollte man nicht leichtfertig abtun.

Nach der Zusage der eBiz hatte ich innerhalb von 24 Stunden alles unter Dach und Fach. WG in Frankfurt organisiert, die Zelte in Dresden abgerissen und die Mutti um Verzeihung gebeten, dass ich mein Glück in der Welt suchen gehe, auch wenn mir ihre Nusstorte fehlen wird.

Und, habe ich es gefunden?

Mein Bauchgefühl hat mir gesagt, dass ich nach Frankfurt muss, wenn ich es ernst meine mit dem "sich entwickeln, Potenzial ausschöpfen und so" - also habe ich darauf gehört und bin jetzt seit einem Jahr Part of the Team . Ich werde jetzt immer auf mein Bauchgefühl hören.

Bei der eBiz hat man als Student alles was das Herz begehrt. Und ich rede nicht vom Kaffeevollautomaten, vom fancy Laptop oder der Xbox. Klar, das haben die dort auch. Aber die Dinge die ich eigentlich meinte, sind viel größer als das.

Für mich ist meine Firma der Nährboden auf dem ich als kleine Blume wachsen kann. Hier habe ich alles was man als Blume so braucht: Wasser, Licht und unbegrenzt Bohnenkaffee.

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

Geheimnisse sichern mit Azure Key Vault

Veröffentlicht am 01.06.2017 von Alexander Müller , Azure , Security

Da IT-Sicherheit in der heutigen Zeit immer mehr an Bedeutung gewinnt, gehört das Basiswissen über kryptografische Protokolle, Verschlüsselungsalgorithmen und Hash-Funktionen sowie deren kryptografische Stärke zum Basisrepertoire eines jeden Entwicklers. Mit dem aktuellen Trend zur Cloud stellt sich häufig die Frage wie dort Geheimnisse und Schlüssel geschützt werden können. Microsoft bietet dafür den Service „Azure Key Vault“ an.

Durch einen Vortrag auf der Technical Summit 2016 bin ich auf Azure Key Vault aufmerksam geworden. Da das Thema im Vortrag nur in einem Nebensatz erwähnt wurde, habe ich beschlossen mich näher damit auseinanderzusetzen und meine Erkenntnisse zu teilen.

Die Herausforderung

Als .NET-Entwickler hat man sich daran gewöhnt Connection Strings, API Keys etc. im Klartext in der Konfigurationsdatei der Anwendung (z. B. app.config) gleich neben den Anwendungseinstellungen abzulegen – meist einhergehend mit dem Gefühl, dass dies nicht der sicherste Ort dafür ist. Denn die Konfigurationsdatei wird in der Quellcodeverwaltung hinzugefügt und ist dadurch für das gesamte Entwicklungsteam, aber auch für alle anderen Personen mit Zugriff auf das Repository oder das Dateisystem, sichtbar. 

Azure Key Vault 

Mit Azure Key Vault bietet Microsoft einen Cloud Service an, mit dessen Hilfe geheime Schlüssel von der Anwendung separiert und an einem gesicherten Ort abgelegt werden können. So bleibt die Kontrolle über diese Daten beim Besitzer. Der Anwendung selbst wird bei Bedarf die Verwendung eines Schlüssels eingeräumt, jedoch nie direkter Zugriff darauf gewährt. Weiterhin wird jede Aktion in Azure Key Vault geloggt. Dieses Log kann zur Analyse von Monitoring-Systemen genutzt werden, um im Falle einer kompromittierten Anwendung, schnell gewarnt zu werden. Selbst im Fall der Fälle, können bei Verwendung eines Read-only Service Users keine Schlüssel durch die Anwendung geändert oder gelöscht werden.

Schlüssel und Geheimnisse

 image

In Azure Key Vault können Schlüssel und Geheimnisse gespeichert werden, doch worin liegt der Unterschied?

Mit Schüssel (keys) sind kryptografische Schlüssel zum Verschlüsseln und Entschlüsseln von sensiblen Daten in der Anwendung gemeint. Besonders zu schützende Schlüssel können direkt in Hardwaresicherheitsmodule (HSM) importiert oder dort generiert werden (Premium Service Tier notwendig, siehe auch Key Vault – Preise). Damit ist sichergestellt, dass diese nur innerhalb der Modulgrenzen bekannt sind.

In Azure Key Vault gibt es keine semantische Vorgabe, was als Geheimnis zählt und was nicht. Allerdings existiert eine Größenlimitierung von 25KB. Passwörter, API Keys, Connection Strings sind dort bspw. richtig aufgehoben. 

Schutz durch Azure Active Directory

Wie können Anwendungen nun auf die geheimen Daten zugreifen, ohne selbst wieder ein Geheimnis für den Zugriff auf Azure Key Vault preiszugeben? Die Antwort ist „Azure Active Directory“Authentifizierung. Die Anwendung wird im Active Directory registriert und authentifiziert sich dann mit Hilfe von ClientID und ClientSecret. Daraufhin ist der Zugriff auf den Key Vault, welcher sich im selben Active Directory befindet, möglich.

Aber wohin nun mit ClientID und ClientSecret? Beide können als Anwendungseinstellung in der Konfigurationsdatei der Anwendung gespeichert werden, sind dann jedoch wieder für jede Person mit Berechtigung auf Repository oder Dateisystem sichtbar. Zur Umgehung dieses Problems, gibt es zwei Lösungsansätze:

  1. Statt die Werte im Klartext in der Konfigurationsdatei zu speichern, werden „leere“ Einstellungen für ClientID und ClientSecret erstellt und die Werte selbst in den Anwendungseinstellungen im Azure Portal hinzugefügt. Dadurch werden vorhandene Werte zur Laufzeit durch die im Portal konfigurierten Werte überschrieben. Das Portal gilt als sicherer, da es in der Regel nur von einem eingeschränkten Personenkreis administriert wird und durch Zwei-Faktor-Authentifizierung zusätzlich geschützt werden kann. Dennoch, das Geheimnis ist im Klartext im Portal ersichtlich. 
  2. Mehr Sicherheit bietet die Authentifizierung mit ClientID und Zertifikat. Dies ist die sicherste Methode, da in Azure hinzugefügte Zertifikate nicht heruntergeladen werden können und der private Schlüssel nicht über die Oberfläche sichtbar ist. 

Fazit

Azure Key Vault ist ein Service, mit dem Schlüssel und Geheimnisse leicht zentral und separiert von der Anwendung administriert werden können. Laut Produktbeschreibung kann nicht einmal Microsoft selbst diese Daten einsehen. Der zusätzliche Programmieraufwand zur Verwendung des Service hält sich sehr in Grenzen, sodass der Aufwand auch für kleinere Applikationen gerechtfertigt werden kann. Besonders für Cloud-Anwendungen, in denen mit personenbezogenen Daten gearbeitet wird, sollte die Verwendung in Erwägung gezogen werden. Erste Schritte mit Azure Key Vault habe ich in diesem Sway dokumentiert. Eine Kostenübersicht für Azure Key Vault ist hier zu finden.

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

SQL Server 2016 - Improvements: InMemory

Veröffentlicht am 01.05.2017 von Ireen Raue , SQL Server , Custom Development , Data

Seit Juni 2016 steht der SQL Server 2016 zur Verfügung und bringt eine Unmenge an Weiterentwicklungen und Verbesserungen mit sich.

Einen ersten groben Überblick dazu habe ich bei den ‚SQL TechnologieDay SQL Server 2016‘ der ppedv in Leipzig bekommen. Dort wurde sehr kompakt auf die Neuerungen eingegangen. Manche dieser Neuerungen sind sehr interessant und spannend, weshalb ich mich damit etwas intensiver beschäftigt habe.

Sehr viele Verbesserungen gab es vor allem im InMemory-Bereich. Da ich mich aktuell für den SQL Server 2014 mit diesem Thema beschäftige, war das eine der für mich sehr interessanten Neuerungen.

InMemory-Erweiterung

Die erste inMemory-Technologie wurde mit dem SQL Server 2012 mit dem ColumnStore Index eingefügt und von Version zu Version stetig erweitert.

image

Auch die Analyse bestehender Projekte auf Migrationsmöglichkeiten hat sich deutlich vereinfacht. Wo beim SQL Server 2014 noch über ein Data Warehouse und DataCollector eine Datenbasis zum Auswerten aufgebaut werden muss, kann der ARM-Report beim SQL Server2016 direkt auf den Produktivdaten ausgeführt werden. So ist ohne größeren Aufwand eine Analyse möglich.

image

Durch die Aufhebung vieler Einschränkungen bei der Migration zu InMemory-Tabellen oder nativly compiled Procedures wird es mit dem SQL 2016 auch deutlich einfach für bestehende Projekte diese Technologie einzusetzen.

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

DevOps - eine schöne neue Welt?

Veröffentlicht am 17.04.2017 von Florian Hieber , DevOps , ALM

Die DevOps Welt ist recht neu und mit agilen Ansätzen versehen. Theoretisch klingt das sehr gut, aber wie sieht es in der Praxis aus? Wie gut ist das Produkt, dass dabei herauskommt? Wo liegen die Schwierigkeiten? Ich versuche mich einmal an einer Betrachtung.

Microsoft propagiert seit Neustem die Prinzipien von DevOps – also dem Schulterschluss zwischen Softwareentwicklern (Developer) und IT-Betrieb (Operations). Noch vor einem Jahr gab es auf der Technical Summit 2015 Empfehlungen, die auf der diesjährigen Tech Summit wieder verworfen wurden. DevOps ist dieses Jahr das Trendthema schlechthin. Es gab sehr viele Vorträge, eine Keynote und eine Diskussionsrunde zu dem Thema. SCRUM, Canban oder gar klassische Vorgehensmodelle wurden noch nicht einmal angesprochen. Als zertifizierter Projektleiter und SCRUM Master bin ich naturgemäß an neuen Vorgehensmodellen interessiert. Dementsprechend verfolge ich den DevOps-Ansatz schon über ein Jahr mit Interesse.

Deshalb habe ich mich unter anderem auch dazu entschlossen, an der Tech Summit in Darmstadt teilzunehmen und dort einige Veranstaltungen zu diesem Thema zu besuchen. Gerade die Diskussionsrunde war sehr spannend, da auch einige Teilnehmer dabei waren, für die DevOps nicht nur graue Theorie war, sondern gelebtes Verhalten. Zwei Teilnehmer waren sogar aus der mittleren Führungsebene, die DevOps in ihr Unternehmen gebracht haben und die ihre Erfahrungen ebenfalls bereitwillig geteilt haben. Ein weiterer Teilnehmer war Administrator und konnte seine Erfahrungen mit DevOps ebenfalls vorbringen. Um es vorweg zu nehmen, es gab niemanden, der DevOps lebte und unzufrieden war. Aber was ist DevOps überhaupt?

DevOps ist eine Methodik, die Softwareentwicklung unter agilen Gesichtspunkten ansieht.

  • Entwickelt werden Produkte, es geht nicht um Projekte
  • Produkte werden durch Funktionen beschrieben
  • Projekte dagegen werden durch Kosten, Zeit und Annahmen der Funktionen beschrieben
  • Projekte dagegen beziehen den Auftraggeber nur sehr eingeschränkt ein
  • Zum Team gehören Betreiber und Entwickler des Produktes
  • Release-Zyklen sind sehr kurz (bis zu mehrmals täglich)

Die Idee, Betrieb und Entwicklung als zusammengehörige Einheiten zu betrachten, ist sicherlich gut, erfordert aber ein Umdenken im gesamten Unternehmen und nicht zuletzt bei den Beteiligten. Ein Prozess, der bislang auch in den Aussagen der Beteiligten noch nicht abgeschlossen ist. Der Gedanke, Produkte zu entwickeln und nicht Projekte zu definieren ist nicht neu, sondern wird bei allen agilen Methoden genutzt. Die Nachteile (keine Kostenschätzung möglich, keine Kontrolle des Funktionsumfangs möglich, etc.) sind immer noch in den Köpfen der meisten Mitarbeiter und der Führungsebene fest verankert. Dieses Denken steht der DevOps Methode auch entgegen. Neue Ansätze, wie eine engere Zusammenarbeit zwischen Betrieb und Entwicklung finden sicher schnell Gefallen im Unternehmen, mehrmals am Tag ein produktives System neu zu releasen aber ganz sicher nicht. Unternehmen, die DevOps einsetzen, stellen mehrmals am Tag ein Release ein. Damit der Prozess aber von anderen Abteilungen akzeptiert wird, nennen sie den Vorgang dann „Update“.

Ein „Release“ hatte bislang immer eine Besonderheit inne. Nicht nur aus der Gefahr, Fehler in den produktiven Betrieb zu bringen, sondern auch aus Marketing Gesichtspunkten. Ein Release war eine Neuerung, die vielleicht sogar preisliche, sicher aber funktionale Änderungen beinhaltete, die es wert waren, angekündigt zu werden. Auch das fällt mit DevOps weg.

Besonders die sehr kurzen Zyklen zur Bereitstellung neuer Funktionen am Produkt werfen aber die Frage auf, wie man in so kurzer Zeit verlässlich Testen kann. Um es vorweg zu nehmen, keine der beteiligten Parteien und auch die anderen Beiträge brachten mir da eine wirklich befriedigende Antwort.

In der Diskussion kamen viele Stimmen auf, die meinten, Tests (von Unit bis Systemtests) würden nichts bringen und nur Zeit und Geld kosten, deshalb hätten sie das Testen auf Akzeptanztests reduziert. Diesen Ansatz halte ich für problematisch, auch wenn es bislang laut der Anwesenden zu keinen großen Problemen gekommen sei. Die Gefahr, dass es zu solchen Problemen kommen kann, ist doch sehr hoch. Ganz zu schweigen davon, dass weder Qualitätskontrollen noch Zertifizierungen möglich sind. Quality Gates sind in den Köpfen vieler Menschen keine Kostenfresser, sondern unerlässlich, wenn man ISO-zertifizierte Qualität liefern will.

Auch sollen nach der Meinung von Microsoft keine Branches zu Testzwecken im Code Repository genutzt werden. Nach der Entwicklung (und Test) auf dem lokalen Entwicklerrechner geht es in die Produktion. Richtig ist das Argument der DevOps-Verfechter, dass normalerweise keine großen Änderungen in den Zyklen gemacht werden und deshalb ein auftretender Fehler auch schnell rückgängig gemacht werden kann. Was ist jedoch mit schleichenden Fehlern, die erst sehr spät auffallen, da sie sich auf Bereiche im Produkt auswirken, die man nicht im Fokus hatte? Ein Fehler, der erst nach Wochen, also nach mehreren Zyklen, auffällt ist durchaus möglich und nicht nur Theorie. Ob man dann auch noch so schnell reagieren kann?

Bislang konnte ich keine Person ausfindig machen, die wirklich negative Erfahrungen mit DevOps gemacht und die Methodik dann wieder verworfen hat. Insofern scheinen meine Zweifel nicht berechtigt, dennoch werde ich sie nicht los. Meine Berufserfahrung scheint meiner Gutgläubigkeit etwas entgegenzustehen.

Trotz meiner Zweifel bezüglich Test und Dokumentation finde ich die Methodik sehr interessant und würde gerne einmal eine Produktentwicklung mit DevOps unterstützen.

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

Ein kleiner Einstieg in die Windows 10 IoT Welt

Veröffentlicht am 31.03.2017 von Ronny Ulbricht , IoT , Azure

Das Internet der Dinge (englisch: Internet of Things) wird gern als die nächste industrielle Revolution bezeichnet. Das Thema der „intelligenten Gegenstände“ hat in den letzten Jahren immens an Fahrt aufgenommen und ist mittlerweile sowohl im Enterprise als auch im Consumer Umfeld angekommen. Mit Windows 10 als Plattform, den Universal Windows Platform Apps und dem Azure IoT Hub mischt auch Microsoft kräftig mit.

clip_image002

Für die eBiz Consulting GmbH als Beratungsunternehmen und Integrationspartner für Software-Systeme, aber auch für mich persönlich als interessierter Entwickler ist das Thema „Internet of Things“ (IoT) schon länger auf dem Radar relevanter Trendthemen.

Meine Erfahrungen beschränkten sich dabei jedoch eher auf theoretisches Wissen aus verschiedenen Blog-Artikeln und anderen Publikationen sowie Samples, die ich bei Kollegen und befreundeten Entwicklern bestaunen durfte.

Im Rahmen der Microsoft Veranstaltung „Technical Summit 2016“ bot sich die Möglichkeit, an einem Tages-Workshop teilzunehmen und so in den praktischen Teil der IoT-Welt einzusteigen. Ich bekam einen ersten Überblick mit welchen Dingen man sich beschäftigen sollte und mit welchen nicht, wenn man sich in der Microsoft Welt des Internet der Dinge bewegt. Im Folgenden möchte ich diese Erfahrungen nun gern teilen.

Die richtige Idee

„Einfach mal so probieren“ mag im Bereich der Software Entwicklung ein probater Ansatz sein, um in neue Themen einzusteigen und sich auszuprobieren, am Ende liefert aber ein konkreter Anwendungsfall das höchste Motivationspotenzial. Eine halbwegs sinnvolle Idee sollte daher am Anfang aller Bemühungen stehen. Das ist schon deshalb notwendig, weil die benötigte Hardware mit einem finanziellen Investment verbunden ist, das sich je nach Ausstattung der Hardware (Anschlüsse, Sensoren) unterscheiden kann. Hier zum Beispiel eine Liste verschiedener Windows 10 IoT-fähiger Devices:

clip_image004

Eine naheliegende Idee ist beispielsweise das Auslesen und Weiterverarbeiten von Sensordaten einer Kaffeemaschine, einer Wetterstation oder das Ansteuern eines LED Displays zur Darstellung von Zustandsinformationen.

Wie den richtigen Einstieg finden?

Weiß man was man machen möchte, dann ist es zielführend sich Hilfestellung zu organisieren um geleitet in das Thema einzusteigen. Microsoft bietet für den Einstieg in die Windows 10 IoT-Welt einen „Get started“-Bereich im Windows Dev Center.

https://developer.microsoft.com/de-de/windows/iot/getstarted

Hier wird man mit Hilfe eines Wizards beim Aufsetzen des Devices unterstützt.

Wichtig ist, dass man sich im Vorfeld alle für Setup, Entwicklung und Deployment notwendigen Tools besorgt. Die meisten der Tools werden im Wizard erwähnt und verlinkt, hier jedoch noch mal eine Liste der Tools, die man auf jeden Fall haben sollte:

· Windows Assessment and Deployment Kit - Tools, zum Anpassen von Windows-Images

· https://github.com/ms-iot/iot-adk-addonkit/ - command line Skripte zur Paketierung und zur Image Erstellung

· Windows Driver Kit – enthält toolset zum Entwickeln, Bauen, Paketieren, Ausliefern, Testen, und Debugging von Geräte Treibern für die Windows Plattform

Der Wizard geht von der Verwendung der Standard-Images für die Windows 10 IoT-Editionen aus. Es besteht darüber hinaus noch die Möglichkeit eigene Images zu erstellen, um bestimmte Device-Voreinstellungen und andere Constraints setzen zu können, wie beispielsweise das Abschalten von Gerätefeatures. Dies ist bei einfachen Samples und wenigen Geräten nach Verwendung eines Standard-Images aber auch direkt über das Device selbst möglich und in dem Fall das empfohlene Vorgehen.

Nicht zuletzt, weil der Prozess der Erstellung von eigenen Images noch nicht wirklich ausgereift und daher fehleranfällig ist.

Anmerkung: Eine Übersicht über die Windows 10 IoT-Editionen und weitere Zusatzinformationen zu Windows 10 für das Internet der Dinge findet man unter:

https://www.microsoft.com/de-de/WindowsForBusiness/windows-iot

Universal Windows Platform Apps

Hat man das Setup seines Devices abgeschlossen und eine laufende Version von Windows 10 IoT deployed, so kann man sich an die eigentliche Aufgabe machen und seine App Entwickeln.

Grundsätzlich gibt es im Umfeld von Windows IoT nicht sonderlich viel zu beachten. Aufgrund des Konzeptes von Windows Universal Platform und der Universal Windows Platform Apps ist es einzig notwendig, dass die App für die richtige Prozessorarchitektur gebaut wird, um lauffähig zu sein, z.B. ARM für Raspberry Pi 2, Raspberry Pi 3 oder x86 für MinnowBoard Max.

Was eine Universal Windows Plattform App ist und vieles mehr dazu erfährt man unter:

https://msdn.microsoft.com/en-us/windows/uwp/get-started/whats-a-uwp

Für Apps, die Hersteller-spezifische Bauteile und Features nutzen wollen, benötigt man entsprechende Bibliotheken. So ist z.B. für das Pin Board und die Nutzung von GPIO das Windows IoT Extension SDK notwendig.

Wie man seine Apps auf das IoT-Device deployed kann man hier gut nachvollziehen.

https://developer.microsoft.com/en-us/windows/iot/Docs/appdeployment#csharp

Befindet sich das IoT-Device im Netzwerk mit Zugang zum Internet, kann direkt vom Device eine Verbindung zu Cloud Services oder ähnlichem aufgebaut werden und zwar bidirektional.

Azure IoT Hub

Last but not least bietet Microsoft mit dem Azure IoT Hub noch die Möglichkeit, die IoT-Devices zu verbinden, überwachen und zu verwalten.

Neben zahlreichen hilfreichen Features ist hier vor allem die Möglichkeit einer zuverlässigen, bidirektionalen Kommunikation mit dem Device der Grund, warum man sich Azure IoT Hub auf jeden Fall einmal ansehen sollte.

Zugang zum Azure IoT Hub findet man hier:

https://azure.microsoft.com/de-de/services/iot-hub/

Zu Testzwecken kann man sich kostenlos für den Dienst registrieren und bis zu 8000 Nachrichten am Tag für Testszenarien an seine Devices verschicken.

Kurze Schlussbemerkung

Mir persönlich hat der IoT-Workshop Lust gemacht, mich nochmal etwas praktischer mit dem Thema auseinander zu setzen. Natürlich weiter im Umfeld von Windows IoT, da mein technischer Fokus im Arbeitsalltag auch auf Microsoft-Technologien liegt. Aber auch die Möglichkeiten, die Microsoft Entwicklern bietet, sich kostengünstig dem Thema zu nähern, haben mich überzeugt.

Stellt sich nun die Frage, ob ich an die Elektronik unserer Kaffeemaschine darf ☺

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

Wir haben auch noch Schoki da!

Veröffentlicht am 28.02.2017 von Clemens Kruse , DevOps , Cloud , Event

Rub a little DevOps on it - “Delivering Value to our Customers. That’s what it is about.”

Donovan Brown hat mich auf der Technical Summit durchaus beeindruckt. Trotz der fortschrittlichen Inhalte seiner Keynotes lag das aber vor allem daran, dass er schlichtweg ein Entertainer ist. Dies trifft nicht nur auf Donovan zu.

Mein Gesamteindruck der Technical Summit 2016 ist ein Mix aus Entertainment, Werbung und sehr guten Ideen. Ich bekam zahlreiche Eindrücke, wie gewisse Probleme angegangen werden können - die Methoden dazu gibt es aber nicht erst seit gestern. Der Fokus der meisten Vorträge lag auf dem Thema „Microsoft ❤ Open Source“. So auch der von Donovan, der ein Szenario aus Ubuntu + aspnet core + Docker + yeoman + Visual Studio Code präsentierte, um die Nachricht der neu entdeckten Affinität von Microsoft zu Open Source Software zu verbreiten.

Erste Tutorials mit ähnlichen Szenarien gibt es allerdings schon seit Februar 2016 (beispielsweise dieses hier: https://blogs.infosupport.com/build-deploy-test-aspnetcore-docker-linux-tfs2015/ oder hier: http://blog.codingtimes.com/2016/06/29/net-core-mvc-web-application-at-ubuntu-16-04-with-yeoman-docker-and-visual-studio-code/). Ich wollte einigen Impulsen folgen und das ein oder andere Tutorial nachbauen und habe recht schnell gemerkt, wie umständlich das ganze Prozedere ist. Bisher habe ich in Visual Studio nur ein Projekt-Template gewählt, programmiert und nach getaner Arbeit schließlich via Rechtsklick die Solution bereitgestellt. Jetzt fühlt es sich so an, als hätte man den Ferrari gegen einen Lada eingetauscht, weil der Lada-Verkäufer so charmant gewesen ist.

Meinen persönlichen Höhepunkt hatte die Ferrari-Lada-Metapher im Vortrag „Yo ASP.NET – was ist neu und was bleibt mit ASP.NET Core 1.0“. DOTNET ist mit Core nun modular geworden. Das ist schön. Da Microsoft ja mittlerweile Open Source liebt, wurde auch in diesem Vortrag alles mit Ubuntu und VS Code umgesetzt. Das heißt im Klartext: alles zu Fuß. Das funktioniert sicherlich irgendwie (wenngleich die Demo etwas holprig verlief), hat aber meiner Ansicht nach nichts mit Fortschritt zu tun. Um das Publikum während des Vortrages bei Laune zu halten, wurden die Schokoladen-Reste vom Nicolaus verteilt. „Wenigstens gab es Schoki“ wird der ein oder andere Besucher am Ende der Veranstaltung gedacht haben.

Fazit aus Perspektive des Studenten: Um sich Impulse zu holen war die Technical Summit 2016 in Darmstadt sehr gut geeignet. Auch das Essen war deutlich besser, als das was man aus der Mensa gewohnt war. Und zwischendurch gab es auch richtig gute Vorträge. „Machine Learning for Developers“ von und mit Seth Juarez war einer davon. Richtig in die Tiefe gehen muss man jedoch immer noch selbst. Immerhin haben mich die zwei Tage dazu gebracht, mich mehr mit Docker und Microservices auseinanderzusetzen. Wenngleich ich auch dort in meinem Mini-Projekt (WCF-Service in einem Container) in der begrenzten Zeit nur an der Oberfläche kratzen konnte.

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

Die Möglichkeit der Wiedereingliederung nach längerem Ausfall

Veröffentlicht am 01.02.2017 von Florian Hieber , Insights@ebizcon

Nach einer langwierigen gesundheitlichen Einschränkung bietet die Deutsche Rentenversicherung oder die Krankenversicherung die Möglichkeit der Wiedereingliederung. Während dieser Maßnahme bezahlt der Kostenträger dem Versicherten einen Großteil seines Gehaltes, während dieser unter Aufsicht eines Arztes teil- und stufenweise wieder in das Arbeitsleben zurückfindet.

Ich hatte Mitte des Jahres ein gesundheitlich einschneidendes Erlebnis. Nach einer recht plötzlichen und aufwändigen Operation war ich vier Monate arbeitsunfähig, inklusive einer Rehabilitationsmaßnahme. Vorher hätte ich es mir nicht vorstellen können, dass selbst alltägliche Dinge ein Problem darstellen können. Aber ich musste erleben, dass selbst Einkaufen oder Haushaltstätigkeiten mich dermaßen anstrengen können, dass ich diesen kaum gewachsen war.

Noch in der Rehabilitation wurde ich vom Sozialdienst und der Psychologin gefragt, ob eine Wiedereingliederungsmaßnahme in die Arbeit für mich interessant ist. Man selbst ist nämlich auch schon die erste Hürde für solch eine Maßnahme. Der Kostenträger, der Patient, der Arbeitgeber und der behandelnde Arzt müssen mit dieser Maßnahme einverstanden sein. Bei mir war diese Hürde schnell genommen, die eBiz Consulting hat diese Maßnahme sofort unterstützt. Arzt und Kostenträger haben diese Maßnahme ja vorgeschlagen, und auch mir hat die Aussicht, etwas früher, dafür schrittweise in das Berufsleben zurückzukehren, gut gefallen.

Wenn alle ihr Einverständnis bekundet haben, legt der Arzt einen Plan fest, der die Tagesarbeitszeiten für einen bestimmten Zeitraum festlegt. Das geschieht in Stufen solange, bis die Tagesarbeitszeit wieder der normalen Arbeitszeit entspricht. Zu diesem Zeitpunkt endet dann auch die Krankschreibung. Bis dahin ist man krankgeschrieben und

1. darf erstens keinen Urlaub nehmen, zweitens zahlt der Arbeitgeber keine Bezüge und drittens müssen Reisetätigkeiten mit dem Arzt besprochen werden.

Diese Planung sowie ein Antragsformular wurden vom Sozialdienst an die Deutsche Rentenversicherung gesendet, die die Maßnahme sehr schnell genehmigte.

Zwischen der Reha und der Maßnahme liegt üblicherweise noch ein gewisser Zeitraum.

clip_image002

Ist dieser länger als 28 Tage, ist der Träger der Maßnahme die Krankenkasse, ansonsten die Rentenversicherung. In meinem Fall war der Träger war die Rentenversicherung. Diese differenziert zwischen der Maßnahme selbst und dem Übergangsgeld, man muss also weitere Formulare ausfüllen, um eine Lohnfortzahlung in Form von Übergangsgeld zu erhalten. Das Übergangsgeld wurde erst sehr spät gezahlt, etwa zwei Monate nach Beginn der Maßnahmen. Hier müssen sich also genügend liquide Geldmittel auf dem Konto befinden. Die Rentenversicherung zahlt auch keine Abschläge, da sie argumentiert, man müsse dafür finanzielle Rücklagen für so einen Fall aufbauen.

Umfang und Dauer der Wiedereingliederung sind unter anderem abhängig vom Wiedereingliederungsplan des behandelnden Arztes und der Berufstätigkeit. Mein Plan sah vor, mit 4h Arbeit am Tag über einen Zeitraum von 14 Tagen zu beginnen. Danach wurde die Anzahl auf 6 Stunden pro Tag für die nächsten 14 Tage vorgeschlagen. Krankheitsbedingt war Reisen erst in der letzten Woche erlaubt, Fliegen für den Zeitraum der Wiedereingliederung gar nicht. Da bei der eBiz Consulting das Motto „Erst wer, dann was“ wirklich gelebt wird, wurden schnell Aufgaben gefunden, die mit meinem gesundheitlichen Zustand vereinbar waren. Es wurde sogar über die Wiedereingliederung hinaus darauf geachtet, dass die übernommenen Tätigkeiten nicht zu anstrengend waren, obwohl ich offiziell ja wieder gesund war. Tatsächlich benötigte ich etwas mehr Zeit, um wieder ins Arbeitsleben zu gelangen als selbst der Arzt mit seinem Plan angenommen hatte. Insofern war ich der eBiz Consulting sehr dankbar für die Rücksichtnahme und das Verständnis. Ich selbst habe nicht mit so starken Einschränkungen und Startschwierigkeiten gerechnet, da war es erst recht außergewöhnlich und eine gute Erfahrung, dass der Arbeitgeber hier Verständnis zeigt.

Fazit:

Die Wiedereingliederung war eine neue und positive Erfahrung, die ich Jeder und Jedem ans Herz legen kann, der nach längerer Krankheit rasch und sicher zurück ins Berufsleben gehen möchte. Einzig die Herausforderungen finanzieller Art, die ich bei der Deutschen Rentenversicherung erlebt habe, haben das Bild etwas getrübt. Unterm Strich ist das aber kein Grund , die Wiedereingliederung nicht zu machen. Ansonsten würde man länger krank sein und direkt wieder zu 100% in das Berufsleben gehen. Diesen Schritt hätte ich mir unten meinen persönlichen Umständen sehr schwer vorgestellt.

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

Hüttenzauber@eBiz

Veröffentlicht am 29.12.2016 von Lena Liman , Event , Insights@ebizcon

Zum letzten Mal für dieses Jahr fand das monatliche Company Meeting der eBiz Consulting GmbH statt. Großes Thema an diesem Tag war die Neugestaltung der Homepage und deren Anpassung an die strategische Ausrichtung der eBiz Consulting GmbH. Den Höhepunkt des Tages und zugleich auch der krönende Abschluss, bildete die eBiz Weihnachtsfeier unter dem Motto „Hüttenzauber“.

Das letzte Company Meeting des Jahres ist für gewöhnlich etwas ruhiger und besinnlicher, was aber nicht bedeutet, dass alle auf der faulen Haut liegen. Es wurde fleißig an neuen Texten und Anpassungsvorschlägen für die Umgestaltung unserer Homepage gearbeitet. Die Ergebnisse des Tages sind klasse, beruhen auf gemeinsamen Entscheidungen und werden bald auch veröffentlicht.

Apropos gemeinsam, da das Team der eBiz in diesem Jahr weiterwachsen konnte, hatten wir einen hervorragenden Fotografen engagiert, der die neuen Kollegen und auch das gesamte Team noch einmal in Szene gesetzt hat.
Nach unserem erfolgreichen Meeting machten wir uns auf den Weg ins Hotel nach Wiesbaden Erbenheim. Alle hatten etwas Zeit sich frisch zu machen, bis wir um 18 Uhr schließlich abgeholt wurden und es hieß, auf zum eBiz Hüttenzauber.
image

Man könnte es erahnen, unsere diesjährige Weihnachtsfeier fand in einer kleinen, gemütlichen Hütte statt. Diese wird im Rahmen eines kleinen „Holzhüttendorfes“ extra zur Weihnachtszeit auf dem Feld eines Milchbauern aufgebaut.
Für die rund drei Kilometer vom Hotel dorthin, hatte Lena einen entspannten und gemütlichen Fackelzug für alle Mitarbeiter samt Familien durch die Felder organisiert.
Dort angekommen wartete schon die Glühweinbar auf ihren Einsatz und wir wurden herzlich begrüßt. Anschließend machten wir es uns in „unserer“ kleinen Hütte gemütlich. Das Essen war sehr lecker, die Stimmung ausgelassen und alle entspannten sich in familiärer Atmosphäre.
image

Vor dem Dessert veranstalteten wir dann ein kleines Eisstockschießturnier. Robert kürte sich hier im Vorfeld schon zum Gewinner und tatsächlich holte er sich auch den ersten Platz. Sein Preis, einen Sphero App gesteuerten Ball, erklärte er direkt zum neuen eBiz Gadget für alle Mitarbeiter.              
Solveig belegte den zweiten Platz und bekam einen Gutschein zum Stand Up Paddling auf dem Main in Frankfurt und Caro gewann mit dem dritten Platz einen Massage Gutschein.
Es war eine rundum gelungene und schöne x-mas Sause und mir persönlich ist an diesem Abend besonders aufgefallen, dass das Team unglaublich gut harmoniert und zusammenpasst. Ich freue mich auf das nächste spannende Jahr bei der eBiz Consulting und wünsche allen einen guten Rutsch in 2017.

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

PLAN.DESIGN.BUILD mit MS Planner

Veröffentlicht am 30.11.2016 von Andreas Pohl , Office365 , Cloud

Mit Office 365 Planner bringt Microsoft ein neues Tool neben dem etablierten MS Project heraus, dass die Zusammenarbeit von verteilten Teams noch besser unterstützen soll.

In meiner Rolle als technischer Projektleiter bin ich immer an neuen Kollaborations- und Planungswerkzeug interessiert, so dass ich mir heute die Zeit nehme das neue Mitglied der O365 Familie genauer anzuschauen.

Wie alle O365 Applikation ist Planner am üblichen Platz in der O365 Navigationsleiste zu finden.

Bild 1

Nachdem man auf das Planner-Icon gedrückt hat, kommt man auf die Einstiegsseite von Planner. Auf der linken Menüseite findet man die Punkte, Neuer Plan, Planner-Hub (eine Art Übersicht der aktuellen und relevanten Pläne, „Meine Aufgaben“, Bevorzugte und alle Pläne.

Bild 2

Um sinnvoll die Funktionen von Planner erkunden zu können brauche ich ein geeignetes Test-Szenario. Da die eBiz sich ja seit einiger Zeit mit dem Unternehmensziel der Ausarbeitung und Umsetzung einer Social Media Strategie beschäftigt, bietet es sich an, die damit verbundene Planung als Test-Scenario mittels Planner umzusetzen

Als erstes erstelle ich einen neuen Plan mit dem Namen: „Befüllung Social Media Backlogs Q4“. Hierbei ist zu beachten, dass Sonderzeichen und Umlaute automatisch bei der Generierung der E-Mail-Adresse weggelassen werden, d.h. einfach korrigieren. In meinem Fall „ue“ statt ü.

Ich entscheide mich dafür, dass mein Plan erst einmal nur privat sichtbar ist, d.h. nur später zugewiesene Teammitglieder können den Plan sehen. Die andere Möglichkeit ist Öffentlich, für alle Mitarbeiter der eBiz.

Das Resultat stellt sich wie folgt dar:

Bild 3

Nach ein paar Sekunden erscheint die Detailsicht auf den neuen (Projekt-)Plan. Planner vergibt dabei automatisch das Kürzel des Planes anhand der ersten beiden Buchstaben des Namens, Befüllung Social Media.

Im Navigationsribbon (siehe roter Rahmen) ist standardmäßig „Board“, der eigentliche Arbeitsplatz, ausgewählt. Daneben gibt es noch Diagramme und wie mittlerweile bei O365 Anwendungen das obligatorische Notizbuch in OneNote. Hilfreich für den Einstieg in Planner sind die angezeigten Tipps.

Bild 4Bild 5

In der erweiterten Ansicht - zu erreichen über die drei Punkte - bekommt man noch weitere Möglichkeiten, wie Unterhaltungen, Kalender, Mitglieder des Plans, Dateien angeboten (siehe Abbildung). Zusätzlich kann man darüber den Plan verwalten und E-Mails abonnieren. Wie bei jedem Projektplan gilt es nun Aufgaben zu definieren, Fälligkeiten zu definieren und entsprechende Ressourcen hinzuzufügen. Außerdem gibt es die Möglichkeit „Buckets“ zu definieren, über die man Aufgaben logisch gruppieren kann.

Im nächsten Artikel geht es mit der Aufgabenerstellung und Verteilung weiter.

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

Handelsblatt - Hybrid Cloud

Veröffentlicht am 08.11.2016 von Florian Hieber , Cloud , Security

Am 19.10.2016 habe ich einen interessanten Artikel im Handelsblatt zum Thema Hybrid Cloud gelesen. Der Artikel hatte die Überschrift „Gefährliche Schnittstellen“ und ist von Manuel Heckel verfasst.

Im Artikel gibt es zwei Kernaussagen:

  1. Es gibt derzeit nur wenig Know-How und Erfahrung zum Thema Hybrid in Unternehmen.
  2. Hybridszenarien erhöhen die Gefahr für Viren und Angriffe durch Hacker, da die Anzahl von Schnittstellen zwischen Cloud und den lokalen Servern erhöht wird.

Ich persönlich kann die Aussage unterstreichen, dass das Thema Hybridszenarien in Unternehmen zwar in aller Munde ist, aber Know-How und Erfahrung dazu oft nicht oder kaum vorhanden ist.

Beratung ist hier besonders wichtig, da eben die Möglichkeiten an Hybridszenarien zwar einigermaßen begrenzt sind. Die Herausforderungen können aber, je nach Unternehmensstruktur (IT) und gesetzlichen oder politischen Bestimmungen sehr schnell komplex werden. Wichtig ist hier, schon im Vorfeld das für das Unternehmen richtige Hybridszenario zu definieren und danach dann die Risiken und deren Faktoren zu bestimmen.

Die eBiz Consulting kann zumindest für Office365 Hybridszenarien auf einige Projekte verweisen, die erfolgreich durchgeführt wurden. Derzeit ist die eBiz Consulting in einem der europaweit größten Office365 Hybrid - Projekte als Beratungsunternehmen tätig. Ich habe zum Thema Hybridszenarien für Office365 einen einführenden Foliensatz erstellt, der auf Anfrage gerne bezogen werden kann.

In dem Foliensatz sind die bekannten und sinnvollen Hybridszenarien und deren Herausforderungen angesprochen, nicht jedoch die im Artikel befürchtete Gefahr eine Bedrohung der Schnittstellen. Hier hat Microsoft einen Lösungsansatz angewendet, der deutlich sicherer ist als beispielsweise Internet Banking. Es wird auf beiden Seiten ein Server genutzt, der mit dem jeweils anderen Server eine Vertrauensstellung eingeht und die Verschlüsselung der Nachrichten übernimmt. Beim Internet Banking geschieht dies nur einseitig und trotzdem so sicher, dass die Verbindung noch nie erfolgreich gehackt werden konnte.

Ich sehe hier also eher keine große Gefahr, jedoch Aufwand bei der Einrichtung.

Weiterhin gibt es für jedes Hybridszenario Herausforderungen, deren Anzahl sich, je nach Unternehmen und Struktur, noch erhöhen kann. Ich bleibe bei meiner Aussage, dass Hybridszenarien, zumindest bei Microsoft, ein spannendes und sicher auch größeres Projekt darstellen, nicht aber ein erhöhtes Sicherheitsrisiko sind.

Fazit

Hybrid gilt als gute Lösung um Datenschutz und Security on premise zu gewährleisten, sowie die Vorteile (Skalierbarkeit, Erreichbarkeit, Kostensenkung) der Cloud zu nutzen.

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

Microsoft Flow, der kleine Bruder von Logic Apps

Veröffentlicht am 30.10.2016 von André Dammeyer , Integration , Cloud

Unter https://flow.microsoft.com erreicht man als autorisierter Benutzer das IFTTT von Microsoft. Ich bezeichne es auch als den kleinen Bruder von Logic Apps, weil ganz offensichtlich beide Dienste dieselbe Engine von Microsoft verwenden. Flow ist für die Integration von Webdiensten (wie z.B. Twitter, Facebook, Office 365,…) untereinander geeignet. Es gibt den Flow-Editor, der für den Endbenutzer-Einsatz gedacht ist, als Web-Anwendung und für z.B. iOS als App.

Der Einstieg wird leicht gemacht

Wenn man seine ersten Gehversuche mit Flow machen möchte, bietet es sich an mit einem der unzähligen Vorlagen zu starten und zu lernen, wie man die sogenannten Flows erstellt und konfiguriert.

image

Einsatzideen

Ich selbst habe aktuell drei Flows konfiguriert, die ich unter Meine Flows erreichen kann.

  • Retweet with approval: In diesem Flow ist eine Twitter-Suche konfiguriert, die für mich interessante Twitter-Hashtags überwacht. Immer denn, wenn ein neuer Treffer in dieser Suche gefunden wird, erzeugt und versendet dieser Flow eine Mail an mich, in der der Tweet samt Inhalt und Link enthalten ist. Außerdem ist in der Mail eine ja/nein-Abfrage enthalten. Wenn ich die Schaltfläche “ja” in der Mail auswähle, wird der betreffende Tweet sofort unter meinem Account re-tweeted.
  • Email a Tweet from a Specific User: In diesem Flow werden die Tweets der eBiz Consulting GmbH überwacht. Immer dann, wenn ein neuer Tweet der eBiz erstellt wurde, erhalten alle Mitarbeiter der eBiz eine Mail mit der Bitte diesen Tweet zu liken oder re-tweeten.
  • Notify about BizTalk Video: In diesem Flow werden alle Videos auf YouTube mit “BizTalk” im Titel ermittelt und per Mail an mich gemeldet. Damit werde ich sofort über neue BizTalk-Videos auf YouTube informiert.

Mir fallen noch unzählige weitere Use Cases ein, die ich wahrscheinlich nach und nach umsetzen werde.

Beispiel: Get eBizCon-Tweets per Mail

Schritt 1: Neuen Flow ohne Vorlage erstellen

Da wir genau wissen, was wir vor haben, bietet es sich an mit einem leeren Flow zu starten. Dazu wählt man unter Meine Flows die Schaltfläche “Ohne Vorlage neu erstellen” aus.

image

Schritt 2: Flowname vergeben und Twitter-Dienst auswählen

Zunächst muss man dem Flow einen Flowname geben. Hier bietet es sich an etwas sprechendes zu verwenden, denn unter diesem Namen findet man den Flow später unter Meine Flows wieder. Danach gibt man in dem Suchfeld für Schritte “Twitter” ein um die Aktionen zu finden, die in Flow für Twitter zur Verfügung stehen. Danach wählt man “Twitter – When a new tweet is posted” aus und hat damit den ersten Schritt in den Flow aufgenommen.

image

Schritt 3: Twitter-Suche definieren

Diesen ersten Schritt muss man konfigurieren, in dem man einen Suchtext eingibt. Hier kann man “normale” Twitter Abfragen angeben (d.h. z.B. auch mit OR verknüpfte Begriffe). In unserem Fall geben wir “#ebizcon” ein, weil alle Tweets der eBiz Consulting mit “#ebizcon” versehen werden.

image

Schritt 4: Neuer Schritt “Send email” auswählen und konfigurieren

Nun fügt man einen neuen Schritt in den Flow ein, in dem man in das Suchfeld “Send email” eingibt. Dort konfiguriert man nun die Mail so, dass alle notwendigen Informationen aus dem Tweet enthalten sind. In unserem Fall verwenden wir einen statischen Betreff, aber einen dynamischen Body. Im Body wollen den Tweet-Text einfügen und wählen dazu das dynamische Feld “Tweettext” aus.

image

Schritt 5: Flow aktualisieren und warten bis ein neuer eBizCon-Tweet kommt

Damit der jetzt bereits fertige Flow aktiviert wird, muss nur noch “Flow aktualisieren” ausgewählt werden. Der Flow erscheint dann in Meine Flows.

image

Fazit

Mit Flow hat Microsoft eine gelungene Plattform bereitgestellt, mit der sehr einfach verschiedene Quellen und Ziele im Web miteinander verknüpft werden können. Es gibt schon sehr viele Vorlagen, die man mit nur wenigen Anpassungen für sich nutzen kann. Es ist sogar möglich einfache Workflows vollständig über die Smartphone App zu erstellen. Und weil man mit der Plattform sehr schnell recht ansehnliche Workflows bauen kann, macht es auch sehr viel Spaß damit zu arbeiten.

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

O'zapft@eBiz in Frankfurt

Veröffentlicht am 30.09.2016 von André Dammeyer , Event , Insights@ebizcon

Wie auch schon letztes Jahr hat die eBiz ihre Mitarbeiter zum Frankfurter Oktoberfest eingeladen. Zum ersten Mal wurde der Teilnehmerkreis auch um Projektkollegen erweitert – was toll war! Das werden wir nächstes Jahr ganz sicher weiter ausbauen. An dieser Stelle auch nochmal ein herzliches Dankeschön an Lena für die großartige Organisation.

clip_image002

Unter dem Motto „Bergfest“ war es am 29. Oktober um 17:30 Uhr endlich soweit, o‘ zapft is! Nach dem ersten leckeren Maß und deftigem Händel mit Pommes, wurde zur Musik von Die Junx geschunkelt. Danach ging es hoch auf die Bierbänke und das Team fügte sich in seinen Trachten perfekt in die Oktoberfestkulisse ein. Und so ging es die nächsten Stunden weiter in ausgelassener Stimmung mit Hits wie „Atemlos“, „Westerland“ und „Malle ist nur einmal im Jahr“.

clip_image004

Nach einem gelungenen Abend ging es wohlbehalten zurück nach Hause oder ins Hotel. Wir freuen uns bereits jetzt auf das nächste Jahr!

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

Lange Pfade unter Windows 10 in Sicht

Veröffentlicht am 13.09.2016 von André Dammeyer , Allgemein , Windows

Haben wir nicht alle schon zu Zeiten der MS-DOS 8.3-Dateinamen Konvention von aussagekräftigen und Struktur spendenden Pfaden unter Windows geträumt? Jetzt ist es für den versierten Anwender zumindest teilweise soweit.

Keine Ahnung warum so etwas nicht zusätzlich etwas anwenderfreundlicher platziert und gleich per Default aktiviert wird, aber Microsoft wird schon gute Gründe dafür haben. Mich hat diese Begrenzung insbesondere bei der Ablage von Dateien unterhalb c:\Users\[User Name]\Documents\ gestört. Denn darunter fängt man ja erst so richtig an die eigene Verzeichnisstruktur aufzubauen. Denken wir zum Beispiel mal an Visual Studio Projekte, die dann erst unterhalb von c:\Users\[User Name]\Documents\Visual Studio 2015\Projects\ liegen.

Aber die Zeit der Beschränkung ist noch nicht ganz vorbei. Denn folgende Formulierung findet man bei der Einstellung im Editor für lokale Gruppenrichtlinien:

“Durch die Aktivierung langer Win32-Pfade erhalten Win32-Manifestanwendungen und Windows Store-Anwendungen Zugriff auf Pfade, die über dem normalen Limit von 260 Zeichen pro Knoten liegen. Dies gilt für Dateisysteme, die dies unterstützen. Wenn Sie die Einstellung aktivieren, kann während des Prozesses auf lange Pfade zugegriffen werden.”

Und eine kurze Recherche zum Thema brachte den Artikel Announcing .NET Framework 4.6.2 hervor. In dem Artikel steht, dass ab .NET Framework 4.6.2 die Limitierung in der Base Class Library (BCL) von System.IO aufgehoben ist. Daraus leite ich ab, dass es wohl noch eine Weile dauern wird, bis die breite Masse an Anwendungen dieses Feature unterstützt.

Was ist zu tun, um die Einstellung doch schon mal zu aktivieren?

Bei einem deutschen Windows:

  1. Windows Taste drücken, gpedit.msc eingeben und bestätigen
  2. Nach Computerkonfiguration\Administrative Vorlagen\System\Dateisystem wechseln
  3. Doppelklick auf Einstellung “Lange Win32-Pfade aktivieren”
  4. “Aktiviert” auswählen und den Dialog mit OK beenden

Bei einem englischsprachigen Windows:

  1. Press Windows Key, type gpedit.msc and hit enter
  2. Navigate to Computer Configuration\Administrative Templates\System\Filesystem
  3. Double click option “Enable Win32 long paths”
  4. Choose “Enabled” and click OK
google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

PLAN. DESIGN. BUILD. – UND DAS MIT MOTIVATION

Veröffentlicht am 26.08.2016 von Lena Liman , Insights@ebizcon

Plan. Design. Build. – ist der Leitspruch der eBiz Consulting GmbH. Meine persönliche Ergänzung nach meinem ersten halben Jahr @eBiz lautet “Motivation”. Warum? Das erzähle ich euch gern.

Im Januar 2016 sah ich mich, nach mehreren Rückschlägen, schließlich doch nochmal nach freien Stellen um, und wie der Zufall es will, suchte die eBiz Consulting GmbH nach einer Assistenz der Geschäftsführung in Teilzeit. Beim Durchstöbern der Homepage überkam mich schon ein Gefühl des “Dazugehörens”, und es lag ein TEAMGEIST in der Luft meines Wohnzimmers, der mich direkt mitriss. Sofort habe ich meine Bewerbung versandt, und es dauerte nicht lange, bis ich eine Antwort bekam. Mein Vorstellungsgespräch absolvierte ich bei zwei von drei Geschäftsführern, Andreas Pohl und André Dammeyer. Ich war so aufgeregt wie seit einigen Jahren nicht mehr, aber beide nahmen mir schon bei der Begrüßung jegliche Anspannung. Und dann dieses Büro…! “Wow” kann man da nur sagen. Diese Aussicht auf das Rollfeld des Frankfurter Flughafens war definitiv eine schöne Vorstellung für meinen neuen Arbeitsplatz.

Wie während des Vorstellungsgesprächs versprochen, dauerte es nicht länger als eine Woche, und der dritte Geschäftsführer Robert Schlachta teilte mir mit, dass ich am 1. Februar starten könne. Natürlich willigte ich ohne zu zögern ein.

An meinem ersten Tag zeigte mir Andreas Pohl das gesamte Büro und meinen Arbeitsplatz bzw. festen Schreibtisch. Ich bekam einen Laptop als Arbeitsmittel überlassen, inklusive Zubehör, ein Handy samt Vertrag und einen äußerst guten Kaffee. Diese Art “Empfang” eines neuen Mitarbeiters ist sicher nicht selbstverständlich und machte einen besonders guten und professionellen Eindruck auf mich.

Die ersten Wochen erschloss sich mir mein Aufgabenfeld, und wir bauen es gemeinsam immer weiter aus. Es zeigte sich schnell, dass die Geschäftsführung eine helfende Hand benötigte. Das war u.a. daran zu erkennen, dass Andreas eigentlich dauerhaft ans Telefon gebunden ist. Nebenbei bemerkt: Ich habe noch nie einen Menschen so viel telefonieren sehen. Es begeistert mich jeden Tag, die Motivation bei Andreas zu erleben und seinen Ehrgeiz, einen guten Job machen zu wollen. Trotz Projekten und Termindruck hat er dabei immer ein offenes Ohr für seine Mitmenschen.

Auf gleicher Ebene arbeiten auch die zwei weiteren Geschäftsführer André Dammeyer und Robert Schlachta mit mir, die ich nach kurzer Zeit bereits besser kennengelernt habe. Und wieder diese außerordentliche Motivation, die hier immer an den Tag gelegt wird.

Über seine Projekttätigkeit hinaus widmet sich Robert Schlachta begeistert der Gewinnung neuer Mitarbeiter und Kunden. André Dammeyer hält neben seiner Verantwortlichkeit für verschiedene Projekte und seiner Rolle als Geschäftsführer und Mentor die Infrastruktur des Unternehmens auf aktuellstem Stand und erweitert diese kontinuierlich.

Ich kann und darf, was heutzutage nicht selbstverständlich ist, das Wort “Vertrauen” verwenden und möchte sagen, dass ich das Gefühl habe, dieses bei der eBiz zu genießen. Das Arbeiten erfolgt beispielsweise auf Vertrauensbasis, wie es sich am “Gleitzeitmodell” zeigt. Diese Basis ermöglicht es mir, mich neben meiner ausfüllenden Tätigkeit als Mama auf meinen Job zu konzentrieren.

Eine besondere Herausforderung ist außerdem meine Funktion als Schnittstelle zwischen Geschäftsführern und Mitarbeitern. Die meisten Mitarbeiter der eBiz sind in verschiedenen Projekten tätig und somit deutschlandweit im Einsatz. Aus diesem Grund hatte ich zum ersten Company Meeting das erste Mal die Möglichkeit, alle meine neuen Kollegen kennenzulernen. Es gestaltet sich schwierig, eine Firma zusammenzuhalten, wenn die Mitarbeiter meist Vollzeit in Projekten tätig sind. Dieses monatliche Meeting schweißt zusammen. Es werden Erfahrungen ausgetauscht und neue Ideen erarbeitet. Auch ich habe meinen “Backoffice Slot”, indem ich wichtige Themen aus meinem Aufgabenfeld anschneiden kann. Hier überkommt mich immer wieder der TEAMGEIST, wie ich ihn schon in meinem Wohnzimmer gespürt habe.

Des Weiteren beeindruckte mich vom ersten bis zum letzten Company Meeting immer wieder dieser Ansporn, der in jedem einzelnen Mitarbeiter steckt, dieses Unternehmen voran zu bringen. Alle sind mit Elan bei der Sache und identifizieren sich mit der eBiz Consulting GmbH, jede(r) auf ihre oder seine eigene Art und Weise, und von allen lerne ich immer wieder etwas Neues dazu.

Dieses Miteinander führt zu einem harmonischen Ganzen, und ich bin sehr stolz, ein Teil davon zu sein. Außerdem freue ich mich weiterhin, meinen abwechslungsreichen und spannenden Arbeitsalltag bei der eBiz zu erleben.

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

Konzeption und Koordination der AD-Usermigration im Rahmen eines Windows-Updates mit Client-Rollout

Veröffentlicht am 03.08.2016 von Robert Schlachta , Allgemein

Für ein großes deutsches Finanzunternehmen, konzeptionierten, koordinierten und begleiteten wir die AD-Usermigration von ca. 1000 AD-User und stellten uns nicht nur im Vorfeld spannenden Herausforderungen.

Im Rahmen eines Client-Rollouts von neuen Arbeitsplatzsystemen erfolgte ein Wechsel auf eine neue Windows-Version. Im Zuge dieses Rollouts wurde zusätzlich eine AD-Usermigration durchgeführt. Hierbei wurden die ca. 1.000 Benutzer innerhalb des Active Directory on Demand verschoben, da sich der Zugriff auf die AD-Struktur durch das neue Betriebssystem geändert hat.

Sobald eine Migration beim Kunden vor Ort für den neuen Client beantragt wurde, muss dies sogleich mit der AD-User-Migration im Backend (Active Directory) durchgeführt werden. Die Herausforderungen an diesem Switch waren nicht nur das Beibehalten der bestehenden User-ID für den Benutzer und die Migration des kompletten Prozesses innerhalb eines 15-minütigen Zeitfensters, sondern ebenfalls das Schaffen einer Möglichkeit, die bereits migrierten User in die alte Struktur binnen kürzester Zeit zurückzusetzen, sollte der neue Client funktional nicht im vollen Umfang zur Verfügung stehen und vom Benutzer nicht abgenommen werden. Im übertragenden Sinne benötigten wir einen “Backup and Recovery”-Prozess für den Migrationsprozess, der sich durch die organisatorische Struktur des Kunden über mehrere Standorte und Ansprechpartner erstreckt.

Während der Konzeptionierung, hierzu zählen unter anderem die Abstimmung der Anforderungen und des Scopes, sowie die Machbarkeitsüberprüfung durch eine ausreichende Testdurchführung, wurde eng mit dem Kunden zusammengearbeitet, um ein vollständiges Bild von deren Abläufen zu erhalten.

Zur Koordination der 150 Projektmitarbeiter wurden zentral die Änderungs- bzw. User-Migrationsaufträge entgegengenommen und koordiniert. Nach jeweils erfolgter Migration erfolgte eine Rückmeldung an die Servicetechniker. Folgendes UML-Sequenzdiagram verdeutlicht den Migrationsablauf:

Für eine lückenlose Dokumentation und eine schnelle Abarbeitung der eintreffenden Migrationsaufträge, wurde ein auf Microsoft Technologien basierendes Verwaltungstool entwickelt, mit dem unter anderem die Aufträge aufgerufen, bearbeitet und die Teams automatisiert per Mail benachrichtigt werden konnten. Dieses Tool lässt sich mit wenigen Anpassungen auf andere Strukturen / Tabellen aufsetzen, sodass es für weitere Migrationen verwendet werden kann. In der folgenden Abbildung sieht man die Migrationsverwaltung inkl. automatisierter E-Mail.

Das Projekt hat sich bewusst gegen die Einführung einer eventuell vorhandenen Kaufsoftware entschieden, da mit der auf den Prozess und das Vorhaben zugeschnittenen Verwaltungskonsole konkret auf die Kundenbedürfnisse eingegangen werden konnte. Weiterhin wurde das Verwaltungstool nach dem Projektende nicht weiter benötigt, was ebenfalls für eine temporäre Lösung sprach.

Als Single-Point-Of-Contact (SPOC) stand die eBiz Consulting durchgängig für die eintreffenden Anfragen zur Verfügung und konnte die durchschnittlich 150 Anfragen pro Tag stets erfolgreich abschließen. In der Darstellung erkennt man die Interaktion der involvierten Teams untereinander.

Auf Basis der festgehaltenen Daten in der Migrationsverwaltung, wurde zur Visualisierung ein Dashboard erstellt und mit tagesaktuellen Daten am Ende eines jeden Migrationstages an das Programmmanagement übergeben.

Folgend eine grobe Übersicht über die Tätigkeiten innerhalb des Projekt und der technologischen Fact Sheets:

eBiz Consulting:

  • Scoping und Konzepterstellung für die Migration von 1.000 AD-Usern
  • Entwicklung und Einsatz einer Migrationsverwaltung
  • Projektverantwortlich und Single-Point-of-Contact für die AD-User-Migration end-to-end
  • Koordination der Migrationswellen und ca. 150 beteiligten Stakeholdern (excl. der Benutzer)
  • Reporting auf Tagesbasis (Dashboard) an Management
  • Bereitstellen der Infrastruktur (Telefon, Telefonnummer und E-Mail)

Technologie-Fact Sheets:

  • MS-Excel
  • Qlik Sense Desktop
  • Qlik View 11
  • Active Directory

Unser Fazit

Eine gelungene Migration, die über einen Zeitraum von mehreren Wochen durch viel Teamgeist und gemeinsames Miteinander, erfolgreich abgeschlossen werden konnte. Es gab einige Roll-Backs und damit Umplanungen von Benutzern zu neuen Wellen, die durch ein sauberes Prozessdesign und klarer Kommunikation gut bewältigt werden konnten. Die erstellten Dokumente und Abstimmungen mit den Support-Einheiten führten darüber hinaus dazu, dass nach Projektende ein reibungsloser Übergang vom Projekt in den Betrieb erfolgte.

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

eBiz Sommerfest 2016 – ein steiniges Unterfangen

Veröffentlicht am 25.07.2016 von Clemens Kruse , Event , Insights@ebizcon

Einmal im Jahr trifft sich das eBiz-Team, um von Bits und Bytes Abstand zu nehmen und den Sommer zu feiern. Dieses Jahr bedeutete das den Aufbruch in den mystischen Odenwald.

Sommerfest hin oder her – wer rastet, der rostet. Und um dem Rosten entgegen zu wirken, gab es im Vorfeld des geplanten Sommerspaßes noch das monatliche Company Meeting in komprimierter Form, wie jeden letzten Freitag im Monat. Motto unseres Company Meetings am 24.06.2016 war die Ausarbeitung weiterer Inhalte zur Kompetenz Integration für unseren Internetauftritt. Eine durchdachte und zeitlich perfekt abgestimmte Planung von Florian sowie der Einsatz wirkungsvoller Techniken wie die ABC-Methode legten den Grundstein für eine heitere und gleichzeitig konzentrierte Atmosphäre bei uns im THE SQUAIRE.

Um möglichst entspannt in den ersten Teil des Sommerfestes – eine Wandertour durchs Felsenmeer – starten zu können, gab es nach dem Company Meeting noch eine 45-minütige Erholungspause. Eine gute Gelegenheit, um die Ergebnisse noch einmal Revue passieren zu lassen, etwas zu essen und sich auszutauschen.

Für die Planung des Sommerfestes ist Lena, die Assistenz der Geschäftsführung, in die Rolle der Sommerfest-Event-Managerin geschlüpft. So viel vorweg: es ist ihr gelungen! Das Rahmenprogramm bildete eine Führung durch das Felsenmeer im Odenwald, was sich als wundervoller Mix aus Kletterspaß, Erholung und Natur für Groß und Klein herausstellte. Während der Tour konnte ich als neuer Kollege das Team auch von einer privaten Seite noch besser kennen lernen. Auch die Kinder hatten ihren Spaß und konnten sich voll austoben. In Szene gesetzt wurde das Ganze von herrlichem Wetter und anmutender Natur.

Belohnt wurde der Aufstieg mit einem Blick auf die Frankfurter Skyline und einem kühlen Getränk im afrikanischen Restaurant “Ada´s Buka” am Gipfel des Berges. Nach einer kurzen Rast ging es dann Gott sei Dank nur noch bergab, so konnte man die Tour ohne größere Anstrengung zu Ende bringen und sich auf den Weg zum Hotel machen.

Nach einer kleinen Erfrischung im Hotel ging es in kleinen Grüppchen zum Restaurant “Gasthaus Alt Lichtenberg”. Das Gasthaus bietet zahlreiche Spezialitäten der Region, so dass man den hungrigen Magen füllen und sich für das Workout belohnen konnte. Vor der herrlichen Kulisse des Fischbachtals ließen wir bei geselligem Beisammensein den Tag entsprechend ausklingen.

Mit einem Augenzwinkern noch ein Wort zur eBiz Kernkompetenz Integration – gerade für mich als “Neuen” in der Firma, noch dazu in der Rolle des ersten dualen Studenten, war dieses Sommerfest ein gelungenes Ereignis. Ich bin erst vor kurzem zur eBiz gewechselt und wurde vom ersten Moment an als “Part of the Team” behandelt. Somit war das Sommerfest eine umso schönere Gelegenheit, nicht nur beruflich als Firma, sondern auch auf einer persönlichen Ebene zusammen zu wachsen und Kraft und Motivation für alles Bevorstehende zu tanken.

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

Aus- und Weiterbildung bei eBiz: Der Trainingskatalog als Leitfaden zur Aus- und Weiterbildung

Veröffentlicht am 01.07.2016 von Lutz Plümpe , Insights@ebizcon , karriere@ebizcon , Weiterbildung

Teil 4 der Serie Aus- und Weiterbildung bei eBiz zeigt die Lehren, die wir aus den Herausforderungen des Projektalltages, den Erwartungen der Geschäftsführung und den Interessen der Mitarbeiter gezogen haben.

Wie die drei vorangegangenen Teile dieser Serie aufgezeigt haben, legt die eBiz sehr viel Wert darauf, dass Mitarbeiter gut und umfassend ausgebildet sind und sich in einem T-Modell bewegen. Je weiter die eBiz wächst, desto schwieriger ist es allerdings manchmal, dies im Unternehmensalltag zu berücksichtigen und zu planen. Wir haben uns daher dazu entschlossen, einen Trainingskatalog zu erstellen, der sowohl dem Unternehmen als auch den Mitarbeitern einen Leitfaden an die Hand gibt.

Ein Katalog für alle?

Eine der größten Herausforderungen bei der Erstellung des Trainingskataloges ist es, die Unterschiede zwischen unserem Technical Consulting und dem Business Consulting gleichermaßen zu würdigen. Für das Business Consulting liegen die Aufgaben auf der Hand: Anforderungsmanagement, Projektleitung, ITIL, IT Architektur sowie Softskills und Konfliktmanagement ergeben eine interessante Mischung und lassen sich in Trainingspakete schnüren, die nicht zu viel Zeit und Kosten verursachen.

Für unsere Technical Consultants sieht es hingegen etwas anders aus: Alleine die technischen Zertifikate bei Microsoft addieren sich zu einem umfangreichen Fächer, der nicht wirtschaftlich oder sinnvoll von jedem einzelnen Mitarbeiter abzudecken ist. Grundlegende Trainings wie etwa Softskills oder Konfliktmanagement finden sich natürlich auch hier im Katalog wieder.

Karrierestufen

Neben der Gliederung in Business Consulting und Technical Consulting haben wir uns für eine Abstufung nach Karrierestufen entschieden:

Neben dem Projektprofil einer Person ist die Karrierestufe ein wichtiges Indiz, was ein Kunde von “seinem” Berater erwarten kann. Ein Junior Technical Consultant wird in aller Regel nicht für die Leitung eines Architekturteams bei einem großen Projekt in Frage kommen. Wir haben uns daher entschieden, in unserem Trainingskatalog die Stufen entsprechend den Karrierestufen einzuteilen und mit den üblichen Anforderungen unserer Kunden abzugleichen – mit einem Plus für die Weiterentwicklung. So lässt sich gewährleisten, dass nicht nur die aktuellen Anforderungen abgebildet werden, sondern auch noch die Möglichkeit offensteht, sich über bereits vorhandene Skills für weitere Aufgaben in Projekten zu positionieren.

Ausarbeitung

Soweit zu den Grundzügen des eBiz-Trainingskatalogs – entstanden ist er in dem Bewusstsein, dass die Welt sich schnell dreht und Projekte uns täglich vor neue Herausforderungen stellen. Den Trainingskatalog daher als für alle Zeiten verbindlichen Leitfaden zu betrachten, kann nicht zum Erfolg führen. Er soll uns als Leitfaden dienen, Transparenz bringen und Entscheidungen erleichtern. Wann immer wir an einen Punkt stoßen, an dem wir diese drei Punkte nicht erfüllt sehen, wird der Katalog erweitert und angepasst. Dies ist die eBiz vor allem ihren Kunden und Mitarbeitern schuldig, die zu Recht hohe Anforderungen an die eBiz Consulting GmbH haben.

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

Aus- und Weiterbildung bei eBiz: Deepdive vs. Breites KnowHow von Mitarbeitern

Veröffentlicht am 06.06.2016 von Lutz Plümpe , Insights@ebizcon , karriere@ebizcon , Weiterbildung

In Teil 3 der Serie Aus- und Weiterbildung bei eBiz geht es um die Frage aller Fragen: Spezialisierung oder breites Know-How?

Ähnlich wie im vorangegangene Teil dieser Serie, in dem es um die Frage ging, inwieweit individuelle Interessen von Mitarbeitern bei der Weiterbildung berücksichtigt werden sollten, gilt die Abwägung zwischen dem individuellen Interesse und dem Unternehmensziel auch der Spezialisierung – Deepdive – im Gegensatz zum breitgefächerten Wissen.

Deepdive

Wer sich für den ersten Ansatz entscheidet, die tiefe Spezialisierung, wird immer tiefer in die Materie eindringen und sich auch von größeren Hindernissen nicht abschrecken lassen. Mit Hartnäckigkeit werden die kniffeligsten Stellen bearbeitet, immer in dem Wissen, dass sich dahinter auch wieder leichtere Aufgaben verbergen. Experten, die diese Strategie verfolgen, sind in der Regel wirklich Meister ihres Faches und ein Quell von Wissen.

Die überspitzte Kehrseite dieses Modells ist übrigens der sogenannte “Fachidiot”, hochspezialisiert in seinem Gebiet, aber nicht in der Lage – flapsig ausgedrückt – eine Kaffeemaschine zu bedienen. Übertragen auf die Arbeitswirklichkeit bedeutet dies, dass Mitarbeiter sich zwar in ihrem Fachgebiet sehr sicher bewegen können, aber schon an Grenzbereichen nimmt das Wissen ab, und die Unsicherheit wächst.

Breitgefächertes Wissen

Das Gegenmodell des Deepdives ist der Allrounder oder “Hansdampf in allen Gassen”. Wer diesen Weg einschlägt, versucht, sich so viele Fachgebiete wie möglich anzueignen, allerdings häufig nur auf einem recht oberflächlichen Niveau.

Ein solcher Mitarbeiter ist in vielen Situationen einsetzbar, allerdings wird das Limit des Wissens und der Erfahrung rascher erreicht, so dass er besonders gut im Team arbeitet, in dem er vielfältige Unterstützung durch Kolleginnen und Kollegen erfährt. Einfache Aufgaben werden schnell und zuverlässig bearbeitet, je kniffliger allerdings die Aufgabe, desto weniger Analyse in der Tiefe ist zu erwarten.

Projekte

Generell werden Mitarbeiterinnen und Mitarbeiter für bestimmte Aufgaben in Projektteams berufen, aber im Alltag bleibt es meistens nicht bei diesen Aufgaben. Vom Tester zum Entwickler zum Leiter des Dev Teams oder vom Anforderungsanalysten über PreSales zum Projektleiter sind Beispiele für Entwicklungswege, die wir in Projekten erlebt haben.

Wer in solchen Situationen nur auf sein Fachgebiet sieht und wenig bis kein Wissen links und rechts mitbringt, wird solche Wege nicht ohne Weiteres gehen können. Wer aber auch nicht über eine solide Basis von Fähigkeiten verfügt, wird wiederum nicht das Vertrauen erfahren, für neue Aufgaben eingesetzt zu werden.

eBiz setzt auf das T-Modell

Wir bei der eBiz Consulting legen daher großen Wert auf eine Verteilung von Fähigkeiten und Interessen, die das T-Modell (englisch auch T-Shaped Professionals) genannt wird.

In diesem Modell hat jeder Mitarbeiter seinen Interessenschwerpunkt und darin eine vertiefende Ausbildung sowie Berufserfahrung. Davon ausgehend wird schon früh begonnen, in verwandte Fachgebiete einzutauchen und sich von dort aus einen weiten Überblick über Themen zu verschaffen, denen wir in Projekten begegnen.

Zu diesem Zweck werden etwa neue Projekte, in die wir eingebunden sind, auf unseren monatlichen Company Meetings vorgestellt, so dass alle Mitarbeiter zumindest einen groben aktuellen Überblick haben, wer sich mit welchen Themen beschäftigt und als Ansprechpartner für ähnliche Fragen dienen kann.

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

Integration@eBiz – Eine einfache Azure Logic App

Veröffentlicht am 31.05.2016 von André Dammeyer , Cloud , Integration , Windows Azure

Im letzten Artikel zu dem neuen Azure Dienst Logic Apps sind wir auf die Bedeutung und Einsatzzwecke im Zusammenhang mit dem BizTalk Server 2016 eingegangen. In diesem Artikel wollen wir eine kleine “hello world” Logic Apps-Anwendung erstellen und demonstrieren wie einfach und mächtig der Logic Apps Designer im Web bereits ist.

Unsere “hello world” Anwendung soll stündlich prüfen, ob es neue Tweets mit dem Hashtag “#ebizcon” gibt. Wenn es einen neuen solchen Tweet gibt, soll eine Mail mit dem Inhalt und dem Link zum Tweet gesendet werden.

Wie erstelle ich eine Logic App?

Man benötigt einen Zugang zum Azure Management Portal (https://portal.azure.com), in das man sich zunächst einloggen muss. Dort wählt man “NeuàWeb und mobil” aus, und gelangt zur Auswahlliste der verfügbaren Apps. Dort wählt man “Logic App” aus.

Es öffnet sich das Fenster “Create logic app”, in dem man den Namen (hier: MyLogicApp), das zugehörige Azure Abonnement und eine Resource Group auswählen muss. Es bietet sich an zusätzlich das Häkchen “An Dashboard anheften” auszuwählen, damit man nach der Erstellung schnell über das Dashboard des Azure Portals zur Logic App gelangt.

Wie erstelle ich den Workflow meiner Logic App?

Um in den Workflow Designer zu gelangen, muss man die Logic App im Azure Portal öffnen und dann z.B. die Schaltfläche “Edit” betätigen.

Zunächst muss man einen Trigger auswählen, der dafür sorgt, dass der Workflow gestartet wird. Für unser Vorhaben wollen wir erreichen, dass der Workflow stündlich gestartet wird. Dafür wählen wir “Reoccurence” aus. “Frequency” wird auf “Hour” gesetzt und “Interval” auf “1″. Die Frequenz kann man prinzipiell auf alles zwischen Sekunde und Tag setzen, jedoch hängt die Granularität vom eingesetzten Azure Abonnement ab.

Wenn man noch einen konkreten Startzeitpunkt angeben möchte, kann man dies im unteren Bereich des Reoccurence-Shapes unter Angabe der Zeitzone und einem Datums/Zeit-Wert (z.B. 2016-05-16T18:00:00) erreichen.

Nachdem wir den Trigger für den Workflow definiert haben, können Actions und Conditions durch betätigen der “+”-Schaltfläche hinzugefügt werden. Wir benötigen einen Zugriff auf Twitter und wählen deshalb die “Twitter – Search Tweet”-Action aus.

Als Parameter kann man der “Twitter – Search Tweet”-Action einen Suchtext (hier: #ebizcon) mitgeben.

Zu guter Letzt müssen wir noch den Mailversand konfigurieren. Da wir bei der eBiz Consulting GmbH ein Office 365-Kunde der ersten Stunde sind, wählen wir für den Mailversand die entsprechende Office 365-Action aus und konfigurieren sie. “Subject” und “Body” der Mail können jetzt aus den Eigenschaften zusammengesetzt werden, die in den zuvor ermittelten Tweets enthalten sind.

Geht es auch etwas technischer?

Wenn man etwas mehr Einblick in den Workflow bekommen möchte und evtl. auch das ein oder andere etwas direkter beeinflussen möchte, kann man im Designer in die “Code view” wechseln. Dort findet man die zuvor gemachten Eingaben nach “actions” und “triggers” strukturiert im JSON Format vor.

Fertig, und was nun?

Wenn man den Workflow fertiggestellt hat, muss man diesen noch mit Hilfe der Schaltfläche “Save” abspeichern und gelangt wieder zur Übersicht der gerade erstellten Logic App. Die Logic App ist bereits aktiviert und würde dann zum konfigurierten Zeitpunkt starten. Wenn man jetzt keine ganze Stunde warten möchte, kann man den Trigger auch manuell auslösen, in dem man “Start Triggeràreoccurence” auswählt. Sofern man einen neuen Tweet abgesetzt hat, der dem Suchbegriff entspricht würde dieser Tweet gefunden und per Mail versendet werden.

Zusammenfassung

Die hier erstellte “hello world” Logic App ist natürlich sehr trivial und setzt auf verfügbare Actions auf, zeigt jedoch wie einfach und intuitiv die Erstellung von Logic Apps ist. Logic Apps werden die BizTalk Services vereinen und stellen damit den Dreh- und Angelpunkt für Integrationsworkflows auf der Azure Plattform dar. Der Artikel “Integrate 2016 – Day 1” im Codit Blog gibt einen guten Überblick darüber, welche Features Microsoft Mitte Mai dazu angekündigt hat.

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

Integration@eBiz – Was sind Azure Logic Apps?

Veröffentlicht am 17.05.2016 von André Dammeyer , Cloud , Integration , Windows Azure

Integration ist eine Kernkompetenz der eBiz Consulting GmbH. Obwohl mit dem Produkt BizTalk Server eine sehr beständige Integrationsplattform von Microsoft existiert, gibt es insbesondere im Cloud-Umfeld sehr viele neue und interessante Integrationsdienste, wie zum Beispiel die Microsoft Azure Logic Apps. In diesem kurzen Artikel stellen wir die Logic Apps kurz vor.

Unter http://azureplatform.azurewebsites.net findet man die obige Übersicht aktueller Azure Services. Innerhalb unserer Kompetenz Integration konzentrieren wir uns aktuell insbesondere auf die Bereiche Hybrid Integration und Web & Mobile.

Was sind Logic Apps?

Mit Logic Apps lassen sich Workflows erstellen, in denen SaaS und Enterprise Applications integriert werden können. Es können also Daten aus unterschiedlichen Datenquellen (z.B. Webservices, SQL Datenbanken, Social Media Plattformen) eingesammelt, in einfachen Workflows verarbeitet und wieder in unterschiedliche Datensenken (z.B. Mail, SQL Datenbanken, Social Media Plattformen) geschrieben werden. Für die Erstellung von Logic Apps gibt es heute die Möglichkeit den Designer oder Code View im Azure Portal zu nutzen. Microsoft hat angekündigt einen Logic Apps Designer für Visual Studio anzubieten, so dass mit einer noch komfortableren Erstellung von Logic Apps zu rechnen ist.

Logic Apps und BizTalk

Logic Apps sind noch relativ neu, werden aber gerade in Hybrid-Integrationsszenarien zukünftig eine wichtige Rolle spielen. Diese Einschätzung finden wir darin bestätigt, dass Microsoft erst kürzlich auf der INTEGRATE 2016 (http://www.biztalk360.com/integrate-2016) verkündet hat, dass es sowohl einen Logic Apps Connector in BizTalk 2016 als auch einen BizTalk Connector für Logic Apps geben wird. Auch wenn es natürlich bereits heute möglich ist beide Systeme zu integrieren (z.B. über RESTful Webservices), so kann man vermuten, dass die Integration damit noch einfacher wird. Dies ist also die Konkretisierung der Microsoft Integration Roadmap, die wir in unserem Artikel BizTalk Server für Q4 2016 angekündigt vorgestellt haben.

Weiterführende Informationen zu Logic Apps

Unter https://azure.microsoft.com/en-us/documentation/services/app-service/logic findet man einen recht guten Einstieg in die noch recht neuen Logic Apps. Außerdem lohnt es sich dem Blog https://blogs.msdn.microsoft.com/logicapps auf MSDN zu folgen. Und für diejenigen die lieber kurze Videos anschauen, kann ich Azure App Service Logic Apps with Josh Twist und Automate Business Process With Logic Apps (Deep Dive) empfehlen.

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

Microsoft Office Automation – Der erste Kontakt

Veröffentlicht am 01.05.2016 von Alexander Müller , Automation , Custom Development

Um die Qualität und Geschwindigkeit bei der Erstellung häufig benötigter Dokumente im Unternehmen zu verbessern, hat eBiz sich mit dem Thema Microsoft Office Automation auseinandergesetzt. In diesem Kontext haben wir die verschiedenen Erweiterungsmöglichkeiten von Microsoft Office näher betrachtet und die gewonnenen Erkenntnisse in diesem Beitrag zusammengefasst.

Das Schreiben von Firmendokumenten wie Rechnungen oder Verträge kann schnell zu einer zeitfressenden Aufgabe werden, sodass andere wichtige Themen in den Hintergrund gedrängt werden. Zusätzlich schleichen sich leicht Fehler ein, vor allem, wenn Dokumente unter Zeitdruck verfasst werden. Um dem entgegenzusteuern, haben wir untersucht, auf welche Weise eine automatische Generierung solcher Dokumente mit Microsoft Office erreicht werden kann.

Erweiterung von Microsoft Office

eBiz setzt, wie die Mehrzahl der Unternehmen, auf die Office Suite aus dem Hause Microsoft. Um diese zu erweitern, bietet Microsoft verschiedene Modelle an, die unter dem Begriff Office Add-Ins geführt und im Speziellen in die drei folgenden Typen untergliedert werden:

  • COM-Add-Ins

    Seit Office 97 lassen sich Office-Anwendungen durch Component Object Model (COM) Add-Ins erweitern. Diese Möglichkeit besteht bis heute, wird aber seit der Einführung der “bequemeren” Visual Studio Tools for Office (VSTO)-Add-Ins selten genutzt.

  • VSTO-Add-Ins

    VSTO-Add-Ins wurden mit Office 2003 eingeführt und erlauben die Entwicklung von Add-Ins unter Verwendung der .NET Plattform und bspw. C# oder VB.NET. Dabei werden aus einer verwalteten Laufzeitumgebung über Primary Interop Assembly (PIA) die Office COM-Schnittstellen verwendet.

  • Office Web-Add-Ins

    Der jüngste Add-In-Typ ermöglicht die Office-Entwicklung mit aktuellen Webtechnologien und ist ab Office 2013 verfügbar. Der Weg soll zukünftig weg vom proprietären Visual Basic for Applications (VBA) und “schwergewichtigen” Add-In-Typen hin zu den weitverbreiteten, webbasierten Sprachen (HTML, CSS, JavaScript usw.) führen. Dazu hat Microsoft eine JavaScript API veröffentlicht und ermöglicht damit die Integration von Web-Inhalten in Office Client-Anwendungen.

Die Qual der Wahl

Die Wahl des geeigneten Typs ist abhängig von den technischen und fachlichen Anforderungen, die an das Add-In gestellt werden. Auch der Bedarf an zukünftigen, zusätzlichen Features muss abgeschätzt werden, da ein nachträglicher Typen-Wechsel eine Neuimplementierung erfordert.

Ein Office Web-Add-In ist dann gut geeignet, wenn

  • Daten mit Webkomponenten visualisiert werden sollen,
  • Inhalte des Dokuments rudimentär verändert werden sollen,
  • das Add-In möglichst einfach verteilt werden soll (Office Store) oder/und
  • Know-How in der Webentwicklung vorhanden ist.

Aber sie unterliegen auch einigen Einschränkungen, die bei der Entscheidung berücksichtigt werden müssen. So lassen sich beispielsweise nur einfache Vorgänge innerhalb des Dokuments automatisieren, und ein Zugriff auf das Host-System ist gar nicht möglich. Dadurch kann ein Großteil der klassischen Office Automatisierungsthemen nicht bedient werden.

Gerade für diese Themen eigenen sich VSTO- und COM-Add-Ins hervorragend, da sie fast uneingeschränkten Zugriff auf die Host-Anwendung bieten und somit Funktionen der Client-Anwendung aufrufen können. Da sie ein gleichwertiges Objekt-Modell verwenden, fällt eine Entscheidung für oder gegen einen der beiden Typen meist auf technischer Argumentationsbasis. Da VSTO-Add-Ins das modernere Programmierkonzept bieten, gehen sie in der Regel als Präferenz hervor.

Fazit

Durch die Einschränkungen der JavaScript Office API, insbesondere was das Thema Automation angeht, ist ein Web-Add-In häufig ungeeignet. Dennoch ist dieser Ansatz durchaus vielversprechend und die zukünftige Entwicklung interessant. Eine Roadmap seitens Microsoft wäre jedoch angebracht. Bei komplexen Anforderungen ist es sinnvoll, direkt ein VSTO-Add-In zu verwenden, um nicht über technische Limitierungen von Web-Add-Ins zu stolpern. Diesen Weg haben auch wir eingeschlagen, und wir haben ihn bisher nicht bereut!

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

SCRUM in der Praxis – Probleme von außen betrachtet Teil 2

Veröffentlicht am 11.04.2016 von Sebastian Schneider , Agile

Mit der Artikelserie SCRUM in der Praxis gebe ich meine Erkenntnisse und natürlich auch Tipps direkt aus dem Projektalltag weiter. Ich werde keine SCRUM Einführung voranstellen, Grundkenntnisse über das Vorgehensmodell und dessen Bestandteile sind somit notwendig. Die Zielgruppe sind all diejenigen, die SCRUM bereits verwenden – egal, in welcher Rolle – und diejenigen, die SCRUM in ihren Projekten oder Unternehmen einsetzen.

Der erste Teil der Reihe hat sich mit dem ersten Schwung häufig auftretender Probleme beschäftigt. In diesem zweiten Teil werde ich weitere Hindernisse betrachten, die mir ständig begegnen und Lösungsansätze dafür präsentieren.

Problem #3 – Planungsversessenheit

Was denken die meisten, wenn ein Projekt startet? Was muss getan werden? Was ist das Wichtigste? Aus den alten, klassischen Modellen hat sich die “Unart” eingebürgert, dass die Umsetzung eines Projektes nur mit einem Plan beginnt –ein Plan, der genau beschreibt, welche Schritte wann zu machen sind. Paradox ist dabei, dass jeder weiß, dass eine vollständige und sichere Planung am Anfang unmöglich ist. Wieso ist das aber so? Projekte sind per definitionem Umsetzungen, die neu oder komplex sind und nicht ständig auftreten. Wie können wir also von Anfang an genau wissen, was wann zu tun ist? Gar nicht. Dann gibt es auch noch den Kunden: Er kann durchaus seine Meinung und Anforderungen im Verlauf des Projektes ändern, so dass der ursprüngliche Plan schnell veralten kann. Klassische Modelle wollen das durch teure Change Requests verhindern. Sie besagen, dass der Kunde das bekommt, was er am Anfang dachte zu wollen und zu brauchen. Das muss aber nicht so bleiben, da im Projektvorlauf Aspekte auftauchen oder deutlich werden, die vorab nicht in der gleichen Weise erkenn- und absehbar waren.

Die Konsequenzen können mannigfaltig sein. Am Anfang verbringt man gern viel Zeit mit Präsentationen. Man tingelt von einem Meeting ins nächste und verschwendet so wertvolle Zeit. Im Projektverlauf kommen drastischere Auswirkungen hinzu: Änderungen der Anforderungen des Kunden erfordern die Überarbeitung der Pläne. Es wird neu bewertet, ob man Anforderungen aufnehmen kann. Man fixiert sich auf den ursprünglichen Plan, der Kundenwunsch droht unterzugehen. Die Kundenzufriedenheit sinkt. Kommen jetzt noch ungeplante Umsetzungsschwierigkeiten hinzu (ja, einige Dinge kann man eben nicht planen…), wird es ganz heikel. Diese Schwierigkeiten betreffen nicht den Kunden, somit kann man ihn nicht durch Change Requests abwimmeln. Im starren Plan sind diese auch nicht aufgeführt, und genau jetzt beginnt das Projekt zu schaukeln. Die Umsetzung verlässt den Plan, Kosten und Zeit steigen an, das Management muss reagieren. Am Ende des Projektes kann ein weiterer Faktor hinzukommen: Durch zu geringes Feedback und teure Change Requests bekommt der Kunde im besten Fall das, was er am Anfang in Auftrag gegeben hat. Nicht immer ist es das, was er wirklich möchte. Dies liegt daran, dass der Kunde in der Entwicklung wenig eingebunden war. Änderungen waren nicht erwünscht oder eingeplant, auch wenn diese genau die Kundenerwartungen widergespiegelt hätten. Der erste Plan konnte am Anfang einfach nicht das ausdrücken, was der Kunde am Ende wirklich hätte haben wollen.

Was kann man dagegen tun?

Man sollte sich von Anfang an bewusst sein, dass man nicht alles perfekt planen kann. Weiterhin sollte klar sein, dass auch der Kunde am Anfang nur eine Vorstellung von dem hat, was er braucht und möchte. Im Laufe des Projektes werden diese Vorstellungen immer genauer, daher sollte man Änderungen entsprechend willkommen heißen. Diese stellen die Kundenzufriedenheit sicher. Dafür hilft es, einen gewissen Zeithorizont einzuplanen. Alles, was danach kommt, sollte man immer wieder hinterfragen, am besten gemeinsam mit dem Kunden. Und erst wenn die Informationen komplett vorhanden sind, sollte man sich an die Umsetzung der Features machen. In SCRUM wird dies durch Sprints in Kombination mit den Reviews umgesetzt. Bis zu Beginn eines neuen Sprints können Informationen im Backlog immer weiter verfeinert werden. Nach dem Sprint kann der Kunde immer validieren, ob die Umsetzungen in die richtige Richtung gehen, wenn nicht, kann er den Kurs schnell ändern. Durch die Velocity kann dennoch eine recht genaue Release-Planung umgesetzt werden, wobei auch diese immer den Kundenwünschen angepasst werden sollte. Ein weiterer Vorteil dieses Vorgehens für alle Projektbeteiligten ist, dass der “Plan” (Backlog) nie veraltet ist. Jeder kann jederzeit den aktuellen Stand erkennen und sehen, wo die Reise hingeht. Probleme werden schnell sichtbar und können behoben werden.

Problem #4 – keine Abstimmung zwischen den Beteiligten

Ein letztes Problem, das ich häufig sehe, ist, dass Projektbeteiligte sich zu selten abstimmen und zu wenig miteinander arbeiten.

Ein erfolgreiches Projekt benötigt nicht nur die Fertigstellung eines Produktes, sondern auch einen abgestimmten Vertrieb, ein passendes Marketing etc. Notwendig ist hier natürlich, dass sich diese Abteilungen regelmäßig abstimmen, am besten sitzen die entsprechenden Stakeholder direkt im Review. Wieso ist das so wichtig? Viele Maßnahmen im Vertrieb oder Marketing müssen schon vor Fertigstellung des Produktes angeschoben werden. Alle Maßnahmen beziehen sich jedoch auf das Produkt. Wenn sich das Produkt auf Grund von Marktforschung, Kundenwünschen etc. ändert, muss ggf. auch die Vertriebsstrategie angepasst werden oder anderes Marketingmaterial verwendet werden. Auch für das Umsetzungsteam ist regelmäßiges Feedback wichtig. Der Vertrieb hat oft wichtige Informationen für Features etc. Seine Informationen und Erfahrungen sind für das Projekt Gold wert.

Was ist nun die Folge, wenn keine Abstimmung zustande kommt? Keiner der Beteiligten hat eine gemeinsame Vision des Produktes, zu dem natürlich auch Vertrieb und Marketing gehören

Verhindern kann man das durch gutes Projektmarketing. Der Product Owner sollte regelmäßig Kontakt mit den Beteiligten suchen. Sie sollten zu Reviews eingeladen und nach ihrer Meinung gefragt werden. Auch sollte er Aktionen der anderen Abteilungen zum Projekt im Auge behalten, sich informieren und Input geben. Bei Planänderungen sollte er diese aktiv darüber informieren und ggf. Auswirkungen zeigen – vor allem im persönlichen Gespräch.

Einige der wesentlichen Probleme sind nun bekannt. In den nächsten Beiträgen geht es um alltägliche Dinge rund um SCRUM. Es bleibt spannend.

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

Das Augenhöhecamp 2016 in Frankfurt

Veröffentlicht am 14.03.2016 von Lutz Plümpe , Event

Passend zur deutschlandweiten Premiere des Films Augehöhewege am 04.03.2016 fand am 05.03. das Augenhöhecamp 2016, ein Barcamp zur Organisationsentwicklung, im DB Skydeck statt. Ich war einer der etwa 90 Besucher, und hier sind einige ausgewählte Eindrücke. Es liegt nämlich in der Natur eines Barcamps, dass viele sehr interessante Sessions parallel stattfinden…

Wer samstagmorgens um kurz nach sieben schon wieder in den ICE steigt, um sich auf den Weg nach Frankfurt zu machen, hat dafür einen guten Grund. Meiner war am vergangenen Samstag das Augenhöhecamp 2016 – ein Barcamp zur Organisationsentwicklung. Nach einer problemlosen Anreise und einer kurzen Einlasskontrolle in den Silberturm ging es mit dem Fahrstuhl in den 30.ten Stock in die Räumlichkeiten des DB Skydeck.

Kleiner Einschub: Was ist ein Barcamp?

Unter einem Barcamp oder auch manchmal Unkonferenz genannt, versteht man in der Regel eine Veranstaltung die logistisch (Teilnehmer, Räume, Verpflegung, Präsentationsmaterialien) zwar klassisch organisiert ist, bei der aber erst zu Beginn der Veranstaltung von den Teilnehmern selbst entschieden wird, welche Sessions oder Diskussionen es gibt. Der “Stundenplan” ist daher zu Beginn der Veranstaltung noch leer und wird nach einer Vorstellungsrunde gemeinsam erstellt. Die traditionelle Einteilung in Speaker/Zuhörer ist damit aufgehoben, und wer sich aktiv beteiligen möchte, kann dies grundsätzlich tun, solange das Thema von genug anderen Teilnehmern als attraktiv empfunden wird.

Nach einer kurzen Stärkung mit Kaffee und kleinen Snacks ging es in die Vorstellungsrunde des Barcamps. Alle Teilnehmer haben sich mit Vornamen (auf Barcamps und in den Räumlichkeiten des Gastgebers duzt man sich) sowie drei Schlagwörtern (Hashtags) vorgestellt. Die Möglichkeit wurde von allen kurz und sehr amüsant genutzt, so dass ein erster Eindruck entstand, was die Einzelnen antreibt.

Danach ging es über zur Planung der Sessions. In vier Räumen und sechs Zeiträumen gab es viele Möglichkeiten, die auch komplett ausgenutzt wurden. Sogar in der geplanten Mittagspause ließen sich die Teilnehmer nicht aufhalten und diskutierten munter weiter.

“Führung in digitalen Welten”.

Als meine erste Session wählte ich das Thema “Führung in digitalen Welten”. Nach einer kurzen Umorganisation des Raumes von einer klassischen Meeting-Bestuhlung hin zu einem offenen Halbkreis um ein Flipchart ergab sich eine interessante Diskussion um die Fragen, was eine digitale Führung ausmacht und welche Herausforderungen sich daraus ergeben.

Am deutlichsten im Gedächtnis ist mir geblieben, dass sich die Regeln von Kommunikation in der digitalen Welt geändert haben. Eine Interaktion zwischen Vorstand und einfachem Mitarbeiter wird immer öfter auftreten und damit der traditionelle Filter des Mittenmanagements wegfallen. Alle Beteiligten müssen allerdings erst lernen, damit umzugehen, und das wird nur über Umwege, Irritationen und Irrtümer gehen. Nur mit einem Fehlerbewusstsein und der Bereitschaft, sich nicht davon abschrecken zu lassen, kann ein Mehrwert eines digitalen oder agilen Unternehmens erzeugt werden.

“Mitarbeiter schreiben die Regeln mit”

Die zweite Session habe ich selbst moderiert zum Thema “Mitarbeiter schreiben die Regeln mit”, in der ich vorgestellt habe, wie wir in der eBiz Consulting organisiert sind. Als Beispiel habe ich unser Unternehmenshandbuch gewählt. In diesem Dokument sind alle Regeln und Prozesse des Unternehmens dokumentiert, neben einfachen FAQs wie dem Passwort für das WLAN. Jede neue Kollegin und jeder neue Kollege liest dieses Dokument und kann im gleichen Schritt Verbesserungsvorschläge und Ergänzungen einbringen. Im Unterschied zu einem demokratisch geführten Unternehmen gibt es bei uns allerdings immer noch eine Geschäftsführung mit dem letzten Wort, dem Veto-Recht.

An genau diesem Umstand entzündete sich dann auch die Diskussion, inwieweit dann unser Modell nicht nur eine Delegation von Entscheidungsoptionen innerhalb eines vorgegebenen Rahmens, keine Selbstorganisation und daher nicht besser als ein x-beliebiger Konzern mit festem Regelwerk sei. Nach sehr intensiven 30 Minuten kann ich nur zusammenfassen, dass wir bei der Frage, was es bedeutet, auf Augenhöhe zusammenzuarbeiten, keinen allgemeingültigen Konsens definiert haben. Am prägnantesten kam dies bei dem Punkt der Mittelvergabe heraus, etwa für eine Schulung. Sind es Mittel der Geschäftsführung, die ich für eine Schulung ausgebe, mein Geld aus meinem Umsatz oder Geld des Unternehmens, das “nur” von der Geschäftsführung verwaltet wird? Zu diesem Thema gibt es vermutlich fast so viele Ansichten wie Personen, und daher war ich nicht überrascht über das Ergebnis unserer Diskussion.

Für mich war es eine sehr anregende Diskussion, und ich habe neue Aspekte erfahren, die ich im Laufe der nächsten Zeit sicherlich regelmäßig in interne Diskussionen einbringen werde. Das wir bei unseren monatlichen Company Meeting schon den Schritt von der Organisation durch die Geschäftsführung hin zur Organisation durch einzelne Mitarbeiter gegangen sind, zeigt mir, dass wir hier Schritt für Schritt vorangehen und uns weiter ausprobieren.

“Lunch”

Nach einer Mittagspause mit vielen interessanten Gesprächen, sowohl individuell als auch in kleinen Gruppen, ging es weiter mit dem Thema:

“Was tun mit Führungskräften, die Augenhöhe nicht können oder wollen?”

In der nächsten Session wurden zwei Themen zusammengelegt, neben “Was tun mit Führungskräften, die Augenhöhe nicht können oder wollen?” wurde die ähnliche Frage “Von der Hierarchie zur Augenhöhe” integriert.

Besser als ein Text von mir können sicherlich die Flipcharts den Verlauf der wirklich sehr guten und interessanten Diskussion wiedergeben. Der obere Teil stellt dabei die Frage nochmal etwas anders dar: Wie kommen wir von einer hierarchischen Organisation, der Pyramide, über eine Handvoll Schritte zu einem agilen, vernetzten Unternehmen, hier als Star Map bezeichnet?

Dabei zeichnete sich ab, dass es keinen geraden Weg geben wird, sondern dass entlang von unterschiedlichen Wegen immer auch Rückschläge zu erwarten sind, und eine der wichtigsten Herausforderungen sein wird, diese Rückschläge auszuhalten und den Weg konsequent weiter zu verfolgen, um das Ziel zu erreichen.

“Demokratisch geführt werden, ist das was für jeden?”

Daran schloss sich die Frage an, ob demokratisch geführt zu werden, etwas für jeden ist. Schon bevor die eigentliche Session gestartet war, hatte ich das Glück, eine interessante Diskussion zu dieser Frage zu führen: Nein, es ist nicht für jeden das Richtige, demokratisch geführt zu werden. Die Frage nach dem warum konnten allerdings auch wir nicht beantworten, sondern mussten dies zukünftigen Runden überlassen.

In der Session ging es dann um ein ganz konkretes Beispiel, und es wurden viele Ideen gesammelt, die Unternehmen und/oder Personalabteilungen helfen könnten, ein Unternehmen demokratischer zu machen und dabei möglichst viele Mitarbeiterinnen und Mitarbeiter zu involvieren.

“Wie werden Mitarbeiter und Führungskräfte agil?”

Meine letzte Session war vor allem durch die Moderationsmethode gekennzeichnet, bei der jeder Teilnehmer eine feste Frage zugewiesen bekam und wechselnde Personen dazu interviewen sollte. Die so gewonnenen Ergebnisse wurden dann in Stichworten gesammelt und wären gerne noch diskutiert worden, aber leider lief uns die Zeit davon.

Danach gab es noch eine gemeinsamen Abschiedsrunde mit dem Fazit, dass es eine tolle Veranstaltung war, alle sich schon auf die nächste Runden freuen und für die, die bis zum Schluss geblieben sind, gab es noch eine Führung durch das Skydeck.

Mein persönliches Fazit:

Großartige Veranstaltung, interessante Teilnehmer, tolle Themen und ein sehr kompetentes Organisationsteam. Nur meine Stimme hat es nicht ganz überstanden – am Tag darauf viel das Sprechen noch ein wenig schwer, so sehr regte das Barcamp zum Diskutieren an.

Weiterführende Links

Mehr zum Augenhöhecamp auf Twitter unter

#ahcfra16

Augenhöhewege der Film

http://augenhoehe-wege.de/

Eine sehr gute Stichwortsammlung zum Film und Camp

http://bit.ly/AugenhoeheWege2016

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

Aus- und Weiterbildung bei eBiz: Individualisierung und Standardisierung

Veröffentlicht am 01.03.2016 von Lutz Plümpe , Insights@ebizcon , karriere@ebizcon , Weiterbildung

In Teil 2 der Serie “Aus- und Weiterbildung bei eBiz”: Individuelle Entwicklungspläne oder standardisiertes Trainingsprogramm?

Jeder Mensch hat eigene Interessen, die ihn antreiben, die Spaß machen und mit denen er sich gern beschäftigt. Ein Unternehmen hingegen hat den Markt im Auge, also, welche Kenntnisse und Fähigkeiten werden heute, morgen und übermorgen gebraucht werden, welche Trends setzen sich durch und liegt das eigene Geschäftsfeld eher in einer Nische oder im Massenmarkt?

Je näher die Interessen von Mitarbeitern an ihren tatsächlichen Aufgaben liegen, umso einfacher ist es für alle Beteiligten, sich auf Aus- und Weiterbildungsangebote zu verständigen.

Wer zum Beispiel mit großer Hingabe die neusten Trends in der mobilen Kommunikation verfolgt, wird nur zu gerne an einer Schulung über die nächsten Trends im “mobile Framework” teilnehmen.

Aufgabe eines Beratungsunternehmens sollte es daher sein, die individuellen Interessen der einzelnen Mitarbeiter so zu berücksichtigen und zu nutzen, dass sich aus ihrer Kombination ein Mehrwert für die Kunden und das eigene Unternehmen ergibt. Dies erfordert eine sorgfältige Auswahl der Mitarbeiter, da kleine Unternehmen oft nicht die Ressourcen haben, allzu viele Felder abzustecken oder aus nahezu unbegrenztem Potential zu schöpfen.

Auch wenn dies bedeutet, gelegentlich vielversprechende Bewerberinnen und Bewerber ziehen lassen zu müssen, da ihre individuellen Interessen für die Aufgaben der Firma nicht relevant sein mögen, so ermöglicht dieser Ansatz dennoch einen großen Freiraum und damit große Motivation für das Team.

Standards

Freiraum und individuelle Entwicklung bilden jedoch für sich genommen kein ausreichendes Fundament, um darauf ein erfolgreiches Unternehmen aufzubauen. Einige Regeln und Absprachen über gefragte Fähigkeit und priorisierte Interessen verhindern Konflikte und weisen den Weg für die erfolgreiche Zusammenarbeit.

Denn die Kunden und ihre Interessen stehen nun einmal im Mittelpunkt. Eine Gruppe von gut ausgebildeten und motivierten Menschen wird erst dann wirklich als Team, oder in diesem Fall als Unternehmen, begriffen, wenn sich die Kompetenzen ergänzen und vereinigen. Fünf Menschen, die fünf verschiedene Programmiersprachen beherrschen, lassen sich kaum zu einem sinnvollen Team kombinieren. Hingegen werden fünf Menschen, die alle die gleiche Programmiersprache – mit unterschiedlichen Schwerpunkten – beherrschen, gemeinsam mit großem Mehrwert an einem verwandten Thema arbeiten.

Ähnliches gilt für die berufliche Weiterentwicklung. Viele Menschen fragen sich, was nötig ist, um die nächste Stufe ihrer Karriere zu erreichen – etwa wie sie sich von einem Junior zu einem Senior Projektleiter entwickeln können.

Organisation

Eine der größten Herausforderungen für kleinere Beratungsunternehmen ist es daher, den Spagat zu schaffen, die individuellen Interessen der Mitarbeiter zu fördern und gleichzeitig über ein Set von Regeln dafür zu sorgen, dass aus der Summe der Einzelinteressen ein auf dem Markt attraktives Produkt entsteht. Eine Gruppe mit ähnlichen, aber nicht ganz identischen Fähigkeiten kann dabei ein sehr schlagkräftiges Team bilden.

Zusammenfassung

Individuelle Interessen zu fördern sollte, daher für Unternehmen besonders dann eine Priorität sein, wenn diese zum Geschäftsmodell des Unternehmens passen. In diesem Fall werden Mitarbeiter überdurchschnittlich motiviert sein und ihre Weiterbildung gerne angehen. Zu erreichen ist dies zum einen über eine sorgfältige Auswahl von Mitarbeiterinnen und Mitarbeitern, aber auch über einen gewissen Spielraum des Unternehmens bei der Auswahl der angebotenen Dienstleistungen. Sollten Mitarbeiterein besonderes Interesse an einem Bereich haben, der zum Unternehmen passt, ohne dass dieser bereits ausgebaut wäre, so liegt darin eine große Bereicherung.

Das Motto der eBiz “Erst wer, dann was” zeigt, dass die Interessen der Mitarbeiter grundsätzlich eine besondere Bedeutung haben. Das bedeutet allerdings im Umkehrschluss nicht, dass es keine allgemeinen Regeln gibt. Ein großer Teil dieser Regeln und Erwartungen sind bei uns in einem Trainingskatalog zusammengefasst. Er ermöglicht sowohl dem Unternehmen als auch den Mitarbeitern nachzuvollziehen, was auf welcher Stufe erwartet wird und in welche Richtungen es in der Zukunft gehen könnte. Mit dieser Transparenz und Planbarkeit setzen wir Leitplanken, um die persönliche Entwicklung unserer Mitarbeiter bestmöglich zu unterstützen.

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

Aus- und Weiterbildung bei eBiz: Allgemeine Gedanken eines kleinen Beratungsunternehmens

Veröffentlicht am 02.02.2016 von Lutz Plümpe , Insights@ebizcon , karriere@ebizcon , Weiterbildung

Kleinere Beratungsunternehmen wie die eBiz Consulting stehen täglich vor der Herausforderung, den Spagat zwischen der Arbeit in Projekten und der Aus- und Weiterbildung ihrer Mitarbeiter zu schaffen. Die neue Serie “Aus- und Weiterbildung bei eBiz” wird einen Einblick gewähren, wie wir das machen und welche Schlüsse wir daraus ziehen.

Als die eBiz Consulting 2011 von 3 Selbständigen gegründet wurde, war eine ihrer Prinzipien, dass gute Beratung eine gute und umfassende Ausbildung erfordert. Universitäre Ausbildung kann dafür nur die Grundlage sein. Persönliches Engagement, sich weiterzubilden, ist eine weitere Voraussetzung der Strategie des Unternehmens.

On the job vs. (formales) Training

Neben den Ausbildungsbausteinen, die bei den Mitarbeitern liegen, stellt das Unternehmen Möglichkeiten bereit, sich weiterzubilden. Voran steht immer die Frage, ob eher die Praxis oder das gezielte Training die richtige Wahl ist.

Jeder, der etwas tut, lernt dabei hinzu; wer im Projektalltag programmiert oder ein Projekt leitet, wird schnell neue Erfahrungen gesammelt und neue Herangehensweisen gelernt haben. Berufserfahrung ist und bleibt ein wichtiger Baustein für jeden Mitarbeiter, gerade bei kleinen Unternehmen, in denen Mitarbeiter oft mit ihrer persönlichen Reputation im Fokus stehen.

Nur Wert auf Berufserfahrung zu legen, würde allerdings auch am Ziel vorbeiführen. Es ist etwa durchaus möglich, ein Projekt ohne Vorgehensmodell und nur mit Zettel und Stift erfolgreich durchzuführen, wenn auch mit geringeren Chancen. Trainings helfen dabei, neue Vorgehensmodelle, Technologien und Ideen kennen- und anwenden zu lernen und Erfahrungen auszutauschen. Gerade dieser Schritt raus aus dem Alltag rein in eine reine Lern- und Austauschsituation sollte auf gar keinen Fall vernachlässigt werden. Oft kann das Gelernte neue Inspiration für den Alltag geben und innovative Einsichten fördern.

Aktueller Einsatz oder Zukunftsplanung?

Eine häufige gestellte Frage ist die nach dem Ziel eines Trainings: Soll ein Mitarbeiter eher für die jetzige Aufgabe vertieft ausgebildet werden, oder steht die nächste Stufe der Karriere oder das nächste Projekt im Fokus?

Wir versuchen, an dieser Stelle beides zu berücksichtigen – mit einer leichten Tendenz zur zukünftigen Planung. Bei externen Beratern fällt unseren Kunden schnell auf, ob und dass wir in der Lage sind, die versprochenen Leistungen zu erbringen. Dies bedeutet, dass unsere Kolleginnen und Kollegen für ihre Rollen top ausgebildet sein sollten.

Auf diesem, vom Kunden zu Recht erwarteten hohen Level zu bleiben und sich davon ausgehend für die Zukunft weiterzubilden, ist daher das Modell unserer Wahl.

Ausfallzeiten

Weiterbildung erfordert fast immer die Notwendigkeit, eine kurze und gelegentlich sogar eine längere Zeit aus dem Projektalltag herauszugehen und sich auf die neuen Inhalte zu konzentrieren.

Wir sind uns dessen bewusst, geben selbstverständlich den Raum dazu und vertreten dies auch vor unseren Kunden. Lernerfolg benötigt Freiraum, und es ist im Interesse des Kunden, wenn seine Berater nicht nur ihre jetzige Rolle beherrschen, sondern links und rechts und ein paar Schritte nach vorne zu schauen, und ihr Wissen ständig erweitern und aktualisieren.

Kompromisse finden

In der Theorie sind die Interessen von Mitarbeitern, Kunden und Unternehmen nahe beieinander und ergänzen sich. In der Praxis ist das Austarieren der Interessen ein wichtiger Aspekt für die Geschäftsführung, um Unzufriedenheit unter Kunden und Mitarbeitern zu vermeiden.

Wir bei eBiz haben die Aus- und Weiterbildung als festen Bestandteil der Jahresziele. Darüber hinaus erarbeiten wir derzeit einen Trainingskatalog, der jedem Mitarbeiter einen Leitfaden an die Hand gibt, welche Kenntnisse in welcher Rolle vorhanden sein sollten, um für alle Seiten eine gemeinsame Planung zu ermöglichen.

Der Trainingskatalog wird in einem späteren Teil dieser Serie vorgestellt.

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

BizTalk Server für Q4 2016 angekündigt

Veröffentlicht am 17.01.2016 von André Dammeyer , Integration

Mircosoft hat angekündigt, im vierten Quartal 2016 den BizTalk Server 2016 zu veröffentlichen. Wir haben einen Blick in die Roadmap geworfen und fassen die wichtigsten Punkte und unsere Sicht darauf zusammen.

Die eBiz Consulting GmbH hat nicht nur das “Biz” im Namen, sondern auch eine Historie mit dem Microsoft Produkt BizTalk Server. Wir haben unter anderem zentrale Rollen in der Entwicklung und Architektur der zwei größten deutschen BizTalk Projekte in den letzten 10 Jahren besetzt – und verfügen daher über umfangreiche Erfahrung. Nicht zuletzt deshalb und weil der BizTalk Server nach wie vor ein sehr interessantes Produkt ist, verfolgen wir seine Entwicklung ganz besonders aufmerksam.

BizTalk 2016 Timeline und Features

Die inzwischen 10te Version des BizTalk Server wird nun circa drei Monate nach dem SQL Server erscheinen. Dabei wird ein Platform Alignment auf Windows Server 2016, SQL Server 2016, Office 2016 und dem aktuellsten Visual Studio Release durchgeführt. Microsoft wird BizTalk 2016 für High Availability Production Workloads in Microsoft Azure IaaS (Infrastructure as a Service) unterstützen. Es soll eine engere und bessere Integration zwischen BizTalk Server und Cloud-Diensten wie SalesForce.com und Office 365 geben. Außerdem werden offenbar einige Adapter weiter verbessert (z.B. SFTP).

Motivation für Weiterentwicklungen

Die Zukunft des bisher sehr beständigen BizTalk Servers wird immer wieder diskutiert. Mit dem Roadmap-Paper begegnet Microsoft den Zweiflern des Integration Produktes BizTalk Server, indem eine klare Vision gezeigt wird.

Es beschreibt unter anderem die Motivation und Vision von Microsoft zum Thema Integration. Hier einige Aspekte, die wir bei der eBiz genauso einschätzen:

  • Anwendungen nutzen immer mehr SaaS Dienste, in denen ganze Geschäftskernprozesse ausgelagert sind (API economy).
  • Die Mobilität geräteorientierter Line-of-Business (LOB) Anwendungen schreitet weiter voran (increasing mobility).
  • Hybrid-Anwendungsszenarien mit on-premises, IaaS-, SaaS- und PaaS-Anwendungsteilen nehmen (auch in Deutschland) zu und stellen neue Anforderungen an Anwendungen (z.B. im Bereich Security).

Unser Fazit: BizTalk bleibt das Enterprise Integration Produkt von Microsoft

Die veränderte Geschäfts- und IT-Welt erfordert die Weiterentwicklung von Integrationsplattformen und Lösungen zugleich. Das Rad muss aber nicht neu erfunden werden, sondern um Lösungen für die neuen Anforderungen erweitert und angepasst werden. Genauso wie der Kern von Integration sich nicht geändert hat, muss sich auch der des BizTalk Servers nicht ändern. Deshalb sind aktuelle Integrationslösungen auf Basis von BizTalk Server sehr gut aufgestellt und besonders zukunftsfähig. Sie können mit jeder weiteren BizTalk Version von den Erweiterungen für neue Integrationsherausforderungen profitieren. Als Integrationspartner bietet die eBiz Consulting GmbH ein breites Spektrum an fundiertem Wissen für spezielle Integrationsherausforderungen an und kann bei der Erweiterung und Anpassung des BizTalk Servers an die spezifischen Anforderungen unterstützen.

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

SCRUM in der Praxis – Probleme von außen betrachtet Teil 1

Veröffentlicht am 05.01.2016 von Sebastian Schneider , Agile

In der Artikelserie SCRUM in der Praxis gebe ich meine Einblicke, Erkenntnisse und natürlich auch Tipps direkt aus dem Projektalltag weiter. Ich werde keine SCRUM Einführung voranstellen, Grundkenntnisse über das Vorgehensmodel und dessen Bestandteile sind somit notwendig. Die Zielgruppe sind all diejenigen, die SCRUM bereits verwenden – egal, in welcher Rolle – und diejenigen, die SCRUM in ihren Projekten oder Unternehmen einsetzen.

Die ersten Artikel der Reihe nehmen eine Außenperspektive ein. In meiner Beraterlaufbahn habe ich in vielen SCRUM-Projekten mitgewirkt. Dabei habe ich jede Rolle begleitet, vom Entwickler und Architekt über ScrumMaster bis hin zum ProductOwner. Unabhängig davon, in welcher Rolle ich war, sind mir einige Probleme regelmäßig aufgefallen. Um diese Probleme, die man aus einer gewissen Distanz am besten erkennen und bewerten kann, geht es im Folgenden.

Wieso fangen wir direkt mit Problemen an?

Ganz einfach, Probleme hindern uns daran, unser Ziel zu erreichen. Wenn wir unser Ziel nicht erreichen, wird unser Projekt scheitern, und genau das wollen wir verhindern. Am besten können wir das, wenn wir Probleme schnell erkennen. SCRUM arbeitet selbst auch nach dem Prinzip der Reflektion und Aktion. Allgemeine Lösungen zu präsentieren ist zwar nicht immer möglich, da einige Probleme mit der Unternehmensstruktur, Prozessen oder anderen Rahmenbedingungen zusammenhängen, die eine mögliche Lösung beeinflussen können. Dennoch biete ich für den Anfang Hinweise und Tipps zum Lösen von zwei Problemen an, die den gesamten Produktentwicklungszyklus nachhaltig stören

Problem #1 – Agil, auf Teufel komm raus

Als Geschäftsführer oder Projektverantwortlicher steht man bei jedem neuen Projekt oder auch bei laufenden Projekten immer vor der Herausforderung, das optimale Vorgehen für das Projekt zu wählen. Früher hat man das Wasserfallmodell verwendet, heute ist die Entscheidung nicht mehr so einfach. Agil und Scrum ist in aller Munde, und das spricht dafür, dass dieses Vorgehen ja das Richtige sein könnte.

Der agile Trend verleitet viele Verantwortliche zu denken, sie müssen ihre Projekte agil durchführen, alles andere wäre ja nicht zeitgemäß. Das ist noch nicht so schlimm….problematisch wird es durch diesen Punkt:

SCRUM eignet sich nicht für alle Projekte

SCRUM bietet einen Lösungsansatz für komplexe Projekte, in denen viele Punkte von Anfang an nicht klar definiert werden können, seien sie technischer Natur oder die Anforderungen selbst. Das iterative Vorgehen und das offene Feedback helfen hier, den Kurs immer wieder neu anpassen zu können. Einfache Projekte mit klarem Funktionsumfang oder Projekte für den Betrieb und Service bieten keine geeigneten Voraussetzungen, um SCRUM zielorientiert einzusetzen. Für einfache, kurze Projekte mit klarem Ziel ist eher ein klassisches iteratives Vorgehen eine gute Lösung. Projekte für Betrieb und Wartung profitieren z.B. von Kanban.

Dieser Punkt wird leider zu oft übersehen oder ignoriert und führt zu zwanghaftem agilen Arbeiten. Die Folge ist, dass die spontanen Anforderungen, die zeitlich kritisch sind, immer erst durch einen Sprint laufen müssen, obwohl man sie schneller ausrollen könnte. Oder das Team arbeitet ein Pflichtenheft in Sprints ab, auch hier ist der Overhead durch SCRUM nicht gerechtfertigt, und es entstehen unnötige Kosten. Schlussendlich wird das Projekt als negativ betrachtet, und das Versagen SCRUM angelastet. Hätte man hier ein passenderes Model gewählt, wäre man effektiver – und glücklicher.

Mein Rat ist, Jedes Projekt genau zu bewerten und SCRUM vorzugsweise bei Projekten mit folgenden Kriterien verwenden:

  • Erhöhte Komplexität im Projekt
  • Unklarer Planungshorizont
  • Innovationsthemen
  • Technisches Neuland
  • Hohe Wahrscheinlichkeit zu sich ändernden Anforderungen
  • Unklare oder sich ständig ändernde Rahmenbedingungen

Ein klassisches Vorgehensmodell wie Wasserfall bietet sich dagegen bei Projekten an, die die folgenden Kriterien erfüllen:

  • Anforderungen können in der Planungsphase alle sicher bestimmt werden (und damit ist nicht die Hoffnung gemeint, dies tun zu können;-)).
  • Viele gleichartige Projekte wurden mit klassischem Vorgehen erfolgreich vom Projektleiter durchgeführt.
  • Das Projekt ist klein (zeitlich UND im Umfang).

Problem #2 – “Wir arbeiten agil, also zum Teil”

Aus Problem #1 folgt in den meisten Fällen das nächste Problem. Agilität, die nicht
gelebt wird oder werden kann. Erkennen kann man dies sehr gut daran, dass aus SCRUM zwar einige Instrumente verwendet werden (z.B: das DailySCRUM), andere wesentliche Elemente wie z.B. die Retrospektive meist wegfallen oder weggelassen werden. Begründet wird dies häufig mit Zeitmangel oder “dass man es nicht braucht”.

Dies ist eine Gefahr, da man in die Falle läuft, Agilität und Elemente klassischer Vorgehensmodelle (zwangsweise) zu mischen. Es fehlt an Transparenz, es gibt keine klaren Kommunikationsflüsse, und bei Ausnahmesituationen weiß niemand genau, was zu tun ist. Die eigentliche Produktentwicklung geht häufig im Bereinigen von Vorgehensproblemen unter. Die Folge ist meist ein nicht fertiges Produkt, Budgetüberschreitung oder gar der Abbruch des Projektes. SCRUM verliert auch bei diesem negativen Beispiel seinen guten Namen, da das Versagen auf SCRUM zurückgeführt wird, obwohl es nur an der korrekten Umsetzung scheitert.

Wie kann man dies am besten verhindern? Da dieses Problem meist in Verbindung mit der Einführung von SCRUM auftritt, muss man auch genau dort ansetzen. Es gibt zwei Möglichkeiten SCRUM, sauber einzuführen:

1. Ganzheitliches Einführen von SCRUM

Im optimalen Fall steht die Geschäftsführung hinter der Entscheidung, und alle Aktionen die notwendig sind, werden durchgeführt. Mögliche Umstrukturierungen oder Prozessanpassungen werden von allen getragen, da der Nutzen von SCRUM erkannt ist. Die Teams werden so aufgebaut, dass diese selbstorganisiert arbeiten können, und man identifiziert sich mit den agilen Prinzipien. Kosten für ScrumMaster etc. werden aufgewendet, und das Arbeiten mit Mitteln wie StickyNotes, WhiteBoards, Taskboards etc., die die Transparenz ermöglichen, werden gefördert.

2. Sanfte Einführung per Kanban

Da Option 1 in vielen Fällen nicht bzw. schwer möglich ist, da unter anderem die Umstrukturierungen zu große Ausmaße annehmen würden oder das Projekt zu weit fortgeschritten ist, um einen Hardcut zu machen, bietet sich noch die Möglichkeit, SCRUM “sanft” über Kanban einzuführen.

Hier fängt man langsam an, seine Arbeit an einem Kanban-Board zu visualisieren. Man erkennt Bottlenecks und kann mit der Work-In-Progress Limitierung den Arbeitsfluss optimieren. Danach kann man dieses Vorgehen in einer Timebox abbilden und Sprints daraus formen. Am Anfang jeder Timebox kann man planen, was darin abgearbeitet wird, die Tasks und Stories werden dabei auf das Kanban-Board übertragen. Am Ende der Timebox kann man eine Retrospektive durchführen, die dabei hilft, den Prozess gemeinsam mit dem Team zu verbessern. Dailys werden abgehalten, um den aktuellen Stand am Board zu diskutieren und Probleme zu erfassen.

Wie man sieht, sollte man die Entscheidung für oder gegen SCRUM mit vollem Bewusstsein der Konsequenzen treffen. Wenn das Projekt und das Umfeld passen, kann man SCRUM ganzheitlich einführen. Will man die aktuellen Entwicklungen nicht zu sehr ausbremsen, kann man über Kanban sanft in die Agilität wechseln. Wichtig ist aber immer, dass dieser Schritt gewollt, unterstützt, von allen mitgegangen und ständig verbessert wird.

Wie geht es weiter?

Im nächsten Teil der Serie widme ich mich den Problemen, die häufig auftreten, nachdem SCRUM in ein Projekt oder Unternehmen eingeführt wurde. Ich werde die Folgen auf laufende Projekte darstellen und Tipps geben, wie man diese unsicheren Gewässer umschiffen kann.

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

Microsoft Technical Summit 2015 – The Next Level

Veröffentlicht am 08.12.2015 von Alexander Müller , Event

Im Jahr 2014 richtete Microsoft das erste Mal die Technical Summit in Berlin aus, die die beiden Veranstaltungen TechNet und Visual Studio Evolution vereinte. Damals eröffnete Microsoft CEO Satya Nadella als Keynote-Sprecher die Konferenz und unterstrich damit die Bedeutung der Veranstaltung für Softwareentwickler und IT-Infrastrukturexperten im deutschsprachigen Raum. Ein Jahr später lud Microsoft im November ein weiteres Mal zur Technical Summit ein. eBiz war mit dabei.

 Ankunft

Die Konferenz fand diesmal im Wissenschafts- und Kongresszentrum Darmstadtium statt, das durch seine verkehrsgünstige Lage, die außergewöhnliche Architektur und einer großen Zahl an Konferenzräumen mit moderner Innenraumausstattung einen positiven Eindruck auf uns machte. Durch die Möglichkeit des Pre-Check-Ins am Tag zuvor konnten wir den ersten Konferenztag ohne Warteschlage beginnen und wurden sogleich mit einem Starterpaket, Frühstückshäppchen und Getränken versorgt. Ausgestattet mit der bereitgestellten Technical Summit 2015 App war die Orientierung dann ein Leichtes.

Konferenzprogramm

Das Konferenzprogramm verteilte sich auf zwei Konferenztage und einen Workshop-Tag und versprach damit eine gute Mischung aus Technologievorträgen und praktischen Hands-On Sessions. Thematisch wurden Sessions aus den Bereichen App-Entwicklung, Cloud, Datacenter, Dev Tools und Sprachen, Enterprise Mobility und Office & Co angeboten – für jeden etwas dabei. Dabei gingen wir von eBiz alle mit einer ähnlichen Erwartungshaltung in die Konferenz: Vorhandenes Wissen aus der Microsoft-Welt auffrischen, neues Wissen über Trendthemen und die technologische Ausrichtung von Microsoft sammeln, um weiterhin mit Kunden und Kollegen auf Augenhöhe diskutieren zu können. Wir wurden nicht enttäuscht!

Tag 1

Der erste Tag begann mit der zweigeteilten Opening Keynote, in der uns zunächst Peter Jaeger, Senior Director Developer Experience & Evangelism (DX) und Mitglied der Geschäftsleitung von Microsoft Deutschland, die aktuelle Mission Microsofts näherbrachte und natürlich das brandheiße Thema “Deutsche Cloud” präsentierte. Im zweiten Teil gab Dr. Thomas Friese, Vice President Innovation & Digital Services von Siemens Healthcare, Praxisbeispiele zum Einsatz der Microsoft Cloud und Einblicke in die zukünftige Nutzung der Cloud bei Siemens Healthcare. Nach der Keynote verteilte sich das eBiz-Team den Interessen entsprechend auf die einzelnen Säle und traf sich in den Pausen, um die gewonnen Informationen auszutauschen. Eine der wichtigsten Neuigkeiten an Tag 1 wurde von Rainer Strassner aus dem Azure Datacenter Team von Microsoft Deutschland präsentiert:

Insights: Microsoft Cloud in Deutschland
Am 11. November, knapp eine Woche vor der Technical Summit, kündigte Satya Nadella in Berlin die neue “Deutsche Cloud” mit T-Systems als Datentreuhänder (data trustee) an. Rainer Strassner präsentierte das Thema und ging u.a. auf die Beweggründe für die “Deutsche Cloud“, die Einbindung des Treuhänders, Vertragsdetails und die Timeline ein.

Hier die Fakten in aller Kürze:

  • Microsoft kommt dem Bedürfnis der Kunden nach einer Cloud nach, der sie vertrauen können, ohne Bedenken vor Datenabgriff der Geheimdienste haben zu müssen.
  • Die “Deutsche Cloud” ist für alle EU / EFTA-Kunden verfügbar.
  • T-Systems wird als Datentreuhändler (data trustee) eingesetzt, Microsoft sperrt sich selbst physisch und logisch aus den Rechenzentren aus.
  • T-Systems Mitarbeiter werden von Microsoft geschult und erhalten Runbooks, um Problemfälle selbstständig zu lösen. Ausgewählte Microsoft-Mitarbeiter können bei Bedarf unter strengem Monitoring und Protokollierung durch T-Systems für eine dedizierte Aufgabe unterstützen.
  • Der Vertrag wird mit Microsoft Irland geschlossen, es gilt also irisches Recht.
  • Der Vertrag enthält einen Zusatz, der sich auf die Beziehung zwischen Kunde und dem Auftragsdatenverarbeiter T-Systems bezieht. Der Kunde schließt auch einen Vertrag mit T-Systems ab.
  • Eine Private Preview startet Anfang 2016, das Rollout erfolgt in der zweiten Hälfte 2016 mit Azure, Office365, Dynamics CRM.

Weitere interessante Vorträge an Tag 1 waren:

  • Azure Futures: Neues in der Azure Compute-Plattform

    Sprecher: Dr. Holger Sirtl

  • Best-Practices und Performanceoptimierung für Entity Framework

    Sprecher: Dr. Holger Schwichtenberg

  • Powering the Next Generation Cloud with Azure Stack, Nano Server & Windows Server 2016!

    Sprecher: Jeff Woolsey

Tag 2

Tag 2 begann für uns nach einem kurzen Beisammensein in der Lobby bei Kaffee und Saft mit der anschließenden Opening Keynote von Giorgio Sardo, Senior Directory Developer Experiences von Microsoft Corporation, zum Thema “More Personal Computing”.

Opening Keynote

Im Rahmen der Keynote wurden Alltagsszenarien der sogenannten “Human Capabilities” (Speech, Vision, Identity, Gesture, Inking, Emotion) skizziert und Möglichkeiten für Entwickler gezeigt, diese zu nutzen und das Nutzungserlebnis persönlicher und intensiver zu gestalten. Microsoft gibt dafür mit Universal Windows Apps, Continuum, PixelSense, Surface Book, Surface Tablet, Lumia, Band, Kinect, Holo Lense usw. eine umfangreiche und abgestimmte Produkt- und Technologiepalette an die Hand, mit der ein plattformübergreifendes persönliches Nutzungserlebnis geschaffen werden kann. Das Besondere an dem Vortrag war neben Giorgo Sardo, der mit seiner fröhlichen und mitreißenden Art für den einen oder anderen Lacher sorgte, die Vielfalt der inspirierenden Praxisbeispiele. So klang auch die Aufforderung am Ende: “Go make magic”!

Weitere interessante Vorträge an Tag 2:

Tag 3

Am 3. Tag trat das eBiz-Team reduziert auf zwei Teilnehmer (Ireen Raue und Ronny Ulbricht) zum Workshop-Tag an. Auf dem Plan stand “Microsoft Azure für Entwickler (Hands-On)” mit Holger Sirtl, Malte Lantin und Julia Jauß. Der Workshop startete mit einem Intro durch den jeweiligen Sprecher, gefolgt von praktischen Übungen (hands-on labs), um das Wissen zu vertiefen. Hier wurden praktische Beispiele mit Visual Studio 2015 und der Azure Cloud umgesetzt. Während des Workshops und auch in den Pausen standen die Sprecher jederzeit für Fragen zur Verfügung und sorgten durch ihr kompetentes und freundliches Auftreten für einen angenehmen Ausklang der Technical Summit 2015.

Fazit

Alles in allem waren es drei gelungene Tage, die gut organisiert waren und eine breite Auswahl an interessanten Vorträgen boten. Wir haben qualifizierte Impulse für neue Ideen bekommen, konnten unser Wissen in einzelnen Sessions vertiefen, haben gemeinsam über Inhalte diskutiert – und der Spaß kam auch nicht zu kurz. Nächstes Jahre gerne wieder!

Videos und Folien der Vorträge sind hier zu finden.

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

„In medias res“@work – Part II

Veröffentlicht am 02.12.2015 von Florian Hieber , Insights@ebizcon

In meinem ersten Beitrag habe ich geschrieben, wie ich zur eBiz Consulting gekommen bin. Hier kommt jetzt mein Bericht über die ersten Tage und mein erstes Projekt.

eBiz LogoGegenseitiger Respekt, gepaart mit einer sehr offenen und freundlichen Art aller Mitarbeiterinnen und Mitarbeiter und der Geschäftsführung prägen den Arbeitsalltag bei der eBiz. Es ist erfüllend, wenn selbst zu einem sehr frühen Zeitpunkt in der Einarbeitung alle zuhören, was man zu sagen hat und meine Erfahrungen genutzt werden. Daneben gibt es für jeden neuen Mitarbeiter einen Mentor, der für alle administrativen Fragen zur Verfügung steht. In meinem Fall ist das einer der Geschäftsführer, Robert Schlachta. Selbst als Geschäftsführer und den mannigfaltigen Aufgaben, die er in dieser Rolle hat, werden meine Fragen und Sorgen schnell beantwortet. Auch das ist neu und durchaus positiv für mich.

Beeindruckend ist auch, dass ich nach einer ersten Einarbeitungsphase bereits in einige Themen einbezogen werde, die sich mit der strategischen Ausrichtung des Unternehmens beschäftigen. Das sind zum Beispiel (öffentliche) Ausschreibungen und eine unserer Kernkompetenzen “Kollaboration”.

Selbstverständlich ist bei der eBiz Consulting, dass “Hygienefaktoren“, wie Rechner und Handy, samt Zubehör am ersten Arbeitstag vorhanden waren. Dinge, die lange nicht überall selbstverständlich sind. So konnte ich am ersten Arbeitstag gleich meinen Rechner einrichten. Die eBiz Consulting GmbH hat ein Unternehmenshandbuch, welches stetig erweitert und erneuert wird, in dem man für alle administrativen Tätigkeiten nachlesen kann, um sie schnell und abschließend zu erledigen. Nachdem ich mich durch das Unternehmenshandbuch gelesen habe und auf meinem Rechner die wichtigste Software installiert hatte, war mein erster Arbeitstag auch schon vorbei.

Die erste Woche verging wie im Flug, danach waren auch schon Arbeitspakete für die nächsten Wochen geschnürt, und ich hatte die Möglichkeit, mich auf die Aufgaben vorzubereiten.

Mittlerweile bin ich einige Monate im Unternehmen, wurde Kunden vorgestellt und habe bis dato viele interne Aufgaben wahrnehmen dürfen, die als Vorbereitung auf mein Tätigkeitsfeld im Unternehmen zu verstehen sind. Man erkennt sehr gut, wie die Stelle mit mir zusammen und im Einklang aufgebaut wird. Das Motto: “Erst wer, dann was” wird gelebt und nicht nur präsentiert.

In die Summe der positiven Eindrücke fließt auch noch ein, dass man sehr schnell und ungefragt Feedback erhält. Durchaus erwähnenswert ist dabei auch, dass es sich um konstruktives Feedback handelt. In anderen Unternehmen bekommt man oftmals Feedback immer nur dann, wenn man selbst daraus einen Lernschluss ziehen sollte, oftmals erhält man auch gar kein Feedback. Das motiviert mich wiederum stark, mich weiter in das Unternehmen einzubringen. Diese Motivation, sprich das “Wir”-Gefühl ist ein Erfolgsfaktor für die eBiz Consulting. Hier ist man eher eine Familie als ein hierarchisch geführtes Unternehmen.

Mittlerweile hat mein erstes Kundenprojekt schon fast sein Ende erreicht. Es handelt sich um eine Migration in Office 365 und den SharePoint Server. Daneben sollen in Azure virtuelle Maschinen für Spezialsoftware errichtet werden, und auch Microsoft Project Server ist Teil eines Projektes. Hier will ich die spannenden Erfahrungen rund um das Thema Microsoft Cloud gar nicht besprechen, dazu wird mir ein anderer Blog-Beitrag Gelegenheit geben. Viel wichtiger ist mir ein ganz anderer Aspekt, den ich hier hervorheben möchte:

André Dammeyer, einer der Geschäftsführer, hat den Kontakt zum Kunden initiiert und mich dort vorgestellt. Dann übergab er mir den Lead für dieses Projekt. In mehr oder weniger regelmäßigen Abständen gebe ich ihm Feedback über den Stand des Projektes, aber ansonsten bin ich komplett verantwortlich für die Kommunikation und Durchführung des Projektes.

Im Verlauf des Projektes habe ich, bis auf Statusberichte, zweimal die Unterstützung von André benötigt. In beiden Fällen haben wir die Fragestellung gemeinsam konstruktiv und effektiv in kurzer Zeit lösen können.

Aber ich war sehr überrascht, wie viel Vertrauensvorschuss ich bekommen habe und das Projekt praktisch ohne Steuerung eigenverantwortlich führen konnte. Wohl gemerkt, mein erstes Projekt.

Eben dieses Projekt neigt sich nun dem Ende entgegen – und zwar einem durchaus erfolgreichen Ende, da alle Ziele erreicht wurden und der Kunde nach eigener Aussage sehr zufrieden mit dem Ergebnis ist. Damit reiht sich mein erstes Projekt für die eBiz Consulting nahtlos und zur Zufriedenheit meiner Geschäftsführung in die Riege der weiteren eBiz Projekte ein, die den Anspruch höchster Professionalität bei maximaler Kundenzufriedenheit stets stellen.

Nun werde ich mich im nächsten Projekt erneut beweisen und freue mich auf neue Herausforderungen. Ich werde Euch auf dem Laufendem halten.

 

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

Across the globe – Global Delivery: Namaste – Zwei Wochen Indien und zurück

Veröffentlicht am 03.11.2015 von Ireen Raue , Global Delivery

Ereignisreiche zwei Wochen, die kaum Zeit ließen, die gesammelten Eindrücke zu verarbeiten. Vollgepackt mit viel Arbeit, wenig Schlaf und einer Unmenge an neuen Erfahrungen und Erkenntnissen in der Zusammenarbeit mit unseren indischen Kollegen.

Im Februar ging es für zwei Wochen nach Pune in Indien. Pune ist eine der “kleineren” Millionenstädte. Über drei Millionen Menschen leben allein im eigentlichen Stadtkern und nochmal circa fünf Millionen Einwohnern im Umland.

Ein Großteil der hier ansässigen Firmen ist aus der IT-Branche, wohl auch aus dem Grund, weil die Universität in Pune als eine der besten des Landes gilt und immer noch mehr IT-Fachleute gesucht werden als Absolventen zur Verfügung stehen.

Auf in die Arbeit

Nach einem langen Flug und einer kurzen Pause mit drei Stunden Schlaf in Mumbai ging es auf eine abenteuerliche Fahrt von Mumbai nach Pune und direkt in den ersten Arbeitstag.

Als erstes gab es eine große Kennenlernrunde mit allen Mitarbeitern des indischen Teams, die auf uns wohl ebenso neugierig waren wie wir auf sie. Wir wurden herzlich willkommen geheißen und fürsorglich betreut für den gesamten Aufenthalt.
Die vielzitierte indische Gastfreundlichkeit hat sich bestätigt: Immer wieder wurde nachgefragt, ob wir alles haben, was wir brauchen. Bei der Essensauswahl in der Kantine stand immer jemand beratend zur Seite, in den meisten Fällen wurden wir sogar eingeladen und jederzeit wurden Taxis organisiert.

Auf den ersten Blick wirkten die Großraumbüros für uns eher ungewohnt, aber es war erstaunlicherweise bei Weitem nicht so laut wie vermutet, und es gab auf jeder Etage mehrere Video-Konferenzräume mit zwei mindestens 40″ großen Bildschirmen und Webcam – also bestens ausgestattet für die internationale Zusammenarbeit. Zwei dieser Räume waren dann auch für uns reserviert, um einen ungestörten Knowledge Transfer durchführen zu können.
Nachdem der erste Tag eher mit organisatorische Dinge verging, ging es am zweiten dann richtig los mit der Wissensübergabe. Alle hörten konzentriert zu und versuchten, so viel wie möglich mitzunehmen. Für uns hieß es, fast durchgehend zu referieren – eine gute Möglichkeit, das etwas eingerostete Englisch wieder zu aktivieren. Wenn wir in der ersten Woche noch so manches Mal nach den richtigen Worten gesucht hatten, haben wir in der zweiten Woche schon fast auf Englisch gedacht.

Vorbereitung ist alles

Wie wir aus Unterhaltungen feststellen konnten, wurden die indischen Kollegen auf unseren Besuch gut vorbereitet.

Auf unserer Seite war das zeitlich schwieriger zu realisieren, so dass ich jedem nur raten kann, für die Vorbereitung einer Indien-Reise etwas Zeit einzuplanen. Einige der Inder konnten sogar ein paar Worte Deutsch sprechen. Das einzige, das ich vorweisen konnte, war ein “Namaste” zur Begrüßung. Ein Interesse an der indischen Kultur und Sprache oder sogar ein paar Worte auf Hindi sind auf jeden Fall ein guter Einstieg für eine persönliche Beziehung untereinander.

Was man auch sehr häufig liest, ist, dass für Inder eine persönliche Beziehung auch auf geschäftlicher Ebene sehr wichtig ist und meist erst über private Dinge geplaudert wird, bevor man auf das Geschäftliche zu sprechen kommt. Ich denke, dass hier die Vorbereitung eine gewisse Zurückhaltung auf indischer Seite ausgelöst hat. Solange wir im Büro saßen, gab es kaum private Unterhaltungen, dafür wurden wir dann beim Essen mit Fragen gelöchert. Hier sollte man auch tatsächlich auf jegliche Themen der Arbeit verzichten und sich die Zeit nehmen für private Gespräche.

Und dann war da noch das typische Frauenproblem: Was ziehe ich an?

Normalerweise ist das für mich kein Problem, aber als es hieß, es gehe nach Indien, habe ich darüber tatsächlich eine ganze Weile nachgedacht. Was darf man als Frau in Indien anziehen, ohne aufzufallen? In den verschiedenen Ratgebern liest man dann: Nicht schulterfrei und kein Bein zeigen, also keine kurzen Röcke oder Hosen – was übrigens auch für Männer gilt. Das hat das Ganze nicht einfacher gemacht, da wir aus einem kalten Winterwetter in Deutschland in ein über 30°C warmes Indien geflogen sind.

Im Nachhinein betrachtet, war es dann doch kein Problem, da wir fast die ganze Zeit in ziemlich kalt klimatisierten Räumen saßen und eine Bürojacke definitiv nicht fehlen durfte – also die gleiche Businesskleidung wie in Deutschland auch, nur eben nicht mit Rock, sondern lieber mit Hose, wobei all diese Dinge in einer großen Stadt wie Pune auch nicht mehr so streng gesehen werden. Selbst die Inder im Büro waren zu ca. 50% eher westlich gekleidet, also in Jeans und T-Shirt.

Bestätigte Klischees

Irgendwo habe ich gelesen, dass wohl um die 80% aller Indienreisenden einmal auf ihrer Reise unter Reisedurchfall leiden. Also war ich hier besonders vorsichtig. Kein Wasser aus der Leitung, nur aus original verschlossenen Wasserflaschen, nur gekochtes Essen, regelmäßig die Hände waschen.

Wahrscheinlich auch begünstigt durch die anstrengende Anreise, den Schlafmangel und den großen Temperaturunterschied und das nicht nur zwischen Deutschland und Indien, sondern auch zwischen den klimatisierten Räumen und draußen, hab ich am Ende der ersten Woche einen Tag das Hotel nicht verlassen können. Es ist also sehr wichtig, eine gut ausgestattete Reiseapotheke dabei zu haben.

Was absolut keine Untertreibung ist, ist der Verkehr in Indien. Alles was man hört und sich kaum vorstellen kann, stimmt. Jede Fahrt vom Hotel ins Büro und zurück war aufs Neue aufregend. Ich würde mir niemals zutrauen, hier ein Auto oder gar auf dem Motorrad zu fahren. Selbst über die Straße zu gehen, ist für uns Europäer eine fast unlösbare Aufgabe. Aber nichtsdestotrotz haben wir nicht einen einzigen Unfall gesehen, auch wenn man in einigen Situationen schon fast das Blech hat klappern hören.

Ein kleinwenig Freizeit gab’s dann doch

Auch wenn eigentlich nicht viel Zeit für Privates blieb während unseres Aufenthaltes, haben wir es doch wenigstens an einem Tag geschafft, uns einen kleinen Teil von Pune anzusehen.

Ganz zu unserer Überraschung stellten wir fest, dass hier die letzte Ruhestätte von Gandhi in einem kleinen Hinterhof eines Gandhi-Museums versteckt liegt. Wer hätte das gedacht!

Und selbst für diesen Tag haben einige der indischen Kollegen ihre Freizeit geopfert, um uns ein wenig herumzuführen. So haben wir neben dem Gandhi Museum auch einen Felsentempel besichtigt, waren etwas shoppen und haben dann den Abend gemeinsam in einer sehr schönen Bar ausklingen lassen.

Außerdem gab es dann noch am letzten Abend vor unserer Abreise einen gemeinsamen Restaurant-besucht mit dem gesamten Team. Eine gute Gelegenheit sich mit den Leuten auch mal ein wenig mehr privat zu unterhalten.

Fazit

Gerade, wenn man die kurze Zeit vor Ort so optimal wie möglich ausnutzen möchte, ist eine gute Vorbereitung unerlässlich. Aber trotz dass diese bei uns doch etwas kurz geraten war, sind die zwei Wochen in Pune ein unbeschreibliche Erfahrung gewesen.

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

eBiz Homepage „im neuen Gewand“

Veröffentlicht am 21.09.2015 von Ronny Ulbricht , Insights@ebizcon , Web

Unsere Visitenkarte im Netz: Wir haben nicht nur eine Homepage, die die eBiz Consulting GmbH präsentiert, wir entwickeln sie auch im Gleichschritt mit unserem Unternehmen.

Der Weg zur neuen Homepage

Als die eBiz Consulting GmbH am 30. Mai 2011 gegründet wurde, bestand kein Zweifel: Eine eigene Homepage für die Außendarstellung muss sein, wenn auch nicht mit höchster Priorität. Zugegeben: Die erste Webpräsenz der eBiz war eine schlichte Site (siehe Abb. Links), aber dennoch professionell aufbereitet – wie es sich für ein Online-affines Unternehmen gehört – und für den damaligen Zeitpunkt völlig ausreichend.

Seit dem hat sich eBiz wesentlich weiterentwickelt. Das Team ist auf mittlerweile zehn Mitarbeiterinnen und Mitarbeiter angewachsen, die strategische Ausrichtung der Company wurde weiter vorangetrieben, Prozesse etabliert oder angepasst, kurz: das ganze Unternehmen wurde und wird kontinuierlich professionalisiert und optimiert. Im Zuge dieser Weiterentwicklung waren wir uns einig: Wir brauchen eine neue Webpräsenz!

Es gilt, die Vision umzusetzen. Natürlich könnte man nun denken, dass das ja nicht so schwer sein sollte und es einfach selber angehen. Aber so einfach ist es dann doch nicht. Die eBiz geht ihre internen Projekte mit der gleichen Professionalität und demselben Engagement an, mit der sie ihre Projekte bei den Kunden betreibt. Es war klar, dass wir als IT-Consulting Unternehmen die technische Umsetzung selbst übernehmen können und wollen, nicht zuletzt auch, um die Homepage als Referenz unserer Web-Kompetenz nutzen zu können. Aber uns war auch bewusst, dass wir vor allem im gestalterischen Bereich Unterstützung benötigen, um das angestrebte Ergebnis zu erzielen. So haben wir nach einem passenden, kreativen Partner gesucht und mit der Agentur Vier für Texas GmbH und CO. KG gefunden.

Das Projekt “eBiz Homepage”

Mit “Vier für Texas” an unserer Seite konnte es nun losgehen, was keineswegs bedeutet, dass wir uns direkt an die Umsetzung gemacht haben. Zunächst haben wir in der ersten “Phase” des Projektes erst einmal das Konzept für die Homepage erarbeitet. Es wurden mögliche Inhalte erörtert, es gab Design- und Konzept-Vorschläge zur User Experience und mehrere Workshops, in denen auch das neue Logo für eBiz erarbeitet wurde. Hierbei waren die Kolleginnen von “Vier für Texas” federführend, wobei alle Aktionen mit der eBiz Geschäftsleitung abgestimmt und gemeinsam mit den eBiz Mitarbeiterinnen und Mitarbeitern erarbeitet wurden.

Die technische Implementierung haben wir bei der eBiz selbst übernommen. Auch hier fand stets eine enge Abstimmung mit “Vier für Texas” statt, da parallel einzelne Teile des Konzeptes weiter ausgearbeitet und detailliert wurden, sowie die Zulieferung von Artefakten wie Bildern, Texten und weiteren stilistischen Elementen erfolgte.

Ein paar eBiz Insights zum Projekt

Aufgrund unserer strategischen Ausrichtung auf den Microsoft Technologie Stack und dem Anspruch, dem “State of the Art” zu entsprechen, wollten wir das Projekt auf der entsprechenden Plattform realisieren. Die Entscheidung fiel daher auf die Umsetzung als ASP.NET MVC Web Applikation. Dabei entschieden wir uns für die Publikation unserer neuen Webpräsenz in der Cloud auf Microsoft Azure, um diese möglichst ausfallsicher hosten zu können, bei maximaler Flexibilität in der Gestaltung und Erweiterung und optimalem Kosten-Nutzen Faktor. Dies ermöglicht uns außerdem eine optimierte Abbildung unseres Software Development Lifecycle des Projektes durch die Anbindung von Visual Studio Online als Source Control und Build System mit direktem Deployment in die Cloud.

Eine weitere Entscheidung in der technischen Ausgestaltung des Projektes war die Erweiterung um Twitter Bootstrap als Framework, um mobile first zu ermöglichen. Wir wollten die maximale Verfügbarkeit unserer neuen Homepage nicht nur Cross-Browser, sondern auch Cross-Device über alle aktuellen Endgerät-Klassen, also vom Handy, über das Tablet, den Laptop bis hin zum Big Screen Desktop Device inklusive Touch-Unterstützung. Dabei entschieden wir uns für das Fluid Grid System bei dem wir die mobile Version ohne viel Aufwand on top bekommen sollten.

Neben den technischen Details war es auch wichtig, ein Vorgehensmodell zu etablieren, das uns bei der Umsetzung des Projektes entgegenkommt. Da die weitere Detailierung einiger Teile des Konzeptes parallel zur Umsetzung erfolgte, die Verfügbarkeit der Ressourcen bedingt durch das Tagesgeschäft beim Kunden fluktuierten und das gesamte Projekt recht “agil” war, bot sich auch ein agiler Ansatz an. Wir setzten das Projekt entsprechend Scrum-basiert auf, was den Vorteil hatte, dass das gewählte Tooling diesen Ansatz auch vollständig unterstützt. Der Verlauf und das bisher erreichte Ergebnis bestätigen diese Entscheidung.

Unser Fazit

Zu unserem Company Meeting Ende Juni 2015 haben wir unsere neue Homepage unter www.ebizcon.de live geschaltet. Das bisherige Feedback war durchweg positiv und wenn man die alte und neue Webpräsenz miteinander vergleicht, dann spiegelt sie die Entwicklung und Veränderungen bei der eBiz als Company bestens wider. Ein internes Projekt in diesem Setup haben wir zum ersten Mal durchgeführt, und entsprechend sind wir auf Herausforderungen gestoßen, die wir so nicht vorhersehen konnten. So musste zum Beispiel der avisierte Zieltermin des ersten Releases im Verlauf des Projektes auch aufgrund der unterschätzten Aufwände angepasst werden. Unser Motto ist “Qualität und Umfang vor Termin” – auch wenn wir Termine als verbindliche Verabredungen betrachten. In diesem Fall wären uns aber wertvolle Erfahrungswerte entgangen, und daher freuen wir uns dank einer starken Teamleistung, unserer tollen Kolleginnen und Kollegen von “Vier für Texas” – danke! – und ihres stets professionellen und qualitätsorientierten Vorgehens über ein hervorragendes Ergebnis.

Überzeugen Sie sich selbst und lernen Sie uns kennen: www.ebizcon.de.

 

 

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

.NET Mocking Frameworks im Vergleich

Veröffentlicht am 31.08.2015 von Kevin Setiono , Custom Development

Mocking Frameworks gibt es reichlich, und aus der großen Auswahl das Richtige zu wählen, fällt nicht immer leicht. Auch im .NET Umfeld gibt es einige Vertreter mit unterschiedlichen Stärken und Schwächen. Je nach Anforderungsprofil findet damit jeder den passenden Helfer.

Im letzten Artikel dieser Serie “Einführung in Mocking Framework” haben wir vorgestellt, was Mocking Frameworks grundsätzlich sind, und gezeigt, unter welchen Aspekten diese Frameworks sich vergleichen lassen. Im Folgenden knüpfen wir daran an und stellen verschiedene Mocking Frameworks aus dem .NET Umfeld vor und vergleiche diese.

Welche Mocking Frameworks gibt es für .NET?

Es gibt viele Mocking Frameworks, und während Sie diesen Blogartikel lesen, werden wahrscheinlich gerade neue entwickelt. Um eine verwertbare Analyse zu erstellen, müssen wir Abgrenzungen schaffen. Unsere erste Abgrenzung ist: Wir wollen ein quelloffenes Framework und das kostenfrei bzw. ein Open Source Framework. Die Liste der Frameworks war auch nach diesem Kriterium sehr groß, weswegen wir entschieden haben: Wir folgend dem Trend!

Die Trend-Liste besteht nach unseren Recherchen aus folgenden Mocking Frameworks im .NET Bereich:

  • NSubstitute
  • FakeItEasy
  • Moq
  • Rhino Mocks

Aktivität

Werden die Open Source Projekte gewartet, bzw. beteiligt sich die Community noch an dem Projekt? Ansonsten müssen interne Entwickler Fehler im Framework beheben. Das erzeugt Kosten und verlangsamt die Lernkurve.

Release Cycle

In Open Source Projekten gibt es Stable Releases. In großen Softwareprojekten wollen wir uns ungern auf Software verlassen, die keine Qualitätssicherung durchlaufen hat.

Anwendbarkeit

Sie betrifft die Syntax, die Lernkurve und die Dokumentation. Die Dokumentation in Open Source Projekten kommt leider oft zu kurz. Das Problem an fehlender Dokumentation ist, dass in den Quellcode geschaut werden muss. Die Lernkurve steigt – und mit ihr auch die Kosten. Der Elan, mit dem die Entwickler mit dem Framework arbeiten, sinkt dadurch vermutlich auch. Das ist aus meiner Sicht ein nicht unerheblicher Punkt, denn glückliche Mitarrbeiter arbeiten lieber und besser.

Google Trend

Google Trend ist eine Analyse von Google, die die Suchfrequenz von Begriffen über die Zeit verfolgt. Wir analysieren mit Google Trend die Marktverbreitung bzw. wie oft Entwickler nach dem jeweiligen Mocking Framework bei Google eingeben.

Moq

Moq wird stetig weiterentwickelt. Die letzte Änderung am Quellcode ist aktuell ungefähr einen Monat her. Der Release Cycle von Moq ist nicht ganz so erfreulich, das letzte Release kam 2013 heraus. Die Dokumentation ist nicht ausführlich, sozusagen minimal. Es lassen sich aber im Internet viele Beispiele finden, weil Moq einen großen Bekanntheitsgrad hat und sich intuitiv anwenden lässt. Moq liegt – obwohl es eines der ältesten .NET Mocking Frameworks ist – im Trend, was sich mit Google Trends nachweisen lässt. Die Google Trends Kurve steigt stetig.

Rhino Mocks

Rhino Mocks wurde seit 2010 nicht mehr weiterentwickelt, somit ist auch der Release Cycle nicht relevant. Rhino Mocks ist leider, wie die Entwicklung vermuten lässt, veraltet und der Google Trend geht stark zurück. Sehr positiv fällt bei Rhino Mocks dennoch die Dokumentation aus, die ausführlich und einfach verständlich ist. Mock Beispiele sind dennoch sehr häufig im Internet zu finden, was auf das Alter zurückzuführen ist.

NSubstitute

Die Community und der Release Cycle sind auf Zack. Es werden im Jahr mehrere Releases erzeugt. Der Trend von NSubstitute geht nach oben. Es ist anzunehmen, dass NSubstitute eine ernstzunehmende Konkurrenz für Moq ist. Die Dokumentation ist ausführlich und leicht verständlich. Die Syntax ist “state of the art”, es ist eine Fluent API.

FakeItEasy

Wie bei NSubstitute ist der Release Cycle und die Community aktiv. Es werden ebenfalls mehrere Releases im Jahr erzeugt. Der Trend von FakeItEasy ist seit circa einem Jahr konstant hoch, somit ist auch FakeItEasy eine ernstzunehmende Konkurrenz für Moq und NSubstitute. Auch hier gilt: Die Syntax ist “state of the art”, es ist eine Fluent API.

Ein kurzer Direktvergleich von FakeItEasy, NSubstitute und Moq

Alle drei Mocking Frameworks unterstützen Fluent API. Fluent APIs sind “state of the art”, da die Syntax einfacher lesbar ist. Die Frameworks sind aufgrund der gleichen API Syntax und Technologiebasis ähnlich. NSubstitute verwendet keine Lambda Ausdrücke, die anderen beiden dagegen schon.

Die unterstützten Features der einzelnen Mocking Frameworks unterscheiden sich nur in kleinen Details, die meines Erachtens für eine erste Auswahl nicht relevant sind. Sollte das Team mit einen der Mocking Frameworks Erfahrungen haben, ist dies entscheiender als die Feature-Unterschiede.

Im nächsten Artikel werden wir ein ausgewähltes Mocking Framework detaillierter betrachten. Welches Mocking Framework es wird, wollen wir noch nicht verraten …

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

eBiz Kommunikationstraining

Veröffentlicht am 04.08.2015 von Anika Sander , Event , Insights@ebizcon

“Guten Tag, meine Name ist Sander, Anika Sander”

In dieser Form stellte sich uns der Schweizer Kommunikationstrainer Raymond Fein bei unserem zweitägigen Workshop im Landhaus Hotel Waitz in Mühlheim Lämmerspiel vor. Danach – “blaue” Stille – dazu später mehr. Gerade als die Stille begann, ein leichtes Unbehagen hervorzurufen, ergriff Herr Fein erneut das Wort und präsentierte die Inhalte der kommenden Tage. Die Kommunikation hatte schon längst begonnen – vor dem ersten gesprochenen Wort.

Rot, blau oder gelb – oder doch eher kunterbunt?

Jede und jeder macht sich in den ersten Sekunden einen Eindruck von seinem Gegenüber und “stempelt” ihn oder sie. Ist das sinnvoll?

Nach der ersten Vorstellungsrunde haben wir etwas über die Definition dreier unterschiedlicher Kommunikations-Typen von Menschen gelernt: Ein Mensch passt nicht in eine Schublade – er passt in viele Schubladen.

Anhand von gezielten Frage- und Antwortspielen wurde uns verdeutlicht, dass die gewonnenen Erkenntnisse nicht so einfach verinnerlicht und umgesetzt werden können. So sind wir wieder in die Falle getappt, eine Schublade aufzumachen, erfundene Personen farblich zu kennzeichnen und sie “abzulegen”. Unsere fiktiven Personen waren anfangs entweder rot (aktional), gelb (emotional) oder blau (rational) – aber noch nicht kunterbunt. Das sollte sich ändern. Neben den Erkenntnissen über die unterschiedlichen Kommunikations-Temperamente lenkte Herr Fein die Konzentration auf unsere Körpersprache und gab während des gemeinsamen Abendessens am ersten Workshop-Tag Einblicke in den Business-Knigge und nützliche Tipps.

Raymond Fein is watching you

Wir wurden nicht nur gecoacht, sondern auch unsere Verhaltensmuster wurden unter die Lupe genommen – vom ersten Handschlag bis zur Verabschiedung am ersten Workshop-Tag. Seine Beobachtungen gab uns Herr Fein am letzten Workshop-Tag mit, so dass jede und jeder etwas aus dem Training weiterentwickeln konnte.

Unser Fazit – keine typische Schulung aus dem Baukasten

Herr Fein spiegelte uns unsere jeweilige Wirkung und gab Hinweise, wie wir sie verändern könnten, wenn wir zu dem eigenen Schluss kämen, dass wir das wollten.

Die Auswahl des Trainers und der Veranstaltung war sehr gelungen.
Sowohl die vermittelten Inhalte als auch die Schulung (Übungen, Reflexionen, Beispiele) waren interessant, sehr aufschlussreich und unterhaltsam.
Wir alle haben während der zwei Tage viel über uns selbst, unseren Kommunikationsstil und unsere Stärken und Schwächen gelernt – auch durch viele auf die jeweilige Person zugeschnittenen Hinweise und Tipps in Bezug auf die Verbesserung der eigenen Kommunikation, allgemeine, situative Tipps im Kommunikationsverhalten, aber auch Informationen über mögliche Interpretationen der Gesprächspartner.

Wir würden uns freuen, das Kommunikationstraining mit Herrn Fein fortzusetzen!

“Ein Training, zu dem alle Kolleginnen und Kollegen zusammen gekommen sind und unter fachkundiger Anleitung nicht nur trainiert wurden, sondern sich auch intensiv ausgetauscht haben. Neben den Lernerfolgen durch das wirklich gut strukturierte Programm war die Erfahrung, dass Kollegen wirklich gute Tipps haben können und schon in ähnlichen Situationen waren, am hilfreichsten. Im Alltag vergisst man zu schnell den Dialog im Team und nimmt sich zu selten die Zeit, übergreifende Themen anzusprechen.”
Lutz Plümpe, Senior Consultant

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

Across the globe – Global Delivery: Erfahrung aus über einem Jahr Mitarbeit in einem Off-Shore Projekt

Veröffentlicht am 30.06.2015 von Andreas Pohl , Global Delivery

In immer mehr Projekten wird die Entwicklungsarbeit an IT-Firmen in Indien abgegeben. Dieses Outsourcing birgt neben den vielen Vorteilen auch einige Herausforderungen, denen wir uns gestellt haben und immer noch stellen.

Global Delivery und die damit verbundene Fähigkeiten, gleichzeitig Kosten zu senken und den Projektoutput zu steigern, ist eine Modell, das in den letzten Jahren und fast schon Jahrzehnten den Alltag und die Vorgehensweise in IT-Projekten prägt.

Neben den vielen Vorteilen wie:

- Hohe Verfügbarkeit von sehr gut ausgebildeten Fachkräften und IT Spezialisten
- Die Kombination aus On-Site- und Off-Shore-Ressourcen ermöglicht ein attraktives Preismodell.
- Erhöhte Kapazität durch “Follow the sun” Ansatz und der damit deutlich verlängerte Projektarbeitstag aufgrund der Zeitverschiebung innerhalb der Zeitzonen
- Erhöhung der Flexibilität und Fähigkeit, schneller auf Kundenwünsche und sich verändernde Märkte einzugehen

muss man sich der Herausforderungen bewusst sein, die solch ein komplexes Arbeitsumfeld mit sich bringt.

Vor circa eineinhalb Jahren wurde begonnen, in die Entwicklung eines der Projekte, an dem wir maßgeblich mitwirken, Off-Shore-Kollegen in Indien einzubinden.

Ziel war, innerhalb von sechs bis neun Monaten das Projektwissen an die Kollegen aus Indien zu übergeben und sie damit zu befähigen, die Entwicklungsaufgaben fortzuführen. Aufgrund der Komplexität des Projektes und der ständigen rasanten Neu- und Weiterentwicklung gibt es immer wieder Bereiche, die neu erschlossen und auch gemeinsam erarbeitet werden müssen. Um dieser Herausforderung gerecht zu werden, haben wir den Projektentwicklungslebenszyklus (SDLC) innerhalb des Projekts angepasst und agiler gestaltet. Über neu eingeführte Discovery Tracks besteht vor jedem Entwicklungsstrang die Möglichkeit, Wissen zu erneuern oder komplett neu aufzubauen.

Technisch gesehen macht es in der heutigen Zeit keinen großen Unterschied, wo man selbst und wo die Kollegen arbeiten. Mit WebEx und Telefon/Video-Konferenzen ist auch eine Zusammenarbeit über Kontinente kein unlösbares Problem mehr, und die technische Ausstattung auf indischer Seite ist zum Teil sehr beeindruckend.

Für die Anfangszeit ist es aber immer gut, auch persönlichen Kontakt zu haben, und so sind ein Teil der indischen Kollegen für ein paar Wochen nach Deutschland gekommen, um sich bei uns einzuarbeiten und die Gegebenheiten besser zu verstehen.

Interkulturelle Missverständnisse

Die ersten Herausforderungen zeigten sich dann sehr schnell in der Kommunikation miteinander. Nachdem man sich nach anfänglichen Schwierigkeiten an die unterschiedliche Aussprache des Englischen gewöhnt hatte, musste man feststellen, dass manche Missverständnisse nicht nur an der Fremdsprache lagen.

Hier ein paar Beispiele:

Jedem seine Zeit:

Auf deutscher Seite wird davon ausgegangen, dass ein Termin eine feste Verabredung ist. In Indien dagegen ist es ein “Ungefähr”, um allen Teilnehmern die Zeit zu geben, die sie brauchen, und so ist es nicht ungewöhnlich, wenn solche Termine deutlich später losgehen als vorher geplant.

Der Wissende hat immer Recht:

All das Wissen, das man weitergibt, wird aufgesogen, ohne etwas in Frage zu stellen. Um sicherzugehen, dass die Erklärungen auch verstanden werden, sollten immer konkrete Rückfragen gestellt werden, um eventuelle Missverständnisse auszuschließen.

Der Chef (Vorgesetzte) hat immer Recht:

Die Herangehensweise und Vorbereitung einer Entwicklungsaufgabe, wie sie zuvor im Projekt gehandhabt wurde, musste komplett überarbeitet werden. Einem deutschen Entwickler wurde meist eine nur halbfertige Aufgabenstellung “hingeworfen”, und fehlende Informationen mussten selbst besorgt werden. Für einen indischen Entwickler ist das, was vom Vorgesetzten kommt, aber nicht in Frage zu stellen, und so gibt es hier wie auch schon beim Wissenstransfer gar keine oder nur wenige Rückfragen. Das heißt, die Aufgabenstellung muss immer so konkret wie möglich formuliert sein.

Nur kein Stress:

Was man auf jeden Fall von den indischen Kollegen lernen kann, ist gelassen zu bleiben. Ob Zeitdruck, viel Arbeit oder nörgelnde Kollegen, einen Inder bringt eigentlich nichts aus der Ruhe. Wenn bei uns bei einem näher rückenden Termin häufig Panik ausbricht, macht uns meist die Gelassenheit der indischen Kollegen nur noch hektischer.

Fazit

So eine Zusammenarbeit sollte auf beiden Seiten gut vorbereitet werden, damit die verschiedenen Ansichten und Einstellungen nicht zu Frustrationen führen. Leider ist diese Vorbereitung auf jeden Fall auf deutscher Seite deutlich zu kurz gekommen. Durch gesammelte Erfahrung und eigene Recherchen zur interkulturellen Zusammenarbeit wurde so manches Missverständnis im Nachhinein erklärbar.

Als Ergebnis des vergangenen Jahres kam dann die Einsicht, über eine Reise nach Indien den persönlichen Kontakt intensiver herzustellen und damit die Zusammenarbeit zu erleichtern und zu verbessern. Die Erfahrung aus dieser Reise gibt es in einem der folgenden Blogbeiträge.

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

„In medias res“@work

Veröffentlicht am 01.06.2015 von Florian Hieber , Insights@ebizcon

Meine gesammelten Erfahrungen, die ich vom Erstkontakt bis zum ersten Arbeitstag machen durfte, sind Grund genug für meinen ersten Blog-Artikel “In medias res” @work.

eBiz LogoIch war in einem anderen Softwareentwicklungsunternehmen als Projektmanager beschäftigt. Meine Kollegen dort haben auch ein Xing Profil und auf diesem Weg wurde ein befreundeter Kollege angesprochen. Für Ihn war aufgrund von Familienzuwachs eine beratende Tätigkeit in ganz Deutschland keine Option. Aber er war so freundlich meine Kontaktdaten an die eBiz Consulting zu leiten. Dann ging alles relativ schnell. David Krüger hat sich bei mir gemeldet und wir hatten zwei Telefonate, in dem ich etwas über die eBiz Consulting erfahren habe und David etwas über mich. Nach dem ersten Telefonat war ich mit David schon beim “Du”. Das zweite Telefonat war eine Telefonkonferenz, mit David, Robert Schlachta und mir.

Wir haben schnell einen Termin zwecks persönlichen Kennenlernen ausgemacht. Schon in diesem ersten Gespräch hatte ich das Gefühl, die Chemie stimmt. Es war bei dem Gespräch Robert Schlachta anwesend, David musste leider kurzfristig absagen. Robert Schlachta hat mir dann sehr tiefe Einblicke über das Unternehmen, die laufenden Projekte und das Team gegeben. Von meiner Seite her konnte ich damals schon sagen, dass ich mich liebend gerne diesen Herausforderungen stellen wollte. Das persönliche Gespräch war konstruktiv einerseits, aber im Besonderen wurde der Fokus auf die persönliche Ebene gelegt. Das hat mich positiv überrascht, normalerweise wird in einer Bewerbung viel Wert auf fachliche Kompetenz gelegt, die sozialen Aspekte finden sich dann (oder eben nicht). Ich hatte das Gefühl, hier denkt man genau anders herum. Passt man ins Team, kann man die fachliche Seite auch lernen. Ich finde diesen Ansatz großartig und erfrischend anders. Ist es doch viel schwerer, sich sozial umzustellen, als fachlich neues Terrain zu begehen. Glücklicherweise habe ich auch fachlich zuvor die richtigen Erfahrungen machen dürfen.

Beim zweiten Gespräch war David auch mit anwesend. Auch dieses Gespräch wurde in entspannter Atmosphäre geführt. Mir wurde viel Zeit gegeben, mich selbst vorzustellen. Ich hatte dafür eine kleine Präsentation vorbereitet. Darin habe ich, aufgrund meines Eindrucks aus den Telefonaten und dem Gespräch zuvor, nicht nur mein fachliches Wissen präsentiert, sondern auch zu etwa 50% mich als Person vorgestellt. Meine Hobbies und Interessen aufgezeigt und selbst meine Vorlieben bei der Musikrichtung. Beide Teilaspekte meiner Person fanden positives Feedback. Spätestens jetzt war mir klar: “Hier möchte ich arbeiten.”

Kurz nach dem Gespräch wurde mir dann auch Seitens der eBiz Consulting bescheinigt, dass es sich hier nicht um ein einseitiges Gefühl handelt. Ich hatte eine generelle Zusage, an den Modalitäten (Urlaubstage, Gehalt und dergleichen) waren die Vorschläge, die gemacht wurden auch überdurchschnittlich. Es gab nichts nachzubessern für mich.

Im den Monaten meiner Kündigungsfrist hatte ich immer wieder Kontakt mit David und ein weiteres Gespräch mit ihm und Robert Schlachta. Hier durfte ich mir frei meine Arbeitsgeräte aussuchen. Über Laptop und Handy hatte ich mir schon vorher Gedanken gemacht, da David mich schon auf dieses ungewöhnliche Vorgehen bei der eBiz Consulting hingewiesen hat. Beeindruckend war aber, dass selbst Dinge, an die ich nicht gedacht habe, wie Headset, Maus und Tastatur und sogar Laptoptasche gedacht wurde. Ich habe sogar noch vor meinem ersten Arbeitstag ein Bahncard Business 50 erhalten.

So ein Einstellungsverfahren war neu für mich, zeugt es doch von großem Respekt gegenüber dem neuen Mitarbeiter.

 

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

Charity-Rallye: Die eBiz spendet – seien Sie auch „Trittbrettfahrer“ einer guten Sache!

Veröffentlicht am 22.04.2015 von André Dammeyer , Event , Insights@ebizcon

Die Allgäu-Orient-Rallye im Mai 2015 (AO2015) führt über 7.777 km von Oberstaufen (Allgäu) bis Amman (Jordanien) und wird begleitet von zahlreichen Charity-Aktionen. Die eBiz spendet zum Beispiel für eine Geldspende an ein Versorgungs-Projekt, das die medizinische Versorgung syrischer Flüchtlinge im Libanon unterstützt. Über die anderen Aktionen können Sie sich unter suedhei.de informieren.
Christoph Ranze, ein Kommilitone aus Bremen und heute Geschäftsführer bei encoway GmbH, nimmt mit seinem Team an der AO2015 teil. Die verrückte Aktion hat uns gleich überzeugt, ebenso wie das Libanon-Projekt, das sich zum Ziel gesetzt hat, humedica dabei zu unterstützen, die medizinische Versorgung syrischer Flüchtlinge im Libanon vor Ort zu verbessern. Dazu sind medizinische Teams von humedica täglich vor Ort im Libanon unterwegs.

Wir wollen mit unserer Spende einen kleinen Beitrag leisten, das Leiden der Menschen vor Ort zu lindern – und vor allem alle unsere Leser/Follower auf hilfsbedürftige Menschen und tolle Ideen für Hilfeleistungen aufmerksam machen. Sie haben bis zum Ende gelesen – also ist es uns gelungen?! Seien Sie dabei – dieses Jahr oder nächstes, hier oder bei einem anderen Projekt.
 

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

eBiz@ALMDays 2015

Veröffentlicht am 08.04.2015 von Ronny Ulbricht , ALM , Event

Application Lifecycle Management – kurz ALM – bündelt mehr als nur Tools oder Produkte, es enthält grundsätzliche Konzepte, differenzierte Betrachtungsweisen, Prozesse, ebenso wie eben auch Tools – und noch vieles mehr. Es ist also ein weites Feld, und dessen ist sich Microsoft wohl bewusst, wie die Ausrichtung der diesjährigen ALM Days deutlich zeigt: Zwar stehen ein neuer Team Foundation Server 2015 und Visual Studio (Online) als Microsofts Flagschiffe im Bereich der ALM Produkte im Fokus, aber eben nicht nur diese, sondern auch erweiterte Konzepte der agilen Softwareentwicklung, organisatorischer Wandel, “Continuous Learning” und Cloud Cadence. Das waren nur einige Schlagworte, die bereits im Vorfeld einen spannenden Event erwarten lassen.

Update

Mittlerweile gibt es die Aufzeichnungen der ALMDays 2015 in Bild und Ton. Im folgenden Blog Artikel finden Sie einen Rückblick auf den Event und unter http://www.microsoft.com/germany/visualstudio/aktuell/news/show.aspx?id=msdn_de_57725 relevanten Links zu den Videos.
Viel
Spaß beim ansehen und nachlesen, es lohnt sich!

Ein paar Worte vorweg …

Seit Längerem steht also mal wieder ein “großer” Microsoft Event auf meiner Agenda. Da stellte sich mir natürlich die Frage, mit welcher inhaltlichen Erwartungshaltung ich an diese Veranstaltung herangehen sollte? Als ich mir den Intro-Abstract zu den ALM Days 2015 anschaute und die zugehörige Themenauswahl der Tracks sondierte, bekam ich schnell das Gefühl, es würde um mehr als nur die Microsoft Produktpalette und deren Neuerungen gehen. Nicht zuletzt die agilen Aspekte der Sessions in Track 3 – vor allem mit dem Schwerpunkt Scrum – stimmten mich neugierig. Entsprechend war dann auch meine Erwartung, dass es um End-to-End Szenarien, Philosophien und Mindsets, eben um mehr als nur Tooling aus dem Kosmos des Application Lifesycle Management gehen würde. Ob diese Erwartungen erfüllt wurden, verrate ich am Ende dieses Artikels.Neben den inhaltlichen Erwartungen hatte ich mir persönlich das Ziel gesetzt, regelmäßig vom Event zu twittern – als Verantwortlicher für die Social Media Strategie der eBiz Consulting GmbH. Kontakte aufbauen, Ideen austauschen, interessante Personen treffen und kennenlernen, darauf wollte ich mehr achten und mich nicht nur auf die Sessions fokussieren. Am Ende der beiden Tage hatte ich trotz Zeitmangels konstruktive Gespräche und neue Kontakt.

Nach diesem kleinen Einblick in mein Mindset für die ALM Days 2015 fasse ich nun meine Eindrücke aus zwei Tagen Event und den für mich wichtigsten Sessions zusammen.

Tag 1 – It’s all about expectations

Nach einer relativ ruhigen und für meine Verhältnisse “langen” Nacht, ging der erste Tag der ALM Days 2015 mit einem übersichtlichen Frühstück und einem kurzen Spaziergang zum Veranstaltungsort, dem Airporthotel Van der Valk Düsseldorf, los.

Ich war einer der ersten bei der Anmeldung und hab mir natürlich das obligatorische Badge und die Tasche mit ein wenig Lesestoff für den interessierten “Gast” (siehe Bild) abgeholt.
Meine persönliche Agenda hatte ich mir bereits am Vortag zurechtgelegt und das war gar nicht so einfach, da bei drei parallelen Tracks die Auswahl recht groß und interessant war. Ich entschied mich daher, nicht stur einem Track zu folgen, sondern mir meine Sessions nach persönlichem Geschmack und der Relevanz für unsere Kompetenzfelder zusammenzustellen. Dies sollte sich in verschiedener Hinsicht als gewinnbringend herausstellen.

Begrüßung und Keynote “Engineering system for Cloud Cadence”

Es war ein unterhaltsamer Einstieg in den Tag, geprägt von kleinen Anekdoten rund um den Team Foundation Server. Passend zum 10. Geburtstag des TFS wurde dieser natürlich am Abend des ersten Tages gefeiert. Neno Loje zusammen mit Christian Binder erklärten einleitend das Setup der Veranstaltung, erläuterte die Abläufe sowie die Agenda und gab einen Ausblick, wie man sich die nächsten zwei Tage aus Sicht des Veranstalters vorstellte.

Ohne viel Umschweife wurde der Staffelstab dann an Munil Shah übergeben. Als “Partner Director of Engineering in Microsoft’s Cloud and Enterprise Division” leitet er die Entwicklung der Produkte Visual Studio Online and Team Foundation Server. Hier wurde es dann direkt spannend, die Zuhörer bekamen Einblicke in die Umsetzung der “neuen” und agilen Denkweise bei Microsoft, die sich hinter dem Begriff Cloud Cadence verbirgt. Nach einer kurzen Google Anfrage sollte ich dann schnell merken, dass sowohl Begriff als auch die Idee / das Konzept schon länger kursieren (z.B. journey to a cloud cadence).

Eine schöne Formel 1-Metapher, ein paar gut gewählte Worte über Agilität, Kulturwandel, Rollen und Prozesse, gepaart mit dem noch häufiger im Verlauf der Veranstaltung auftauchenden Mantra “BUILD – MEASURE – LEARN”, das alles im Kontext der Storyline “Wie haben wir bei Microsoft das umgesetzt” , hinterließ bei mir zwei wesentliche Eindrücke:

  • Cool! Ich würde behaupten, Microsoft hat die Ideen und Ansätze von Agilität verstanden, verinnerlicht und angefangen umzusetzen und das bei seiner Unternehmensgröße und Komplexität.
  • Ich freu mich auf die kommenden Sessions, denn wenn das dort transportiert wird, dann hat es sich allemal gelohnt zu kommen

Die Keynote fand empfand ich dementsprechend als sehr gelungen.

High Performance Teams

Gleich zum Auftakt eine agile Session mit Infos aus der Praxis, was kann man sich als zertifizierter Scrum Master denn Besseres wünschen? Thomas Schissler, artisio solutions GmbH und Neno Loje, freier Berater und Microsoft MVP, führten durch eine tolle Session.

Inhaltlich war es für mich zwar nicht viel Neues da unter anderem agile Werte und Methodiken aus SCRUM als agilem Framework aufgenommen und mit Beispielen erläutert wurden. Es gelang beiden zu verdeutlichen, dass vor allem das Mindset und dessen Akzeptanz beim Team entscheidend für den positiven Effekt von agilen Methoden ist. Grundtenor: Eine entsprechende Kultur ist entscheidend für den Erfolg eines High Performance Teams. Meiner Meinung nach einer der wichtigsten Aspekte, die oft hinter Prozessen und Tools verschwindet. Für mich persönlich war dieses Duo übrigens eines der gelungensten Speaker Set-ups der gesamten Veranstaltung – zum enen äußerst unterhaltsam, zum anderen fachlich kompetent.

Erfreuliche Ausweichveranstaltung – Ab Morgen bitte Scrum!

Aufgrund des krankheitsbedingten Ausfalls von Dr. Tobias Hildebrand – SAP SE konnte ich an einer weiteren Session des “dynamischen Duo´s” Schissler/Loje teilnehmen. Damit hieß es für mich “Ab Morgen bitte Scrum!” aber eben doch schon heute. Im Wesentlichen sollte vermittelt werden, wie man agile Teams in der “Erfolgsphase” hält, und auf welche Aspekte man dabei achten muss.

Ich hatte nichts anderes als die unterhaltsame und kurzweilige Session erwartet, die es auch wurde. Viele Erfahrungswerte, sei es zur Mitarbeitermotivation, zur zielgerichteten Diskussion für bessere Entscheidungen, zur Selbstorganisation, zur Lernkultur oder zur Überwindung von eingefahrenen Denkmustern wie Rollen oder Command & Control Strukturen. Damit wurde die wertvolle und zentraler Kernaussage vermittelt, die schon der Titel etwas sarkastisch zum Ausdruck bringen sollte: “Scrum kann nicht verordnet werden!”

“Ask the Product Group”

Last but definitively not least gab es eine wirklich interessante Runde, die man getrost als Fortsetzung der Panel Discussion des Nachmittags betrachten konnte. Es war eine offene FAQ-Session mit den Gast Rednern der Microsoft Corporation Munil Shah, Sam Guckenheimer und Martin Woodward. Natürlich drehten sich die Fragen primär um all die Infos aus den Sessions des Tages rund um den TFS 2015 und Visual Studio Online, um Produkte, Features und deren Zukunft. Es ging aber ebenso um die Microsoft Philosophie rund um Cloud Cadence und darum, wie Microsoft praxisnahe Probleme adressiert.

Es war wirklich toll zu sehen, wie Microsoft den Anspruch unterstreicht, ein dynamisches Unternehmen zu sein und nicht der starre und träge Tanker, wie es einige Großkonzerne leider oft sein können.

Tag 2 – Es gibt auch Neues…

Der Plan für den zweiten Tag war zunächst offen für mich: Auf der einen Seite war da Development Operations (kurz DevOps) als neues Thema, dem gegenüber stand mein Wunsch, mehr zu Themen aus dem agilen Umfeld zu hören.

Begrüßung und Keynote “Scaling Agile at Microsoft”

Der Tag startete mit der üblichen Begrüßungsrunde und einem Ausblick in den Tag, alles war wieder heiter gestaltet, so dass es gleich wieder Lust auf gute Sessions machte.

Es folgte eine Keynote, gehalten von einem bestens aufgelegten Martin Woodward, Program Manager for the Team Foundation Server Cross Platform Tools Team bei Microsoft. Es ging, wie auch am Vortag, um “the Microsoft way of doing things”, und es war wieder höchst interessant und unterhaltsam. Als roter Faden diente die Geschichte des ersten Telegraphen-Überseekabel und die Analogien zu agilen Methoden und wie sie schließlich auch bei Microsoft zur Anwendung kommen.

Aus dieser Session habe ich nochmals wertvolle Informationen aus dem Microsoft-Erfahrungsschatz für die Praxis mitgenommen.

DevOps für Entwickler

DevOps für Entwickler von Artur Speth, Microsoft Deutschland GmbH, und Thomas Schissler, artisio solutions GmbH, sollte einen Einblick in einen der aktuellen Trends der agilen Softwareentwicklung geben.

Ich hatte den Begriff zwar bereits wahrgenommen, mich damit aber noch nicht tiefergehend beschäftigt. Die Problematik von sogenannten Big Bang Releases und die damit zusammenhängenden Probleme sind mir aus eigener Projekterfahrung bekannt. Was liegt also näher und ist schlüssiger, als auch in der Verbindung zwischen Entwicklung und Betrieb agile zu werden? Dennoch ist nicht alles Gold, was glänzt, es gibt auch Herausforderungen im Bereich von zum Beispiel Stabilität, Datenschutz aber auch Nutzerakzeptanz, die es zu adressieren gilt.

Diese Session war gelungen, schlüssig und kurzweilig.

CRM meets ALM

Allein der Titel ließ die Erwartungen an diesen Vortrag steigen. Sebastian Müller, Geschäftsführer der PROLAN Datensysteme GmbH, referierte zum Thema der besseren Einbindung von Vertrieb, Marketing und Service in die ALM Prozesse. Szenarien der Integration von TFS und Dynamics CRM sollte es ebenso geben.

Es zeigte sich schnell, dass nicht alle die gleichen Erwartungen an diesen Vortrag hatten, denn sowieso schon dünn besucht, verlor der Vortrag noch Zuhörer. Ich hatte mir auch mehr Inhalte auf Prozessebene gewünscht, da ALM eben mehr ist als der TFS als Produkt. Am Ende hat sich die Session aufgrund der Anschlussgespräche aber dennoch gelohnt.

Visual Studio ALM – Ausgesuchte Best Practices und Erweiterungen

Die für mich letzte Session an diesem Tag war ein Ausfug in die Welt hilfreicher Tools, die Teams in der Arbeit mit dem TFS, Visual Studio (Online) und im agilen Umfeld unterstützen.

Bei diesem Slot blühte nochmal das Entwickler-Herz auf, denn es wurden Tools gezeigt, die mir Impulse und Ideen gaben, wie man agile Projekt durch entsprechendes Tooling für bestimmte Rollen noch angenehmer machen könnte. Ein perfekter Abschluss für zwei richtig gute Tage.

Résumé zu zwei Tagen ALM Days 2015

Wie bewertet man einen Event, der so viele verschiedene Eindrücke hinterlassen hat?

Ich möchte nicht zu sehr ins Detail gehen: Es wurde, denke ich, an den gewählten Highlights deutlich, dass meine anfangs formulierten Erwartungen gut erfüllt wurden, dennoch hätte ich mir gewünscht, dass noch der eine oder andere Aspekt der Governance näher beleuchtet worden wäre, um das Bild abzurunden.

Positiv hervorheben möchte ich die in meinen Augen vielen hervorragenden Sprecher der Veranstaltung. Ich persönlich habe selten so eine hohe Dichte an kompetenten Leuten auf einer Konferenz erlebt. Es gab fast keine Session, die mir von der Präsentation her nicht gefallen hat, und viele waren darüber hinaus noch sehr unterhaltsam gestaltet. Man konnte sich mit eigentlich allen Sprechern ins Gespräch kommen und das nicht nur direkt nach der Session, und das galt auch für die “Gast-Stars” der Microsoft Product Group wie Munil Shah, Sam Guckenheimer und Martin Woodward.

Mein Fazit: der Besuch bei den ALM Days 2015 hat sich gelohnt, und ich empfehle den Eventdurchaus weiter! Für mich steht jedenfalls fest:

ALM DAYS 2016 – Ich werde wieder dabei sein, und ich freue mich, wenn wir uns dort treffen!

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

Mein erster Monat @eBiz

Veröffentlicht am 27.03.2015 von Anika Sander , Insights@ebizcon

Wann fängt der Anfang an? Am ersten Arbeitstag? Mit dem ersten persönlichen Kennenlernen oder doch schon früher? Auch wenn es bedeutet, dass ich ausholen muss: Für mich hat meine Anfangszeit bei der eBiz Consulting GmbH mit der ersten Kontaktaufnahme durch David Krüger begonnen, bei der eBiz unter anderem zuständig für die Mitarbeitergewinnung.

Mittlerweile kennt jeder Xing-Nutzer das Problem, täglich eine Masse an Kontaktanfragen oder Nachrichten zu bekommen. Am Anfang nimmt man sich noch die Zeit, jede einzelne Nachricht zu beantworten oder die teilweise ohne jeden erkennbaren Grund gestellten Kontaktanfragen kommentarlos abzulehnen. Als ich dennoch mein Postfach mal wieder aufräumen wollte, fiel mir beim Durchsehen jedoch eine Nachricht auf, die meine Neugierde weckte. Nach kurzer Überlegung habe ich mich entschieden, diese Nachricht ausnahmsweise nicht zu löschen, sondern sie zu lesen.

Anders als bei allen anderen Anfragen, ob es mir an meinem gegenwärtigen Arbeitsplatz noch gefalle, ob ich neue Herausforderungen suchen würde, schrieb der Verfasser dieser Mail mich persönlich an und hat schon damit mein Interesse geweckt, sodass ich auf seine Nachricht antwortete. Schon stand ich im Kontakt mit David Krüger.
Überraschenderweise erhielt ich bereits am selben Tag eine Antwort und wir verabredeten uns zu einem ersten Telefoninterview. Leider musste ich aus persönlichen Gründen das erste Telefoninterview verschieben. Nach meinen Erfahrungen hat man bei vielen Firmen an dieser Stelle kein Verständnis – nicht so David Krüger. Wir vereinbarten einfach einen anderen Termin. Nun war nicht nur mein Interesse geweckt, sondern ich wollte mehr über das Unternehmen erfahren.
Für das Telefoninterview setzte Herr Krüger eine dreiviertel Stunde an. In diesem ersten Telefoninterview hatten wir ausreichend Zeit, uns gegenseitig kennenzulernen und uns einen ersten Eindruck voneinander zu machen. Nachdem wir uns – offenbar beide ;-) – sicher waren, dass wir grundsätzlich die gleichen Werte vertreten, vereinbarten wir einen Termin für ein persönliches Kennenlernen, zusammen mit den Geschäftsführern Andreas Pohl und André Dammeyer.

Das Vorstellungsgespräch fand im The SQUAIRE am Frankfurter Flughafen statt. Da ich zuvor noch nicht in diesem Gebäude gewesen bin, war ich sehr beindruckt, als der imposante Bürobereich Stück für Stück sichtbar wurde, als ich mit der Rolltreppe hochfuhr.

Obwohl es sich bei dem Termin eigentlich um ein Vorstellungsgespräch handelte, war es weit mehr als das. Das Kennenlernen erfolgte zunächst mit einer Selbstpräsentation. Im Anschluss daran saßen wir eine ganze Zeit zusammen und haben offene Fragen geklärt.
Das Positivste an dem Gespräch war die angenehme Atmosphäre. Nicht nur weil das erste Kennenlernen ohne Zeitdruck stattgefunden hat, war es ebenfalls die Begegnung auf Augenhöhe.

Am darauffolgenden Tag erhielt ich schon eine positive Rückmeldung, dass die eBiz Interesse an einer Zusammenarbeit mit mir habe, anders als erwartet nicht als Entwicklerin, sondern als Analystin im Consulting-Bereich. Während unseres Gespräches am Vortag unterhielten wir uns ebenfalls über die Inhalte des Berufsbildes Business Consultant und stellten fest, dass dieser Bereich, besonders in Hinblick auf meinen Entwicklerbackground, gut passen würden. So kam es, dass ich innerhalb der nächsten Woche meinen unterschriebenen Arbeitsvertrag an die eBiz Consulting GmbH zurücksendete.

Während der nächsten drei Monate stand ich im ständigen Kontakt mit David Krüger und lernte bereits gut einen Monat vor meinem Arbeitsbeginn bei der eBiz Consulting GmbH meinen Mentor und Geschäftsführer, Robert Schlachta kennen.

Noch bevor ich meinen ersten Arbeitstag angetreten habe, konnte ich eine Bestellliste mit den Dingen, die ich für mein tägliches Arbeiten benötige (Notebook, Handy, Maus, Headset etc.), zusammenstellen. Natürlich ist es mittlerweile selbstverständlich geworden, dass Arbeitsmittel gestellt werden, aber ein Mitspracherecht zu haben, ist selten. Einfach super!
So startete ich an meinem ersten Arbeitstag voll ausgestattet.

Von meinem ersten Tag als offizielle eBiz-Mitarbeiterin hatte ich das Gefühl, schon immer zum Team dazuzugehören. Ich wurde von allen Kollegen freundlich und mit offenen Armen empfangen.
Die Einarbeitung war kein Wurf ins kalte Wasser, sondern ich wurde schrittweise an die neuen Herausforderungen herangeführt und konnte mich bei Fragen jederzeit an meinem Mentor wenden.

Auch das monatliche Company-Meeting, bei dem sich alle Mitarbeiter der eBiz treffen und Erfahrungen austauschen, Neuheiten vorstellen oder Themen zusammen erarbeiten, haben meine Entscheidung bestätigt.

Mein Fazit:

Eine so durchdachte und strukturierte Einführung habe ich in meiner beruflichen Karriere noch nicht erlebt. Das Motto “Erst wer, dann was” wird wirklich gelebt.

So freue mich auf meine weitere Zeit bei der eBiz Consulting GmbH und wer weiß, vielleicht gibt es in 10 Monaten einen neuen Blog-Artikel “Mein erstes Jahr bei der eBiz Consulting GmbH.”

Stay tuned. Eure Anika

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

Artikel SEO-optimiert verfassen

Veröffentlicht am 27.02.2015 von Sebastian Schneider , Web

SEO – Search Engine Optimization ist ein essentieller Bestandteil beim Verfassen von Texten, die im Internet eine gute Sichtbarkeit erreichen sollen. Im Folgenden werden die wichtigsten Punkte vorgestellt, auf die Sie achten sollten, wenn Sie Texte verfassen, die von Suchmaschinen gut bewertet werden und damit in den Ergebnissen weit vorn auftauchen.

Im Web gibt es Texte über alles – seien es Tiere, Autos, Gott oder die Welt. Sie wollen Aufmerksamkeit gewinnen, Meinungen teilen und austauschen. Sie wollen gefunden werden. “Gefunden werden” ist heut ein Synonym für “Bei Google gefunden” zu werden.

Gibt es Mittel und Wege, um seine Texte so zu gestalten, dass man in den Suchergebnissen bei Google möglichst weit vorn auftaucht? Natürlich!

Man sollte sich heute allerdings nicht mehr auf alte Techniken wie das Keywordspamming verlassen, ganz im Gegenteil, Suchmaschinen erkennen diese Art von “Betrug” und ignorieren entsprechende Einträge und Seiten.

Nein, heute sollte man Wert auf natürliche Texte, Artikel mit sinnvollem Inhalt und einer klaren Zielgruppe legen. Das zu erkennen, hat Google zum zentralen Punkt der OnPage-Optimierung gemacht.

Doch was ist SEO eigentlich? Nun ein bisschen Theorie…

SEO – Eine Definition

Suchmaschinenoptimierung (Search Engine Optimization = SEO), umfasst im Allgemeinen Techniken, eine Webseite bei den Ergebnisseiten der Suchmaschinen bestmöglich zu positionieren. Dabei ist es neben der Suchmaschinenwerbung der zweite Bestandteil des Suchmaschinenmarketings.
 Dabei werden zwei Methoden angewandt: 

OnPage-Optimierung

OnPage-Optimierung umfasst alle Maßnahmen, welche den Inhalt und die Seite selbst betreffen. Dazu gehören optimierte Texte, geeignete Überschriften sowie der Aufbau einer internen sinnvollen Linkstruktur. Ein weiterer wichtiger Punkt sind die Keywords, diese sollte man vor dem Schreiben des Textes heraussuchen. Dazu kann man Datenbanken verwenden oder das Tool von Google: Google KeywordPlanner.

Das Tool gibt durch die Suche nach Keyword(-kombinationen) und möglichen Suchanfragen einen Überblick über häufig gesuchte Keywords und zeigt Konkurrenz-Webseiten auf, die ähnliche Inhalte bereitstellen. 

Eine einfachere, aber weniger genaue Möglichkeit, um an Keywords zu kommen, ist das Benutzen der automatischen Vorschläge von Google. Eine weitere Möglichkeit, die allerdings schon mehr auf marketingoptimierte Seiten abzielt, ist das Auswerten der AdWords-Anzeigen in Google. Darauf wird hier nicht eingegangen, schließlich geht es um gute Texte und nicht um die totale Optimierung einer Seite.

Zu beachten ist, dass die eigentlich für die Optimierung eingeführten Metatags KEYWORDS und DESCRIPTION von Google NICHT mehr ausgewertet werden.

OffPage-Optimierung

Die OffPage-Optimierung fokussiert Aktivitäten, die nicht auf den selbstverfassten Inhalt der eigenen Seite abzielen, sondern um die Webseite herum geschehen, um diese besser auffindbar zu machen. Backlinks zu anderen Seiten zu platzieren und seine eigene Seite auf anderen relevanten Seiten zu verlinken, sind zwei wesentliche Aspekte der OffPage-Optimierung. Das zunehmende Social Networking erlaubt zudem eine neue Technik: Social Signals. Unter Social Signals versteht man, so viele Likes (Facebook) und Shares (Twitter) für die eigene Webseite zu bekommen, dass die Relevanz der Seite oder des Artikels in sozialen Netzwerken steigt.

Aber auch bei diesen Maßnahmen muss gesagt werden, dass die reinen technischen Maßnahmen (Off-Page) den Erfolg nicht mehr sicherstellen, sondern immer mehr die Relevanz der eigenen Seite in den Vordergrund rücken.

Genug der Theorie! Was kann getan werden, um Texte zu schreiben, die besser gerankt werden, also Texte, die die folgenden Tipps verwenden?

Wie schreibt man SEO-Texte?

Prinzipiell ist das Schreiben von SEO-Texten keine Magie. Wichtig ist: ein SEO optimierter Text ist gleichzeitig immer ein optimierter Text für eine Zielgruppe (Kunden, Anwender, etc.).

Erster Tipp:

Werden Sie sich Ihrer Zielgruppe bewusst

Bevor Sie anfangen, einen Artikel zu schreiben, sollten Sie sich im Klaren sein, für wen Sie das tun. Denn nur, wenn Sie ihre Zielgruppe klar definiert haben, können Sie Inhalte erstellen, die adressatengerechten Nutzen haben.

Schreiben Sie Texte, die einzigartig sind, weil sie von Ihnen kommen

Die Überschrift sagt schon alles: Kopieren Sie nicht. Erstens bringt das Ihrer Zielgruppe nichts, da kein Mehrwert entsteht, und zweites hat Google auch diesen Kopien den Kampf angesagt. Das ist leicht gesagt, wahrscheinlich schwer getan. Hierzu müssen Sie gute Informationen haben, ein fundiertes Wissen und auch die Gabe, beide in einen guten Text zu gießen.

Das Wichtigste kommt am Anfang

Das Wichtigste kommt an den Anfang des Textes – ähnlich wie Teaser-Texte bei Nachrichten. Der Text sollte mit der Wichtigkeit absteigend umgehen, ähnlich wie dies Suchmaschinen bei ihren Scans machen.

Die richtige Überschrift

Der Headline kommt eine besondere Bedeutung zu. Sie wird zum anklickbaren Link bei Google, der auf Ihre Seite führt. Allein aufgrund dieser Tatsache ist klar, dass man der Überschrift besondere Aufmerksamkeit zukommen lassen sollte. Sie sollte so formuliert sein, dass sie den Nutzer zum Klicken animiert und den Inhalt beschreiben. Auch ist es für das Ranking sinnvoll, wenn in der Überschrift ein Keyword oder eine passende Keyword-Kombination vorkommt. Wichtig ist auch hier zu wissen, dass man durch eine gute Headline immer besser ranken kann, da Google die “Click-Through-Rate” (das Verhältnis von Klicks auf Banner und andere Werbemittel im Vergleich zu den gesamten PageImpressions) ermittelt und in das Ranking mit einfließen lässt.

Keywords und Keyworddichte

Wenn Sie Ihren Text für eine besondere Zielgruppe schreiben, ist es sinnvoll, sich vorher ein paar Keywords herauszusuchen, die die genannte Zielgruppe ansprechen und dem Thema gerecht werden. Wenn Sie nun Ihre Schlagworte ermittelt haben, gilt es, diese in den Text einzubauen. Hier sollten Sie auf den Fehler verzichten, so viele dieser Worte wie nur irgend möglich im Text zu verstreuen. Das sogenannte Keywordspamming wird von Google erkannt und bestraft.

Sie sollten die Keywords so einsetzen, dass der Text natürlich bleibt und gut zu lesen ist. Als quantitativen Wert wird oft 1-3% in Relation zur gesamten Wortanzahl genannt, aber auch das ist kein Gesetz. Schauen Sie sich vielleicht auch etwas bei der Konkurrenz um.

Länge des Inhaltes

Auch für die Länge des Textes gibt es keine goldene Regel. Sie ist eher abhängig von Thema und Zielgruppe. 200 Wörter sollten es schon sein, aber nach oben sind keine Regeln gesetzt. Da Sie ja guten Inhalt bieten wollen sollten Sie diesen auch gut ausarbeiten und umfangreich anbieten.

Visuelle Optimierung

All die OnPage- und OffPage-Optimierungen und Keywords helfen nur bedingt, wenn Ihr Text den Leser optisch nicht anspricht. Wenn der Leser nach Öffnen der Seite diese direkt wieder verlässt, weil der Text zu klein oder zu umfangreich erscheint, bringt Ihnen Ihr möglicherweise grandioser Inhalt nicht viel. Peppen Sie Ihren Text visuell gern auf! Benutzen Sie Überschriften, Zwischenüberschriften und Bilder. So wie der Text für die Suchmaschinen lesbar sein muss, so sollte der Inhalt auch für den Menschen lesbar sein, damit der Leser die Relevanz schnell zuordnen kann.

Fazit

Wie aus dem Artikel schon mehrfach hervorgeht, schreiben Sie Ihre Texte in erster Linie für den Leser. Übertreiben Sie nicht, schreiben Sie natürlich und optimieren Sie Ihren Inhalt visuell. Wenn ein Leser zufrieden ist, wird er gegebenenfalls den Artikel verlinken oder in sozialen Netzwerken posten. Dinge wie diese sind wichtiger als Keywordspamming. Natürlich sollten Sie zur Unterstützung sinnvolle Keywords verwenden und diese geschickt einbauen. Auch themenrelevante Links in ihren Texten sind sinnvoll, aber auch diese sind in erster Linie für Ihre Leser.

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

Die Microsoft Cloud: rechtliche Aspekte und technische Informationen

Veröffentlicht am 30.01.2015 von David Krüger , Event

Cloud Computing kann nur dann für alle Beteiligten – Anwender und Anbieter – wirtschaftlich erfolgreich sein, wenn die rechtlichen Rahmenbedingungen eine effiziente Nutzung von Cloud-Diensten ermöglichen. Gemeinsam mit renommierten IT-Rechtlern und etwa 250 Fachbesuchern gestalteten Vertreter der Microsoft Deutschland GmbH einen interessanten Tag im Kongresszentrum KOMED des MediaParks zu Köln. Für die eBiz Consulting als Microsoft Partner und in meiner Rolle als Business Development Manager war ich am 08. Dezember 2014 dabei.

Der Versuch einer Definition

Die Bezeichnung “Cloud Computing” steht für verteilte Hardware- und Software-Ressourcen, die von einem oder mehreren Providern bereitgestellt und auf Anforderung genutzt werden können. Dabei kann es sich um Rechendienste, Trans-aktionen, Dokumentenverarbeitung, Datenbankanwendungen, E-Mail Services oder Security-Aufgaben handeln. Der Anwender kann die zentralen Dienste jederzeit von jedem Ort der Welt aus nutzen(vgl. auch http://www.ebizcon.de/Blog.aspx/?title=Cloud+hier%2c+Cloud+da%2c++Cloud+%C3%BCberall).

Wie ist die Rechtslage? Antworten gesucht im “KOMED “in Köln.

Der eigentliche Umstand, auf dem mein Erlebnisbericht beruht, verdankt sich einer Konversation unter eBiz Kollegen. Wie ist das mit der Microsoft Cloud rechtlich ganz genau? Angeregt, auch auf diesem Gebiet noch mehr Wissen aufzubauen und die Rechtsabteilung der Microsoft Deutschland GmbH auch persönlich kennenzulernen, entstand schließlich die Idee, an dieser Veranstaltung teilzunehmen. Mit ICE und S-Bahn zur Musik von Paul Gilbert (“I’m not afraid of the police today”) aus meinen Kopfhörern traf ich gegen 9:15 Uhr am Kongresszentrum KOMED in Köln ein. Die Registrierung durch die Gästehostessen gestaltete sich unkompliziert und sehr zuvorkommend. Aus Gründen des Zeitvertreibs genehmigte ich mir den ersten Kaffee des Tages entspannt, um danach zu einem kleinen Spaziergang aufzubrechen. Das KOMED im zentral gelegenen MediaPark ist ein wirklich repräsentativer und zentraler Veranstaltungsort mit moderner Architektur und angenehmer Aussicht. Um 10:00 Uhr fand ich mich dann zur Begrüßung der Gäste im dafür vorgesehenen Tagungssaal ein.

Das Kongressprogramm / Meine persönlichen “Highlights”.

Maria Wastlschmid, Produktmanagerin Azure, und Florian Müller, Lösungsberater Productivity (beide Microsoft Deutschland GmbH), eröffneten die Veranstaltung mit einem kompakten und auf den Businessbesucher zugeschnittenen Überblick über die Microsoft Online Services und ihre Sicherheitsleistungen. App-, Daten- und Infrastruktur-Dienste vereinen sich im “Baukasten” Microsoft Azure (Iaas & PaaS). Office 365 bietet als SaaS Lösung die ideale Ergänzung dazu. Bereits 70 % aller DAX Unternehmen nutzen gegenwärtig Cloud Lösungen von Microsoft, so dass das Thema Vertrauen und Transparenz sehr wichtig ist und auch zur Sprache kam. Ich hatte den Eindruck, dass Microsoft durch die Etablierung von Trust Centern zu Azure und Office 365 klare Informationen bereitstellt. Es wird transparent, wo sich die Daten des Kunden befinden, wer Zugang zu den Daten hat und welche Zertifizierungen Microsoft erfüllt.

Als nächster Redner trat Herr Dr. Jan-Peter Ohrtmann (Leiter Bereich IT-Recht bei der PricewaterhouseCoopers Legal AG) ans Pult, um den datenschutzrechtlichen Rahmen der Microsoft Cloud Services näher zu beleuchten. Nachfolgend wurde durch Prof. Dr. Michael Schmidl (Rechtsanwalt bei Baker & McKenzie) die Thematik um seine Erfahrungen aus der Beratungspraxis mit speziellem Fokus auf das Datenschutzrecht bereichert. Seinen Praxiserfahrungen zufolge hängt zum Beispiel die Sicherheit von Cloud Computing von den ergriffenen Maßnahmen und damit von der Auswahl des richtigen Anbieters für die jeweilige Anwendung ab. Ebenso bringt der Einsatz des Cloud Computing in der Regel kein zusätzliches datenschutzrechtliches Risiko mit sich. Dem kritischen Argument “Die Cloud ist ein Selbstbedienungsladen für datenhungrige Behörden” entgegnet Prof. Schmidl wie folgt: Behörden haben stets die Möglichkeit, unter bestimmten Voraussetzungen auf Daten zuzugreifen, gleich, wo diese gespeichert sind. Es gibt Rechtshilfeabkommen, die für ausländische Behörden auch den Zugriff auf deutsche Clouds ermöglichen können. Oft sind Daten in der Cloud schon nicht im Blickwinkel der Behörden. Rechtswidrige Zugriffe von Geheimdiensten (z.B. “Kanzler Handy”) sind nicht spezifisch für die Cloud/Cloud-Services.

Besonders interessant fand ich den Beitrag von Alexandra Buchberger und Bettina Sonnemann (beide Rechtsabteilung Microsoft Deutschland GmbH), die plausibel veranschaulichten, dass die Microsoft Vertragsstruktur EU-Recht-konform ist. Unterstrichen wurde dies im nachfolgenden Vortrag von Herrn Dr. Fabian Niemann (Rechtsanwalt, Bird & Bird LLP).

Frau Dr. Swantje Richters (Rechtsabteilung, Microsoft Deutschland GmbH) nahm am Nachmittag Stellung zum Thema “NSA – Was sagt Microsoft zu der aktuellen Diskussion?”. Detailliert wurde der Umgang mit behördlichen Anfragen dargestellt. Zudem veröffentlicht das Unternehmen alle sechs Monate einen Transparenzbericht über behördliche Anfragen und seit Januar 2014 auch die Zahl der NSA Orders (vgl. auch http://blogs.microsoft.com/blog/2013/12/04/protecting-customer-data-from-government-snooping/).

 

Zusammenfassung

Spätestens nach den Enthüllungen von Edward Snowden und der besonders in Deutschland sehr starken medialen Aufregung und politischen Dimension müssen sich Cloud Anbieter hierzulande dem besonders kritischen Dialog stellen. Für mich als Nichtjuristen waren die Vorträge natürlich “harter Tobak”, aber in ihrer Balance und der Grundaussage zugänglich und verständlich gestaltet.

Ich persönlich halte “diffuse Ängste” und das über “einen Kamm-Scheren” aller US-amerikanischen Unternehmen nicht für besonders förderlich. So war es für mich interessant, nach dem Hype um Snowden konkrete und fundierte Infos der Microsoft Rechtsabteilung zu ihren Cloud Services zu erhalten.

Auch als Microsoft Partner sind wir bei der eBiz Consulting kritisch genug, genauer nachzufragen, denn wo Vertrauen fehlt, regiert immer Unsicherheit. Am Anfang sollte daher aus meiner Sicht immer der ergebnisoffene Kundendialog auf “Augenhöhe” stehen. Als Herstellerpartner bezüglich aktueller Microsoft Cloud Lösungen plädieren wir für eine auf die Situation und den Bedarf des Kunden abgestimmte Vorgehensweise. Nach viel Information und einem langen Tag habe ich selbigen zufrieden im ICE auf der Fahrt nach Frankfurt ohne Kaffee und mit Musik von Allan Holdsworth (“House Of Mirrors”) ausklingen lassen.

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

eBizConApps – der 359 Grad-Blick für administrative Aufgaben

Veröffentlicht am 30.12.2014 von Robert Schlachta , Insights@ebizcon

“Bitte Zeiten erfassen”, “Reisekostenabrechnung steht an” … beides beispielhafte Situationen und administrative Aufgaben, die im Consulting anfallen – hier täglich oder wöchentlich, dort on-demand, aber immer regelmäßig. Im Sinne des Prinzips “eat your own dog food” wurden die eBizConApps etabliert. Unser Ziel: ein professionelles Fundament, auf das die eBiz im Wachstum baut – und darüber hinaus…

Drei Sätze zur Historie.

Die eBiz hat sich bereits im Jahr ihrer Gründung dagegen entschieden, die Firma über Excel-Tabellen zu führen, gemeinhin auch bekannt unter “Excel-Weitwurf”.
Da die eBiz vor weiterem Wachstum steht, bevor der Einsatz eines allumfassenden ERP-Systems notwendig wird, wurden 2012 die eBizConApps aufgebaut. Selbst entworfen, selbst entwickelt – natürlich.

Toolgestützte Prozesse

Mit den eBizConApps werden seither folgende Prozesse unterstützt:

  • Zeiterfassung für Projekte, interne Aufgaben, Urlaub und Krankheit
  • Reisekostenabrechnungen zur Erstattung der eigenen Auslagen, Beleg-Uploads, externe Reisekostenabrechnungen, Bewirtungsbelege
  • Stammdatenverwaltung für Urlaubsplanungen, Mentor- und Rollenzuordnung
  • Rechnungsstellung mit Nummernkreisen, Skonto und Empfängerübersicht
  • Forecasting für finanzielle Auswertungen und zur Unterstützung von Entscheidungen

Ein Rollenmodell erlaubt die Zuweisung von Features für bestimmte Personengruppen:

  • Mitarbeiter
  • Administratoren
  • Geschäftsführung
  • Mentoren
  • Business Development Manager

Ein bisschen Technik

Die eBizConApps laufen in der Cloud bei Microsoft (Azure). Es handelt sich um eine MVC 5 Website und einer SQL Azure Datenbank. In der ersten Version der eBizConApps wurde das Reporting noch über die SQL Azure Reporting Services realisiert, bis Microsoft ankündigte, diesen Dienst in der Cloud nicht mehr anzubieten. In der aktuell verfügbaren zweiten Version werden Reports nun auf den Daten in SQL Azure über SharePoint Online bereitgestellt.
Die MVC5 Website ist nach dem Prinzip “Responsive Design” mit Hilfe von Twitter Bootstrap realisiert und somit optimal auf Desktop PCs, Tablet PCs und Mobile Devices nutzbar.

Warum erwähnen wir die eBizConApps in unserem eBizTalk?

Mit der transparenten Darstellung von Firmenstrukturen, die von außen nicht ohne Weiteres einsehbar sind, zeigen wir, dass die eBiz von Beginn an den Aufbau einer professionell funktionierenden Organisation angestrebt hat. Dazu gehören die eBizConApps, die die administrativen Aufgaben unterstützen. Auch ein Unternehmenshandbuch gibt es neben Prozess-Charts, die als Input für das Design der eBizConApps berücksichtigt wurden.
Zusätzlich benötigte oder das Anpassen bestehender Features sowie das Fixen von Bugs nehmen wir auf Basis interner Rückmeldungen in eine der nächsten Version mit auf und bedienen uns hierbei Visual Studio Online.

 

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

Eventbesuch – Future Internet Kongress 2014

Veröffentlicht am 19.12.2014 von David Krüger , Event

Unter der Schirmherrschaft des hessischen Ministers für Wirtschaft, Energie, Verkehr und Landesentwicklung Tarek Al-Wazir fand am 3. Dezember 2014 im Kongresszentrum “Kap Europa” in Frankfurt am Main der diesjährige Future Internet Kongress statt. Organisiert von Vertretern des House of IT e.V. und der Aktionslinie Hessen-IT fanden sich circa 500 Besucher ein. In meiner Rolle als Business Development Manager hatte ich das Vergnügen, für die eBiz Consulting vor Ort zu sein.

Ankunft im “Kap Europa”

Als Nutzer öffentlicher Verkehrsmittel und mit Musik von Huey Lewis & the News (“Hip To Be Square”) in meinen InEars traf ich gegen 9:30 Uhr mit der U-Bahn am Ort des Geschehens ein. Nach freundlicher Registrierung durch die zum Empfang der Gäste bereitstehenden Hostessen startete ich einen kleinen Rundgang durch das Kongresszentrum. Parbleu! Das “Kap Europa” bietet durch seine moderne Architektur eine optisch beindruckende Kulisse. Die großen Foyers mit eingebauten Bar-Countern sowie einem Bistro im Erdgeschoss überzeugten mich besonders bei diesem persönlichen Erstbesuch. Ein schöner Ausblick auf die Frankfurter Skyline, das Messegelände und das benachbarte Shoppingcenter Skyline Plaza versprühen ein modernes Flair. Nach einem ersten Kaffee begann der Tag um 10:00 Uhr mit der Begrüßung der Gäste im großen Tagungssaal.

Das Kongressprogramm / Meine persönlichen “Highlights”

Jo Schück, unter anderem als Moderator des ZDF Kulturmagazins aspekte bekannt, gestaltete die Einleitung mit Esprit. Als erster Redner des Tages übernahm einige Minuten später Dr. Robert Heinrich in seiner Funktion als Geschäftsführer des House of IT e.V. das Wort. Als interdisziplinäre Plattform gestaltet der Verein das hessische ITK-Ökosystem gemeinsam mit Partnern aus Forschung, Wirtschaft und Politik aktiv mit.

Im Anschluss daran übernahm Jan Philipp Albrecht (Bündnis 90/Die Grünen), Mitglied des Europäischen Parlaments, mit seinem Vortrag zum “Standortvorteil IT-Sicherheit und Datenschutz” den Staffelstab. Ein Key Take Away für mich war der Eindruck, dass er sich im Europäischen Parlament für eine neue EU-Datenschutzverordnung einsetzt und als Rechtswissenschaftler und jüngster Abgeordneter schwungvoll und bereit zu Veränderung wirkt.

Besonders in Erinnerung wird mir der Vortrag von Holm Friebe, Geschäftsführer der Zentralen Intelligenz Agentur, aus Berlin zum Thema “Die Stein-Strategie – In der Ruhe liegt die Innovation” bleiben, den ich als geistig absolut erfrischend empfand. Seiner Meinung nach sei die Neigung zum vorschnellen Handeln in unklaren Situationen einer der wichtigsten Denkfehler, der in Medizin, Wirtschaft und Politik viel Unheil verursachen würde. Angeregt dadurch werde ich bald sein aktuelles Buch “Die Stein-Strategie: Von der Kunst, nicht zu handeln” lesen.

Einen weiteren besonders guten Vortrag hielt Dr. Joachim Bühler, Mitglied der Geschäftsführung des BITKOM e.V. “Von Big Data bis Industrie 4.0 – Chancen für den Standort” habe ich als energisches und ehrliches Plädoyer für eine Bündelung des Wissens und der Kräfte von lokalen Unternehmen der Rhein-Main Region sowie den Verantwortlichen aus Politik und Forschung aufgefasst. Hierzu erlaube ich mir die Anmerkung, dass wir bei der eBiz Consulting genau diese Trends erkannt haben und entsprechende technische Kompetenzen gegenwärtig auf- und ausbauen.

Staatsminister Tarek Al-Wazir (Bündnis 90/Die Grünen) unterstrich in seinen Ausführungen zum Thema “Digitales Hessen” die heutige Bedeutung des Landes und besonders der Rhein Main Region als “Motor der ITK” in Deutschland.

Gern gehe ich noch auf die Betrachtungen von Herrn Karl-Heinz Streibich, CEO der Software AG, zum Thema “Chancen der Digitalisierung” ein. Mit hoher persönlicher Souveränität und den überlegten Worten aus langjähriger Erfahrung wies er die Zuhörer darauf hin, welches enorme Potential für innovative Unternehmer in diesem Markt noch erschließbar ist.

Am Nachmittag hatten die Besucher die Freude, von Herrn Prof. Dr. Viktor Mayer-Schönberger von der University of Oxford zum Thema “Big Data” einen hervorragenden Überblick zu den Anwendungsmöglichkeiten, im Besonderen zu “Predictive Analytics”, zu gewinnen. 

Abends fand noch eine Podiumsdiskussion unter dem Motto “Dem Fortschritt eine Richtung geben – Wie gestalten wir unsere digitale Zukunft”, mit folgenden Teilnehmer statt:

  • Valentina Kerst, D64 Zentrum für Digitalen Fortschritt e. V
  • Prof. Dr. Martin Przewloka, SAP SE, Senior Vice President
  • Prof. Dr. Viktor Mayer-Schönberger, Oxford Internet Institute
  • Prof. Dr. Max Mühlhäuser, Technische Universität Darmstadt
  • Jens Redmer, Google
  • Christian Schülke, schuelke.net – internet.security.consulting

Während allen Vorträgen, bei denen ich anwesend war, und bei der abendlichen Podiumsdiskussion wurden die Besucher durch Moderator Jo Schück einbezogen. Fragen, kritische Anmerkungen und kultivierter Widerspruch bereicherten meine Meinungsbildung.

Zusammenfassung

Für gesellschaftliche und unternehmerische Innovationen der Zukunft sind Daten der wesentliche neue Rohstoff, vergleichbar dem Öl in der Vergangenheit. Der wesentliche Unterschied ist die Tatsache, dass die Ölvorkommen der Erde im Zeitverlauf weiter abnehmen werden, die erzeugten Datenmengen jedoch in Unternehmen und bei privaten Nutzern immer stärker wachsen. Big Data Analysen (unter anderem Predictive Analytics) bieten neue Möglichkeiten, diese Daten auszuwerten – mit Chancen und Risiken für Unternehmen sowie für Bürgerinnen und Bürger. Vor dem Hintergrund dieser Ausgangslage diskutierten und präsentierten hochkarätige nationale und internationale Referenten aus Wissenschaft, Netzgesellschaft und Unternehmenspraxis im Dialog mit den Besuchern ihre Standpunkte und Ideen.

Den Tag bewerte ich, während ich diesen Blogartikel schreibe, als positiv und bereichernd. Neben insgesamt qualitativ guten bis sehr guten Vorträgen bestanden in den Pausen auch genug Möglichkeiten zum Networking. So konnte ich mein persönliches Veranstaltungsziel umsetzen, interessanten Menschen nicht nur zuzuhören, sondern sie auch kennenzulernen. Ich bin zuversichtlich, dass für die eBiz Consulting Synergien entstehen werden und wir beim eigenen Kompentenzauf- und ausbau auf dem richtigen Weg sind. Dieses Event möchte ich folglich gerne dem Leser empfehlen und freue mich bereits auf den Besuch der Folgeveranstaltung im nächsten Jahr.

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

SQL Server 2014 – “In Memory”

Veröffentlicht am 01.12.2014 von Ireen Raue , Custom Development

Mit dem neuen SQL Server ist eine In Memory-Technologie auch ohne teure Erweiterungen oder High End Geräte möglich – wenn auch nicht ganz ohne Einschränkungen…

Der SQL Server 2014 wurde im Februar 2014 in San Francisco offiziell freigegeben. Microsoft bietet ihn in drei Versionen an – “Standard” mit Basis-Datenbank, Reporting- und Analysefunktionen, “Business Intelligence” mit erweiterten Reporting- und Analysefunktionen und Self-Service-BI sowie “Enterprise” für geschäftskritische Anwendungen und Data Warehousing.

Die wohl entscheidende Erweiterung ist eine neue Technologie, die eine In Memory Verarbeitung der Daten ermöglicht. Hier kann auf Tabellen-Ebene entschieden werden, welche Daten im Arbeitsspeicher gehalten werden sollen. Dadurch wird die bestehende Hardware optimal ausgenutzt. 

Codename Hekaton

Die Datenbankengine dafür entstand unter dem Namen Hekaton. Hier wurde mit OLTP (Online Transaction Processing) eine Arbeitsspeicheroptimierung eingearbeitet, die es ermöglicht, einzelne Tabellen im Arbeitsspeicher zu halten und damit langwierige Lese- und Schreibzugriffe zu verringern.

 112414_1926_SQLServer202.png

Vereinfachte Darstellung der SQL Server Engine inkl. der In-Memory OLTP Komponenten

Das Wissen, welche Daten hochtransaktional sind, ist dafür grundlegend, das heißt das Nutzungsverhalten der DB sollte zu Beginn und auch später in regelmäßigen Abständen analysiert werden, um die relevanten Tabellen zu identifizieren.  Auch hierfür werden entsprechende Analysetools angeboten. 

Transaktionsleistungssammler

Für die Migration bestehender Datenbanken stellt Microsoft das Tool AMR (Analysis, Migrate and Report) bereit, das die Tabellen analysiert, die sich für die Verlagerung in den Arbeitsspeicher eignen. Damit lassen sich gezielt diejenigen Tabellen in den Arbeitsspeicher verschieben, die hohe Zugriffe aufweisen. Dabei hat sich die Handhabung des Microsoft SQL Servers 2014 durch die neue Technologie kaum verändert. Tabellen können weiterhin mit den herkömmlichen SQL Statements abgefragt werden, unabhängig davon ob es sich um ganz normale oder ‚InMemory’-Tabellen handelt.

Über das SQL Management Studio 2014 ist auch die Analyse von z.B. 2008 SQL Server DBs möglich. So kann bereits im Vorfeld ermittelt werden, ob bei der Migration auf 2014 auch die ‚InMemory’-Technologie genutzt werden kann, da hierfür nicht alle Tabellen geeignet sind.

Zu dem Vorteil des schnelleren Zugriffs kommen ein paar Nachteile oder Stolpersteine, die eine Migration zu einer ‚InMemory’-Tabelle erschweren.

Dazu gehören unter anderem:

  • kein ALTER einer bestehenden Tabelle hin zu einer ‚In-Memory’-Tabelle möglich, dies funktioniert nur über CREATE-TABLE à man muss eine neue Tabelle anlegen und die Daten migrieren
  • Hinzufügen eines Index nur beim Create der Tabelle möglich
  • keine Check oder Foreign Key Constrains möglich à damit zwingend über SPs erforderlich.
  • keine Nutzung von Trigger möglich
  • keine berechneten Spalten. 

Außerdem muss die Arbeitsspeicherauslastung gut überwacht werden. Ist die Datenmenge größer als der verfügbare Arbeitsspeicher, wird ein Fehler geworfen. Um diesen Fall zu verhindern, gibt es neue Reports im SQL Server, die die Nutzung des Arbeitsspeichers zeigen.

Eine kostenlose Testversion von SQL Server 2014 können Interessierte bei Microsoft herunterladen oder in der Azure-Cloud ausprobieren.

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

Einführung in Mocking Framework

Veröffentlicht am 03.11.2014 von Kevin Setiono , Custom Development

Die Blog-Serie “Mocking Frameworks” durchleuchtet das Thema Mocking aus Sicht des Managements und aus technischer Sicht. “Was sind Mocking Frameworks?”, “Wie wähle ich das korrekte Mocking Framework aus?” und “Warum ist Mocking wichtig?” sind Fragen, die dieser Artikel beantwortet. Im Verlauf der Serie werden vertiefte Einblicke in die technische Anwendung und Funktionsweise von Mocking Frameworks gewährt.

Die Thematik “Mocking Frameworks” lässt sich aus verschiedenen Perspektiven betrachten. Um das Thema im vollständig zu erfassen, werden mehrere Artikel zu einer Blog-Serie zusammengefasst. Heute: “Was sind Mocking Frameworks?” Der Artikel geht der Frage auf den Grund: “Wie wähle ich das richtige Mocking Framework?”. Die nächsten Artikel sind der technischen Anwendung und Funktionsweise von Mocking Frameworks gewidmet.

Was sind Mocking Frameworks?

Mocking Frameworks bieten die Rahmenstruktur zur Erstellung, Manipulation und Kontrolle von Mock Objekten. Diese “Mocks” sind Objekte, die das Verhalten von realen Objekten simulieren. Daher kommen Mocking Frameworks im Rahmen der Qualitätssicherung von Software im Bereich des Testing zum Einsatz. Simulierte Teile (Units) der Software werden mit den “Mocks” abgegrenzt, um den Fokus auf den zu testenden Teil (Unit) der Software zu legen.

Zum Beispiel: Eine Software chiffriert Daten mit einem Schlüssel. Um die Verschlüsselung zu testen, sollte es irrelevant sein, woher der Schlüssel kommt. Der Test für die Verschlüsselung sollte ebenfalls weiterhin erfolgreich sein, wenn sich im Produktiv-System der Schlüssel ändert. Das Generieren des Schlüssels wird auf einen fixen Wert gemockt.

Ein Mock könnte wie folgt aussehen:

interface IKey
{   
    /// <summary>
    /// Holt einen Schlüssel
    /// </summary>
    string GetKey();
}

Mock<IKey> mock = new Mock<IKey>();
mock.Setup("GetKey").Returns("ExampleKey");

Was ist die Definition von einem Mock (Fake, Stub)?

Im Artikel wird das Wort “Mock” als Überbegriff für “Fake” und “Stub” verwendet. Alle drei Begriffe stehen für das Abgrenzen von Software Teilen, unterscheiden sich aber in ihrem Verhalten.

Der Fake ist ein Mock, der lediglich den simulierenden Teil der Software in einer vereinfachten Variante zur Verfügung stellt.

Ein Stub enthält im Vergleich zu einem Fake kaum bis keine Logik, aber sammelt meistens Informationen über die simulierten Funktionen der Software, beispielsweise: “Wie wurde die Methode ‚GetKey’?” aufgerufen.

Mocks sind eine Mischung von Fake und Stub. Sie können einen Teil der Software simulieren wie ein Fake und sammeln dabei Informationen wie ein Stub. Darüber hinaus ermöglicht ein Mock dem Test, Erwartungen zu definieren. Beispielweise kann ein Test validieren, dass die Methode ‚GetKey’ nur einmal aufgerufen wird. Ein anderer Test kann den Mock natürlich anpassen, um beispielsweise zu definieren, dass die Methode ‚GetKey’ 10x oder niemals aufgerufen wird.

Gründe für das Verwenden von Mocking Frameworks?

Einen Grund haben wir vorweg genommen: Unit Tests sind ohne ein Mock der Umgebung meistens nicht möglich, da der zu testende Teil der Software meistens nicht ohne den nicht zu testenden Teil der Software funktioniert.
Unit Tests ermöglichen das Finden von Fehlern und bei Änderungen am Quellcode wird schnell ersichtlich, was alles nicht mehr wie gewollt funktioniert.

Ein weiterer Grund, Mocks zu verwenden ist das spezifizieren von Software. Im Grunde genommen wird die Vorgehensweise umgedreht. Es wird zuerst ein Test erstellt, der ein Unit (Modul) verwendet, das über ein Mock benutzt wird. Nachdem der Test erstellt wurde, wird die Produktiv-Implementierung erstellt/erweitert, um dem Test im Produktivsystem gerecht zu werden. Diese Vorgehensweise findet sich zum Beispiel im Test-Driven-Development wieder.

Herausforderungen bei Mocking?

Das Simulieren der Umgebung kann auch mit einer “normalen” Software Implementierung umgesetzt werden. Es entwickelt sich oft eine Art “Tunnelblick”; für alles werden Mocks erstellt. Wird ein Mock sehr kompliziert, kann es teilweise einfacher sein, eine weitere Testklasse einem Mock vorzuziehen. Außerdem muss beachtet werden, dass das Entwicklerteam mit einem Mocking Framework umgehen kann. Das Entwicklerteam muss am Anfang bei der Testerstellung umdenken und ggf. lernen, mit dem Mocking Framework umzugehen. In kleineren Projekten kann das Benutzen von Mocking Frameworks eine große Investition darstellen.

Das eine Mocking Framework unter vielen

Die Mocking Frameworks lassen sich unter vielen Aspekten vergleichen. Die wichtigsten Vergleichspunkte sind:

  1. Marktanteile
    Die Verbreitung der verwendeten Mocking Frameworks ist ein Punkt, der nicht unterschätzt werden darf. Die Marktverbreitung entscheidet darüber, wie gut Informationen im Internet über Herausforderungen und deren Lösungen gefunden werden. Außerdem ist es bei Investitionen wie für das Einarbeiten in ein Mocking Framework immer wichtig, dass das angeeignete Wissen zum Einsatz kommt. Bei weit verbreiteten Mocking Frameworks ist die Chance größer, diese in unterschiedlichen Projekten wiederzufinden.
  2. Mock Möglichkeiten
    Fast alle Mocking Frameworks unterstützen das Mocken/Faken von Interfaces, aber es kann nötig sein, abstrakte Klassen oder konkrete Klassen zu simulieren. Die benötigten Features sind projektabhängig. Auf einem Green Field kann auch kontrolliert werden, dass nicht vorhandene Features umgangen werden.
  3. Mehrfaches Mocken
    Tests benötigen oft mehrere Mocks, da sie von mehreren Units (Modulen) abhängig sind und diese simultan simuliert werden müssen.
  4. Multi-Thread
    Die Multi-Thread-Fähigkeit kann wichtig sein, falls Multi-Thread-Tests benötigt werden.
  5. Preis
    Der Preis ist als letzter Punkt aufgelistet, das die meisten Mocking Frameworks im C# Bereich kostenlos zur Verfügung stehen.

Zusammenfassung

Software, die auf Herz und Nieren getestet wird und somit mit einem guten Gewissen ausgerollt werden kann, wird meistens mittels Mocking Frameworks testfähig gemacht. Es gibt viele verschiedene Mocking Frameworks und es gibt viele Entscheidungskriterien, nach denen ein Mocking Framework ausgewählt werden kann. Das Wissen über diese Frameworks lässt sich erfahrungsgemäß gut auf andere übertragen, somit ist am Anfang nicht entscheidend, welches, sondern eher, dass überhaupt Wissen über Mocking Frameworks im Team vorhanden ist.

Im nächsten Artikel werden wir mehrere Mocking Frameworks für .NET vorstellen und miteinander vergleichen.

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

DBJoins oder “Wie verknüpfe ich Datenbank-Tabellen richtig!”

Veröffentlicht am 26.09.2014 von Ireen Raue , Custom Development

Nachfolgend findet ihr eine kleine Übersicht, welche Joins es im (T-)SQL gibt und wie sich diese auf das Ergebnis einer Abfrage auswirken.

Als Ausgangspunkt haben wir die zwei folgenden Tabellen

SELECT * FROM Obst

SELECT * FROM Baum

ID

Obstname

1 Apfel
2 Birne
3 Erdbeere
4 Pfirsich
5 Kirsche
6 Heidelbeere

ID

Baumname

1 Pfirsich
2 Apfel
3 Birne
4 Linde
5 Kastanie
6 Kirsche

 

INNER JOIN

Mit einem INNER JOIN erhält man alle Datensätze, die über die Join-Bedingung in beiden Tabellen vorhanden sind, wobei das Wort “INNER” auch weggelassen werden kann. Ein einfacher Join ist immer ein Inner Join.

SELECT * FROM Obst
INNER JOIN Baum ON Obst.Obstname=Baum.Baumname

SELECT * FROM Obst
JOIN Baum ON Obst.Obstname=Baum.Baumname

ID

Obstname

ID

Baumname

1 Apfel 2 Apfel
2 Birne 3 Birne
4 Pfirsich 1 Pfirsich
5 Kirsche 6 Kirsche

 

OUTER JOIN

Ein OUTER JOIN gibt alle Datensätze aus beiden Tabellen aus. Verknüpft werden dabei die Zeilen, die der Join-Bedingung entsprechen. Dort wo es keine Entsprechung in der anderen Tabelle gibt, werden NULL-Werte ausgegeben.

Es wird unterschieden, ob man alle Zeilen von einer Tabelle oder von beiden Tabellen erhalten möchte. Das heißt es sind immer die Zusätze LEFT, RIGHT oder FULL erforderlich und das Wort OUTER ist wie INNER optional.

LEFT OUTER JOIN

Mit einem LEFT OUTER JOIN erhält man alle Datensätze der linken Tabelle inklusive der Entsprechungen aus der rechten Tabelle.

SELECT * FROM Obst
LEFT OUTER JOIN Baum ON Obst.Obstname=Baum.Baumname

SELECT * FROM Obst
LEFT JOIN Baum ON Obst.Obstname=Baum.Baumname

ID

Obstname

ID

Baumname

1 Apfel 2 Apfel
2 Birne 3 Birne
3 Erdbeere NULL NULL
4 Pfirsich 1 Pfirsich
5 Kirsche 6 Kirsche
6 Heidelbeere NULL NULL

 

Wenn man nur die Datensätze der linken Tabelle ohne Verknüpfung zu der rechten Tabelle als Ergebnis haben möchte, kann man diese über die WHERE-Klausel ausschließen.

SELECT * FROM Obst
LEFT OUTER JOIN Baum ON Obst.Obstname=Baum.Baumname
WHERE Baum.ID IS NULL

ID

Obstname

ID

Baumname

3 Erdbeere NULL NULL
6 Heidelbeere NULL NULL

 

RIGHT OUTER JOIN

Mit einem RIGHT OUTER JOIN erhält man alle Datensätze der rechten Tabelle inklusive der Entsprechungen aus der linken Tabelle.

SELECT * FROM Obst
RIGHT OUTER JOIN Baum ON Obst.Obstname=Baum.Baumname

SELECT * FROM Obst
RIGHT JOIN Baum ON Obst.Obstname=Baum.Baumname

ID

Obstname

ID

Baumname

4 Pfirsich 1 Pfirsich
1 Apfel 2 Apfel
2 Birne 3 Birne
NULL NULL 4 Linde
NULL NULL 5 Kastanie
5 Kirsche 6 Kirsche

 

Möchte man nur die Datensätze der rechten Tabelle ohne Verknüpfung zu der linken Tabelle im Ergebnis, kann man diese über die WHERE-Klausel ausklammern.

SELECT * FROM Obst
RIGHT OUTER JOIN Baum ON Obst.Obstname=Baum.Baumname
WHERE Obst.ID IS NULL

 

ID

Obstname

ID

Baumname

NULL NULL 4 Linde
NULL NULL 5 Kastanie

 

FULL OUTER JOIN

Mit einem FULL OUTER JOIN erhält man alle Datensätze aus beiden Tabellen. Die Zeilen mit einer Entsprechung in der anderen Tabelle sind dann mit Werten gefüllt, die ohne Entsprechung enthalten NULL.

SELECT * FROM Obst
FULL OUTER JOIN Baum ON Obst.Obstname=Baum.Baumname 

SELECT * FROM Obst
FULL JOIN Baum ON
Obst.Obstname=Baum.Baumname 

SELECT * FROM Obst
LEFT OUTER JOIN Baum ON Obst.Obstname=Baum.Baumname
UNION
SELECT * FROM Obst
RIGHT OUTER JOIN Baum ON Obst.Obstname=Baum.Baumname

ID

Obstname

ID

Baumname

1 Apfel 2 Apfel
2 Birne 3 Birne
3 Erdbeere NULL NULL
4 Pfirsich 1 Pfirsich
5 Kirsche 6 Kirsche
6 Heidelbeere NULL NULL
NULL NULL 4 Linde
NULL NULL 5 Kastanie

 

Wenn man nur die Datensätze beider Tabelle ohne Verknüpfung zur anderen Tabelle auslesen möchte, kann man diese über die WHERE-Klausel ausklammern.

SELECT * FROM Obst
FULL OUTER JOIN Baum ON Obst.Obstname=Baum.Baumname
WHERE Obst.ID IS NULL OR
Baum.ID IS NULL

ID

Obstname

ID

Baumname

3 Erdbeere NULL NULL
6 Heidelbeere NULL NULL
NULL NULL 4 Linde
NULL NULL 5 Kastanie

  

CROSS JOIN

Zu guter Letzt gibt es noch den CROSS JOIN. Hiermit werden alle Datensätze der einen Tabelle mit allen Datensätzen der anderen Tabelle verknüpft. Das Ganze wird auch “Kartesisches Produkt” genannt.

Die Zeilenanzahl des Ergebnisses ergibt sich also aus:

Anzahl Zeilen der einen Tabelle *Anzahl Zeilen der anderen Tabelle

In unserem Beispiel: 6*6=36.

Das graphisch darzustellen, ist ein bisschen schwierig. Man stelle sich einfach eine dicke schwarze Wolke vor.
Auf diese Art des Joins sollte man bei großen Tabellen aus Performance-Gründen allerdings besser verzichten. 

SELECT * FROM Obst
CROSS JOIN Baum

SELECT * FROM Obst, Baum

ID

Obstname

ID

Baumname

1 Apfel 1 Pfirsich
2 Birne 1 Pfirsich
3 Erdbeere 1 Pfirsich
4 Pfirsich 1 Pfirsich
5 Kirsche 1 Pfirsich
6 Heidelbeere 1 Pfirsich
1 Apfel 2 Apfel
2 Birne 2 Apfel
3 Erdbeere 2 Apfel
4 Pfirsich 2 Apfel
5 Kirsche 2 Apfel
6 Heidelbeere 2 Apfel
1 Apfel 3 Birne
2 Birne 3 Birne
3 Erdbeere 3 Birne
4 Pfirsich 3 Birne
5 Kirsche 3 Birne
6 Heidelbeere 3 Birne
1 Apfel 4 Linde
2 Birne 4 Linde
3 Erdbeere 4 Linde
4 Pfirsich 4 Linde
5 Kirsche 4 Linde
6 Heidelbeere 4 Linde
1 Apfel 5 Kastanie
2 Birne 5 Kastanie
3 Erdbeere 5 Kastanie
4 Pfirsich 5 Kastanie
5 Kirsche 5 Kastanie
6 Heidelbeere 5 Kastanie
1 Apfel 6 Kirsche
2 Birne 6 Kirsche
3 Erdbeere 6 Kirsche
4 Pfirsich 6 Kirsche
5 Kirsche 6 Kirsche
6 Heidelbeere 6 Kirsche

 

Alternativen

Manchmal brauch man gar nicht unbedingt einen Join für das gewünschte Ergebnis. Mit EXCEPT, INTERSECT oder Subselects lassen sich ebenfalls ähnlich Ergebnisse erzielen. Es kommt aber immer darauf an, was als Ergebnis erwartet wird.

Mit INTERSECT oder einem Subselect bekommt man z.B. die gleichen Daten wie bei einem Inner join.

SELECT Obstname FROM Obst
INTERSECT
SELECT Baumname FROM Baum 

SELECT Obstname FROM Obst
WHERE Obstname IN
(SELECT Baumname FROM Baum)

Obstname

Apfel
Birne
Kirsche
Pfirsich

 

Mit EXCEPT oder einem Subselect kann man die Daten aus der 2. Tabelle aus dem Ergebnis ausschließen.

SELECT Obstname FROM Obst
EXCEPT
SELECT Baumname FROM Baum

SELECT Obstname FROM Obst
WHERE Obstname NOT IN
(SELECT Baumname FROM Baum)

Obstname

Erdbeere
Heidelbeere

 

Zusammenfassung

 

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

eBiz @Synopsis 2014

Veröffentlicht am 15.09.2014 von Ireen Raue , Event

Diese Veranstaltung gab Impulse wie Technologische Trends mit der Microsoft Plattform umgesetzt werden können sowie interessante Vorträge zu aktuellen Hype Themen.

Die Synopsis 2014 fand am 13. und 14. Mai im Darmstadium in Darmstadt statt. Zwei zum Teil interessante Tage mit vielen Vorträgen.

Am Anfang und am Ende des Tages gab es eine gemeinsame Vorstellung für alle. Bei den restlichen Vorträgen konnte man unter sechs Themenbereichen wählen. 

Für mich war der Hauptgrund, zu dieser Veranstaltung zu gehen, die Vorstellung des SQL Server 2014 und einige der Vorträge zur Datenanalyse. Damit stand dann ziemlich schnell fest, für welchen Themenbereich ich persönlich mich bei den Vorträgen entscheiden sollte.

13. Mai 2014

Für diesen Tag standen Vorträge aus folgenden Themenbereichen zur Auswahl:

  • Data Platform: In-Memory Technologie und Hochverfügbarkeit
  • Hybrid Cloud: Transformation des Rechenzentrums
  • Enterprise Mobility: Der flexible Arbeitsplatz der Zukunft
  • Modern Apps: Multi-Channel-Marketing
  • Enterprise Social: Die neue Generation der Produktivität
  • Enterprise Architect Community Track

Für mich war der Bereich Data Platform am interessantesten. Damit habe ich mich für folgende Vorträge entschieden:

  1. Vortrag: (Big) Data Warehouse

    Ralph Kemperdick (Microsoft)
    Stephan Köppen (Oraylis GmbH)

    Vorgestellt wurde hier Hadoop, das als Opensource zugänglich ist, sowie dessen Integration in das Data Warehouse. Zugänglich gemacht wird es als Enterprise ready hadoop (Hdinsight) über PolyBase, das es ermöglicht, auf die Inhalte der relationalen DB und der über HDInsight gemanagten Daten zusammenhängend über eine Abfrage zu zugreifen. Ein interessantes Thema, das ich mir auf jeden Fall weiter genau anschauen werde.
     

  2. Vortrag: In.Memory im SQLServer 2014

    Tobias Maier, Dr. Benjamin Kettner ixto GmbH und Guido Jacobs

    Hier wurden die aktuellsten InMemory Technologien vom SQLServer und SAP Hana verglichen. Bereits ab SQL 2012 ist mit dem columnstore index eine InMemory Technologie verbaut und nutzbar. Mit dem SQLServer 2014 wurde diese noch erweitert. Damit ist es möglich, beim SQLServer inMemory-Verarbeitung auf Tabellenebene einzustellen und damit auch auf Plattformen mit weniger Arbeitsspeicher diese Technologie zu nutzen. Nähere Informationen dazu wird es in einem separaten Blogartikel geben – also bitte dranbleiben!
    Bei SAP HANA dagegen wird die komplette Datenbank im Arbeitsspeicher gehalten, was das System natürlich sehr schnell macht, aber auch eine entsprechende Hardware voraussetzt.
      

  3. Vortrag: predictive Analytics und Industrie 4.0

    Thomas Krenn, Microsoft

    Dieser Vortrag war leider nicht sehr informativ, da hier nur auf Beispiele eingegangen wurde, bei denen man vorausschauende Analysen einsetzen kann, aber leider nicht darauf, wie.

Am Abend gab es ein Get-Together mit interessanten Gesprächen

14. Mai 2014 

Der erste Vortrag des Tages für alle war die Vorstellung des SQL Server 2014 von Kamal Hathi. Unter anderem wurde die InMemory Usage für einzelne Tabellen gezeigt und Analyse Tools zur Ermittlung geeigneter Tabellen, daher auch hier nochmal der Hinweis auf den Blogartikel zur InMemory Technologie des SQLServer 2014.
Außerdem wurde Power BI gezeigt mit einem großen Umfang an Visualisierungsmöglichkeiten für Big Data.

Die weiteren Themenvorträge des Tages waren aus folgenden Bereichen:

  • Business Analytics: Vereinfachte Analyse beliebiger Daten
  • Hybrid Cloud: Transformation des Rechenzentrums
  • Enterprise Mobility: Der flexible Arbeitsplatz der Zukunft
  • Modern Apps: Multi-Channel-Marketing
  • Enterprise Social: Die neue Generation der Produktivität
  • Hosting Community Track

Angehört habe ich mir die Vorträge der Reihe Business Analytics.

  1. Vortrag: Trusted Data Organisation

    Florian Buschbacher, PwC AG

    Im Vortrag Trusted Data Organisation ging es um neue Ideen zur Entwicklung, Bereitstellung und Umsetzung von Big-Data-Projekten und damit verbundenen Risiken, die bewertet, einkalkuliert und bewältigt werden müssen.

  2. Vortrag: Information Rules

    Prof. Dr. Andreas Seufert (Hochschule Ludwigshafen am Rhein)

    Vorgestellt wurden wesentliche Erkenntnisse der Studie “Competing on Analytics – Herausforderungen – Potenziale und Wertbeiträge von Business Intelligence und Big Data” vom Institut für Business Intelligence, die gemeinsam mit Partnern für den deutschsprachigen Raum aufgesetzt wurde.

    Sie umfasst den Status quo hinsichtlich Nutzung und Grenzen von Big Data, analytische Potenziale von Big Data, Big-Data-Potenziale nach Einsatz und Anwendungsbereichen sowie Potenziale für Geschäftsziele.

  3. Vortrag: Data Science with the Microsoft Data Plattform

    Rafal Lukawiecki, Strategic Consultant and Director, Project Botticelli Ltd

    Für mich war das einer der interessantesten Vorträge der gesamten Veranstaltung, da hier ein Data Scientist mit mehreren Jahren Berufserfahrung in der Datenanalyse über die Herausforderungen in diesem Umfeld berichtet und die Tools, mit denen er arbeitet, vorgestellt hat. Zu denen gehören unter anderem der SQL Server, Excel und Hadoop/Mahout aber auch RStudio und Python, von denen ich bisher noch nicht gehört hatte.

  4. Vortrag: Power is nothing – without control

    Petros Chorosis, Microsoft Deutschland GmbH
    Thomas Zeutschler, Corporate Manager, Henkel AG & Co. KGaA

    In diesem Vortrag wurden die neuen Möglichkeiten und Potenziale von Microsoft Self Service und Power BI für Office 365 vorgestellt.

Für all diejenigen, die sich jetzt vielleicht für das ein oder anderen Thema interessieren: Alle Vorträge sind hier abzurufen: http://www.microsoft.com/de-de/server/synopsis2014/

Der technische Teil kam meines Erachtens an einigen Stellen zu kurz, aber man konnte sich auf jeden Fall einen guten Überblick über die Neuentwicklungen, in meinem Fall im Bereich der Datenanalyse, verschaffen und den ein oder anderen Kontakt zu Firmen knüpfen, die sich auch mit den aktuellsten Themen der IT beschäftigen.

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

Die Auswirkungen von Cloud-Anwendungen auf Endnutzer – Kundendienst und Callcenter

Veröffentlicht am 01.09.2014 von Lutz Plümpe , Cloud

Der folgende Artikel ist Teil der Serie “Die Auswirkungen von Cloud-Anwendungen auf Endnutzer” und beleuchtet sie in Bezug auf den typischen Kundendienst.

Die zentrale Herausforderung für den Kundenservice ist die Verfügbarkeit der richtigen Information zur richtigen Zeit. Unabhängig davon, ob es um die Erfassung eines neuen Incidents oder die Mitteilung eines Status eines bereits erfassten Incidents geht, ist die Aktualität der Informationen dabei der kritische Faktor.

Die Systeme für diese Aufgaben waren daher schon sehr früh mit Schnittstellen zu anderen Systemen ausgestattet, um bei Rückfragen einen Status angeben zu können. Diese Schnittstellen waren allerdings oft nur in eine Richtung offen und erforderten zudem einen enormen Aufwand, damit Nutzer auf die gleichen Daten zugreifen konnten. Cloud-Lösungen können hier Abhilfe schaffen, da sie die Vorteile von klassischen Lösungen aufweisen und gleichzeitig noch weitere Vorteile mit sich bringen:

Statt eines gesonderten CRMs für den Vertrieb und eines Kundenservice-Systems kann bei einem geschickten Design ein xRM für beide Kanäle aufgebaut werden, bei dem einem Anwender sofort alle relevanten Daten zu einem Kunden angezeigt werden. So kann der Kundenservice nicht nur sehen, welche offenen Incidents es gibt, er kann diese auch zur Repriorisierung markieren, wenn etwa das Ende der Laufzeit des Vertrages ansteht und eine Verlängerung ausgeschlossen ist.

Im Gegensatz zu Anwendungen in der Cloud sind On-Premise Systeme häufig nicht mit entsprechenden Schnittstellen ausgestattet, bzw. die Anpassung der Formate zum Austausch ist so aufwendig, dass in Abwägung mit dem Nutzen nur schwer zu rechtfertigen ist. Dies gilt insbesondere dann, wenn die beteiligten Systeme nach und nach modernisiert werden sollen. In einem solchen Szenario fallen Anpassungsaufwände oft mehrfach an, werden aber bei der Planung nicht berücksichtigt.

Die größeren Änderungen ergeben sich allerdings für den Kundenservice, da dieser mit einer Cloud-Anwendung in der Lage ist, alle Informationen immer vor Ort zur Verfügung zu haben. In der Vergangenheit war es oft zu teuer, jede MitarbeiterIn mit einem Laptop mit der entsprechenden Software und darüber hinaus noch mit dem Zugang ins Firmennetzwerk auszustatten. Neben der Notwendigkeit für Lizenzen pro Gerät kam häufig die Verschlüsselung als zusätzliche Komponente in Spiel. Eine Cloud-Anwendung hingegen lässt sich so entwerfen, dass der Mitarbeiter vor Ort von einem Smartphone aus alle Informationen abfragen und editieren kann, ohne dass signifikante Mehrkosten im Vergleich zur reinen Ausstattung mit einem Telefon anfallen. Der Zugriff erfolgt über den Webbrowser oder eine App, die ebenfalls für die Verschlüsselung verantwortlich ist. Lizenzen fallen pro User, nicht pro Gerät an. 

Zudem ist eine MitarbeiterIn somit auch in der Lage, in einem Arbeitsschritt Dokumente an einen Incident zu heften, etwa Bilder von Schäden oder Scans von Unterlagen. Solche Informationen wurden früher oft gar nicht abgelegt oder erst später nachgepflegt, wobei oft der Kontext nicht klar dargestellt werden konnte.

Eine potentielle Schwäche der Anwendungen in der Cloud ist die Datensicherheit. Daher empfiehlt sich die Überlegung, ob in eine private oder in eine public cloud investiert werden soll.

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

“Vereint und strategisch zu mehr IT-Sicherheit in Deutschland”

Veröffentlicht am 01.09.2014 von Robert Schlachta , Event

… so war die Konferenz der Koordinierungsstelle IT-Sicherheit (KITS) im “Haus der Normung” des DIN e.V. in Berlin am 30. Juni 2014überschrieben. Ausgerichtet wurde sie mit der Unterstützung von Partnern wie IBM, Siemens und TeleTrust. Dass IT-Sicherheit viele Debatten auslöst und ihre Ergebnisse und Stimmungen für die Ausrichtung des IT-Standort Deutschland richtungsweisend sein können, wird von vielen Seiten bestätigt. Die KITS-Konferenz fokussierte in diesem Jahr auf Industrie 4.0 / Industrial Security sowie dem Versuch, eine klare Trennung zwischen zwei Welten herzustellen.

Die Veranstaltung

Rüdiger Marquardt, DIN-Vorstand begrüßte im DIN-Gebäude ca. 150 Teilnehmer, die sich in einer Ganztagesveranstaltung mit anschließendem Get-Together den Themen rund um IT-Sicherheit widmen.

Mit kurzen Stichworten wurden folgende Schwerpunkte gesetzt: 

  • Eine auf Rechtfertigung ausgelegte Keynote des BSI mit einem Zahlengewitter von bekannten und neuen Viren, aufgedeckten Angriffen, Cyberangriffen und schadhaften Websiten.
  • Eine fundierte und ansprechende Keynote von Prof. Dr.-Ing. Dieter Wegener, Head of Advanced Technologies and Standards, Industry Sector, Siemens AG bezüglich der notwendigen Sicherheit als Grundpfeiler für die nächste Industriegeneration – Industrie 4.0 (Internet-der-Dinge + Internet-der-Services)
  • Eine breit aufgestellte und konsensorientierte Podiumsdiskussion zu Deutschlands Strategie auf dem Weg zu mehr IT-Sicherheit
  • Eine Darstellung aktueller Standardisierungsbestrebungen auf nationaler und internationaler Ebene, leider ohne den nötigen Tiefgang und die jeweiligen Beziehungen zueinander zu zeigen
  • Kurzweilige Einblicke aus Wissenschaft (Frauenhofer IPT) und Wirtschaft (“Security is not about technology only”)
  • Fokussierte Beiträge aus der Automobilindustrie, an denen der Autor nicht mehr teilnahm

Erstaunlich war die Zugkraft der beiden angekündigten Podiumsteilnehmer aus der Politik

  • Christina Kampmann, MdB und
  • Jens Koeppen, MdB,

die wissend, fundiert und sinnvoll ihre Sicht dargelegten und zwei Begriffe in die weiteren Diskussionen einführten: IT-Sicherheitsgesetz (link) und Digitale Agenda (link).

IT-Sicherheit im “office vs. production floor”

Inhaltlich lag der Fokus der Konferenz auf Industrie 4.0 und deren Produktionsaspekten. Im Vergleich zum “Office-Floor” können viele Potentiale in der Etablierung von IT-Sicherheitskonzepten im “Production Floor” noch gehoben werden. Allerdings können diese nicht 1:1 aus der Welt des “Office-Floors” übernommen werden – so das gemeinsame Verständnis der Podiumsteilnehmer.

Mit dem gesetzten inhaltlichen Rahmen (“production floor” und Industrie 4.0) bestand unter den aktiven Teilnehmern weitgehend Einigkeit, dass

  • es bereits viele Sicherheitsstandards gibt, die noch mehr Anwendung finden sollten.
  • Die Standards jedoch zu Teilen nicht aktuell sind.
  • vorhandene Standards eingeschränkt auf Teilbereiche abzielen statt auf die ganzheitliche Betrachtung betroffener Abläufe und Organisationen.
  • die Deutschen nicht alles “übergenau” vordenken sollten, um den Rückstand zu anderen Nationen wie den USA aufholen zu können.
    In diesen Kontext gehört der Aspekt, dass zu viel IT-Sicherheit und das Ausrollen aller möglichen Sicherheitskonzepte, -vorschriften und -systeme als potentielle Behinderung von Geschäftsmodellen angesehen wird.
  • die vorhandenen Gremien und Verbände zielgerichtet zusammenarbeiten müssen, da nur ein gemeinsames Vorgehen Politik- und Wirtschaft übergreifend Deutschland als erfolgreichen Wirtschaftsstandort sichert.
  • Sicherheit kein Produkt ist, was man kaufen kann, sondern als Management-Disziplin existieren muss

Und die eBiz?

IT-Sicherheit ist zwar keine primäre Dienstleistung der eBiz Consulting, wird aber als Querschnittskompetenz verstanden und in den jeweiligen Projekten berücksichtigt.

Das bedeutet, dass

  • es ein Bewusstsein für die Notwendigkeit der IT-Sicherheit in Projekten gibt.
    Praktisch wird dies meist in den nicht-funktionalen Anforderungen betrachtet, sofern es kein Hauptaugenmerk für eine zu entwickelnde Lösung ist.
  • Ansprechpartner und Verantwortliche zur weiteren Analyse und Freigabe von Lösungsvorschlägen definiert werden.
  • bereits etablierte Governance-Abteilungen oder Sicherheitsabteilungen und ihre Regelwerke und Sicherheitsanweisungen eingebunden werden, sofern möglich.

Fazit

Eine gelungene Veranstaltung, auf der ausreichend Überblicksmaterial bereitgestellt wurde und die von facettenreichen Anknüpfungspunkten in Politik, Wirtschaft und die Verbände/Organisationen profitierte.

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

eBiz Sommerfest 2014

Veröffentlicht am 28.08.2014 von Robert Schlachta , Event , Insights@ebizcon

Das jährliche Sommerfest der eBiz Consulting haben wir in diesem Jahr in Königstein gefeiert. Ein Company Meeting in etwas lockerer Atmosphäre, garniert mit dem nächsten eBiz-Gadget, mündete in unser eBiz-Sommerfest mitsamt Drohnenjagd und Barbecue. Wer hätte gedacht, dass eine Tour durch den Taunus so rasant Spaß macht?    

Einmal im Jahr findet im Anschluss an das monatliche Company Meeting das eBiz-Sommerfest statt. Nach einer Wanderung durch den Taunus im letzten Jahr hat dieses Mal die SegWay-Tour im Rahmen einer Mitarbeiterumfrage zwei anderen Treppchenkandidaten den 1. Rang abgelaufen.

9 Uhr? – nicht verhandelbar! Aber ausnahmsweise haben wir das Company Meeting etwas später im Schlosshotel Rettershof begonnen, damit sich alle sicher und gut einfinden konnten.

In angenehmer Atmosphäre und mit herrlichem Blick in den Taunus konnte das Company Meeting beschwingt durchgeführt werden. Die interessanten Themen wie die Vorstellung der Opportunity Map aus dem Business Development Bereich oder ein Exkurs zum Thema “Verhandlungspartner überzeugen”, taten ihr Übriges dazu, bevor der Fokus auf den letzten Agendapunkt “Sommerfest KickOff” gerückt werden konnte. Unterstützung bekamen die Teilnehmer durch das dritte eBiz-Gadget in 2014. Nach der Drohne und der Xbox haben wir jetzt einen Mindstorm-Roboter (siehe Bild oben) in unseren stolzen Reihen.

Pünktlich um 15 Uhr wurden wir mitsamt des inzwischen eingetroffenen Anhangs in die Kunst des SegWay-Fahrens eingeführt. Nach einigem Zittern auf den SegWays und ein paar Aufwärmrunden konnte die spaßige Tour durch den Taunus beginnen. Dass dabei sooo viel Fahrvergnügen rausspringt, hatten wir gar nicht erwartet! Über Land waren wir auch nicht daran gebunden, im Gänsemarkt hintereinander her zu kurven, sondern konnten hier und da Gas geben, Ausprobieren, Anhalten und miteinander kommunizieren.

Spätestens als die Hälfte der Teilnehmer die SegWays am Ende nicht mehr hergeben wollte, sondern stattdessen schnelle Extrarunden gedreht wurden, war klar – SegWay-Tour = gelungen!

Hier ein paar Impressionen:

082814_0859_eBizSommerf4.png

Bevor der Abend begann, wurde die Drohne noch “über’s Feld gejagt”. Ergebnis: Akkus alle, ein Absturz aus gefühlt 200 Metern Höhe und vielen Ideen, was man mit so einer Drohne alles anstellen kann.

082814_0859_eBizSommerf5.png

 

Stärkung gab’s danach beim gemeinsamen Barbecue – gute Laune, Austausch und gemütliches Beisammensein inklusive.

Vielen Dank an alle, die dabei waren und bis zum nächsten Mal – beim eBiz-Weihnachtsfest?

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

Microsoft Azure WebCamp – wir waren dabei!

Veröffentlicht am 18.08.2014 von David Krüger , Event

Während des Microsoft Web Camps im Bad Homburg am 17. Juni 2014 haben wir unser Wissen über die Webplattform und -Werkzeuge von Microsoft vertieft. Im Detail ging es unter anderem um weiterführende Informationen zu One ASP.NET, aktuelle JavaScript Frameworks, Cloud Hosting, der Integration mit Open Source-Technologien sowie um Möglichkeiten für Webentwickler in Visual Studio 2013. André Dammeyer und David Krüger waren für die eBiz zwecks Wissenstransfer und Networking vor Ort.

Anfang 2014 fand in Köln der diesjährige Web Summit statt (vgl. Blog Post von Ronny Ulbricht “eBiz live @WebSummit 2014“). Aufgrund der hohen Nachfrage und des positiven Feedbacks wurden die Themen seitens Microsoft regional noch einmal aufgegriffen, so dass André Dammeyer und ich in Bad Homburg die Gelegenheit auch nutzen konnten, uns mit folgenden Themen noch näher zu beschäftigen:

 

  • Einführung in die Microsoft Web Tools Visual Studio 2013 und WebMatrix
  • Überblick über die Neuerungen bei ASP.NET
  • Entwicklung moderner Webanwendungen mit aktuellen ASP.NET-Technologien
  • Open Source-Webtechnologien und die Microsoft-Plattform
  • Microsoft Azure als Plattform für Webanwendungen
  • Entwicklung von Anwendungen für PC und Smartphone mit aktuellen Webstandards
  • API Services für das Web und mobile Geräte
  • Betrieb und Wartung von Webapplikationen

Den Tag gestaltete Malte Lantin gemeinsam mit Sebastian Kleinschmager mit innovativen und abwechslungsreichen Vorträgen und Live Demos. Malte Lantin beschäftigt sich als Technical Evangelist bei Microsoft Deutschland vor allem mit der Cloud-Plattform Microsoft Azure. In dieser Rolle verantwortet er zudem das Microsoft-Förderprogramm für technische Studierende “Microsoft Student Partners” und befasst sich mit der App-Entwicklung für Windows. Sebastian Kleinschmager ist freiberuflicher Berater, Trainer und Softwareentwickler. Sein Fokus liegt dabei auf Webtechnologien, insbesondere auf ASP.NET MVC.

Neben unserem eigenen Interesse an den adressierten Technologien war uns auch daran gelegen, mit Kollegen anderer Unternehmen in den Dialog zu treten. Dafür war die überschaubare Runde von ca. 20 Entwicklern ideal. Das Interesse der Teilnehmer galt voll und ganz den vorgestellten technischen Neuerungen, daher erwies es sich als schwierig, unserem Ziel des Netzwerkens nachzukommen. Dennoch war es für uns eine gute Veranstaltung, und wir haben einige Eindrücke über die aktuellen Microsoft Technologien sowie den Interessen der Entwicklerkollegen gewonnen.

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

Die Auswirkungen von Cloud-Anwendungen auf Endnutzer – Einführung

Veröffentlicht am 25.07.2014 von Lutz Plümpe , Cloud

Der Begriff Cloud wandelt sich langsam von einer Floskel aus dem Marketing hin zu gelebter Praxis, wobei die Auswirkungen auf die betriebliche Realität oft noch unterschätzt werden.

Diese Serie gibt einen kurzen Überblick aus der Beratungspraxis über die typischen Auswirkungen einer Umstellung von On-Premise- zu Cloud-Anwendungen.

Die verbindenden Elemente, die für viele Anwender ähnlich sind, umfassen dabei die Verfügbarkeit von Daten, Schnittstellen, Auswertbarkeit sowie Collaboration.

Verfügbarkeit von Daten

Für viele Anwender, die zum ersten Mal mit einer Cloud-Anwendung arbeiten, ist eine der größten Überraschungen, dass diese oft einfach über einen Browser aufgerufen werden anstatt über eine auf dem Computer fest installierte Anwendung. Eine Alternative für den Zugriff über den Browser ist die sogenannte App, ein kleines Programm auf einem Endgerät wie einem Smartphone oder einem Tablet. Das Arbeiten beschränkt sich damit nicht mehr nur auf den PC oder Laptop mit der installierten Anwendung, sondern kann im Grunde, abhängig von der Sicherheitsarchitektur, von jedem beliebigen Gerät aus durchgeführt werden. Egal, ob am Büroschreibtisch, im Meeting-Raum, beim Kunden oder im Zug: Jederzeit kann auf die aktuellen Daten zugegriffen werden, zumindest, solange eine Internetverbindung besteht. Im Unterschied zu klassischen Anwendungen ist dabei vor allem die Datenhaltung in der Cloud hervorzuheben. Es werden immer nur die aktuellen Daten aus dem Speicher angezeigt, eine Differenz von lokal gespeicherten zu zentralen Daten ist somit fast ausgeschlossen.

Schnittstellen

Schnittstellen zu anderen Systemen sind für den Endanwender zwar oft unsichtbar, aber sie sind der entscheidende Vorteil einer Cloud-Anwendung. Durch die Architektur der meisten Cloud-Anwendungen ist es relativ leicht, mehrere Systeme miteinander zu verbinden, damit diese wechselseitig ihre Daten austauschen können. Durch diesen Austausch können ganz neue Perspektiven geschaffen und eine umfangreiche Transparenz hergestellt werden.
Wo bei klassischen On-Premise-Anwendungen, etwa im Fall der Übernahme eines weiteren Unternehmen, aus Kompatibilitätsgründen oft ein System dem anderen weichen musste, können nun mithilfe von gut entworfenen Cloud-Anwendungen beide bestehen bleiben und durch Schnittstellen alle erforderlichen Daten ausgetauscht werden, um das gesamte Datenkonvolut transparent zu machen. Dies spart Kosten bei der Entwicklung und der Einführung neuer Systeme, zudem kann die teure und fehleranfällige Anpassung von Prozessen mit mehr Sorgfalt und weniger Risiko umgesetzt werden.

Auswertbarkeit

Neben der Möglichkeit, Schnittstellen für eine erhöhte Transparenz einzurichten, bieten viele Cloud-Systeme eine weitere Option, und zwar eingebaute Reporting-Funktionalitäten. Reine Rohdaten über Schnittstellen zu transportieren ist eine Möglichkeit, eine übersichtliche Darstellung daraus zu generieren geht noch darüber hinaus. Viele Hersteller haben die Zeichen der Zeit erkannt und bieten für typische Nutzeranwendungen wie einem Customer Relationship Management (CRM) oder einem Enterprise Resource Planning (ERP) mächtige und einfach zu konfigurierende Reporting-Engines an, die bei der Anwendung unterstützen. Wo früher noch Source Code geschrieben werden musste, um der Maschine ihre Kennzahlen zu entlocken, bieten heute viele Systeme die Möglichkeit, über einfach zu bedienende grafische Oberflächen an die gewünschten Informationen heranzukommen. Darüber hinaus haben immer mehr Off-the-Shelf-Cloud-Produkte ein Cockpit oder Dashboard, das jedem Mitarbeiter die für ihn relevanten Informationen beim Öffnen der Anwendung als Übersicht anzeigt. Dies erlaubt ein schnelles Erfassen von wichtigen Informationen und erspart ein aufwendiges Suchen von Informationen.

Collaboration

Neben den oben genannten Funktionalitäten die das Arbeiten der IT Abteilungen und des Managements einfacher machen sollen, gibt es ein weiteres Merkmal, das sich vermehrt in Cloud-Anwendungen findet: die kollaborativen Elemente die sich an die Endnutzer richten. Da alle Anwender auf einer zentralen Datenplattform arbeiten, erlauben diese Elemente über die eigentliche Anwendung hinaus die Kommunikation der Anwender untereinander, wie man sie aus sozialen Netzwerken kennt.

Die Bandbreite reicht dabei von der leichteren Nachvollziehbarkeit von Änderungen bis hin zu voll ausgebauten Mitarbeiterprofilen und den Möglichkeiten, Gruppen zu verwalten und Nachrichten zu abonnieren. Als Beispiele seien hier Yammer, Salesforce Chatter und die personalisierten Funktionen von Microsoft Sharepoint genannt. In Deutschland haben sich solche Funktionen, nicht zuletzt aufgrund der innerbetrieblichen Mitbestimmung, noch nicht etabliert, obwohl immer mehr Anwendungen diese enthalten, so dass sie – noch – vor einem Einsatz in Deutschland gegebenenfalls deaktiviert werden müssen.

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

Big Data vorgestellt…

Veröffentlicht am 30.06.2014 von Ireen Raue , Big Data

Ein Hype-Begriff, der sich die letzten Jahre immer mehr verbreitet hat und um den man mittlerweile nicht mehr herum kommt. In den verschiedenen Medien wird darüber berichtet und es werden diverse Einsatzbereiche für Unternehmen gezeigt, die angeblich durch deren Einsatz, deutlich wirtschaftlicher arbeiten könnten.

All das was man mittlerweile zu dem Thema findet, erschlägt einen förmlich. Viele interessante Berichte über die Wirtschaftlichkeit mit prozeduraler Auswertung über das Potenzial für Firmen kann man finden, Berichte über Big Data Projekte, Einsatzgebiete und Analysen, die bereits mit Big Data Tools gemacht wurden. Mit den Möglichkeiten, die MS Azure und HDInsight bieten, ist es wohl recht einfach (was sich dann noch herausstellen wird) ein eigenes Big Data-Projekt auf die Beine zu stellen.

In dem folgenden Artikel gebe ich eine kurze Einleitung, was Big Data ist und in folgenden Artikeln gibt es ein paar tiefere Informationen zu Tools und auch einem Beispielprojekt.

Nun gleich zu Beginn, Big Data hat keine wirkliche Definition. Man kann nicht an Hand von z.B. Datenmengen festlegen, ab wann ein Big Data-Projekt anfängt.

Hier ist das, was Wikipedia dazu sagt:

Big Data bezeichnet den Einsatz großer Datenmengen aus vielfältigen Quellen mit einer hohen Verarbeitungsgeschwindigkeit zur Erzeugung wirtschaftlichen Nutzens.Das Volumen dieser Datenmengen geht in die Terabytes, Petabytes und Exabytes. Nach aktuellen Berechnungen verdoppelt sich das weltweite Datenvolumen alle 2 Jahre.

Mit Big Data ist aber nicht nur die große Datenmenge gemeint, sondern vielmehr der Umgang damit. Bisherige Datenspeicher und –reporting Werkzeuge sind meist nur auf die Verarbeitung und Analyse der dort vorhandenen strukturierten Daten ausgerichtet und stoßen damit an ihre Grenzen.

“Big Data ist, wenn die Daten selbst Teil des Problems werden”

Roger Magoulas , Verantwortlicher für Marktforschung bei O’Reilly Media

Diese kurze Definition ist (aus meiner Sicht) eine sehr gute Beschreibung von Big Data. Sie trifft genau den Kern des Problems und damit die Herausforderungen von Big Data-Projekten. Hier wird gar nicht erst versucht, das aktuelle Hype-Thema Big Data anhand reiner Zahlen anzugehen.

Die 3 Vs

Was wohl jedem schon im Zusammenhang mit Big Data über den Weg gelaufen ist, sind die 3 V-Begriffe. Mittlerweile haben die sich sogar noch vermehrt, aber grundsätzlich wird Big Data von diesen 3 Begriffen charakterisiert:

Volume (große Datenmenge): die Dinge digitalisieren

Um bestimmte Sachverhalte verstehen zu können oder sogar Vorhersagen machen zu können, braucht es wiedererkennbare Muster. Dafür muss man auch die bisher eventuell ungenutzten Daten mit einbeziehen.

Velocity (schnelle Verarbeitung): Zeit zum Eingreifen geben

Man hat also eine große Menge bestehender Daten aber auch einen stetigen Fluss an neuen Informationen. Wenn man die in den historischen Daten gefunden Muster mit dem vergleicht, was gerade jetzt passiert, kann man die Dinge besser machen oder schlimmeres verhindern. Das kann einen großen Mehrwert bringen und auch Leben retten, aber nur wenn man ein System stehen hat, mit dem man es passieren sieht und damit menschlichen Ressourcen Zeit für Entscheidungen und zum Eingreifen gibt.

Variety (Datenvielfalt): für “The Big Picture”

Daten waren früher als etwas definiert, das man in Tabellen mit Spalten und Zeilen speichern konnte. Die Welt von heute ist aber voll von strukturierten und unstrukturierten Daten. Für Systeme der alten Welt ist das ein großes Problem. Plötzlich gibt es auswertbare Daten, die sich nicht in eine Datenbank pressen lassen. Diese Daten werden dann entweder einfach ignoriert oder an für alte Systeme unzugänglichen Orten abgelegt. Diese Daten mit den historischen (strukturierten Daten) zu korrelieren, ist damit nicht mehr möglich und ‚The big picture’ ist nicht mehr erkennbar.

Die Herausforderung von Big Data ist es, Daten aus verschiedenen Quellen und damit meist in verschiedenen Formaten, so schnell wie möglich zu verarbeiten und zu verknüpfen. Man sollte aber auch ansatzweise wissen, was für eine Frage man damit beantwortet haben möchte.

Damit ist hier ein weiteres V von genau so großer Bedeutung:

Value (Wert): Entscheidungshilfe

Was man tatsächlich für Informationen aus einer Datenanalyse ermitteln möchte, sollte ganz am Anfang eines jeden Big Data Projektes stehen. Denn nur so kann man sagen welche Daten wie ausgewertet werden und ob die vorhandenen Daten überhaupt verwendbar sind.

Es geht also nicht unbedingt darum, so viele Daten wie möglich zu horten, sondern mehr darum aus dem, was man hat, verwendbare Informationen abzuleiten.

Welche Tools es mittlerweile für die Verarbeitung (mit Schwerpunkt Microsoft) gibt, folgt in Kürze im nächsten Artikel unserer Big Data Serie.

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

Der 1. Cloud Round Table! Kollegen der eBiz waren dabei!

Veröffentlicht am 18.06.2014 von David Krüger , Event

Christian Flory, Themenfeldleiter der Hessen Trade & Invest GmbH, lud am 15. Mai 2014 zum Cloud Round Table nach Darmstadt ein. Die angenehme Abendveranstaltung in der Villa des Darmstädter Echo mit konstruktiven Gesprächen und Möglichkeiten zum Networking lassen wir im Folgenden Revue passieren. Das Fazit überrascht dann vermutlich nicht.

“Was vor wenigen Jahren undenkbar erschien, ist nun Realität: Unternehmen beziehen ihre IT-Ressourcen nach Bedarf aus dem Internet.” (Vgl. http://www.pwc.de/de/mittelstand/cloud-computing-im-mittelstand.jhtml). “Ob Rechenleistung, Speicherdienste oder Software über das Internet – Cloud Computing kann grade für kleine und mittleren Unternehmen zahlreiche Vorteile bieten. Alle kennen “die Cloud”, doch sobald sich Verantwortliche in Unternehmen mit der Sinnhaftigkeit für ihren Geschäftszweck auseinander setzen, wird es nebulös” (Vgl. http://www.hessen-it.de/dynasite.cfm?dssid=370&dsmid=14001). Zum offenen Erfahrungs- und Informationsaustausch haben sich daher Vertreter unterschiedlicher Fachbereiche in der Region zusammengefunden, um sich zum breiten Thema “Cloud” auszutauschen.

Die Veranstaltung

Etwa 30 Interessierte aus regionalen kleinen und mittelständischen Unternehmen waren ebenso zugegen wie einige Vertreter großer Beratungs- und Softwarehäuser. Daneben trugen auch einige versierte Freiberufler mit ihrer Expertise zu einem anregenden und informativen guten Dialog bei. Seitens der eBiz beteiligten sich aus der Geschäftsführung Robert Schlachta und der Business Development Manager David Krüger am fachlichen Austausch.

Unsere Erwartung galt neben allgemeinem regionalen Networking besonders auch Einblicken, wie sich andere Unternehmen den Geschäftspotentialen der “Cloud” nähern, diese bewerten und bereits nutzen. Die eBiz ist mit ihren Kompetenzfeldern, etwa das Provisioning in Cloud-Projekten für international agierende Konzerne gut positioniert, so dass wir unsere Erfahrungen gern eingebracht haben.

Die Themen wurden durch eine Abstimmung aller Teilnehmer im Vorfeld aus einem Themenpool ausgewählt. Sie wurden in moderierten Tischrunden diskutiert und vertieft. Wir haben uns am Dialog hieran beteiligt:

  1. “In 5 Schritten in die Cloud”
  2. “Big Data – Hype oder Chance?”
  3. “Unternehmerische Chancen durch Nutzung von Cloudcomputing”
  4. “Im Brennpunkt: Die Belange der IT Abteilung versus Fachabteilungen”
  5. “Cloud und SaaS – die wirtschaftlichen Konsequenzen”

Im Anschluss an die Gespräche an den Tischen gab es die Möglichkeit, sich bei Snacks und Getränken zu vernetzen und die Unterhaltungen individuell zu vertiefen.

Besonders interessant für uns war der allgemeine Konsens der Teilnehmer, dass sowohl Big Data Lösungen als auch die Einführung von Cloudcomputing, IT Dienstleistern und Systemhäusern enorme unternehmerische Chancen bieten. Dies haben alle wichtigen Teilnehmer während der Diskussion zu den Themen “Big Data – Hype oder Chance?” und “Unternehmerische Chancen durch Nutzung von Cloudcomputing” betont. Ebenso wurde auf die Besonderheit des deutschen Marktes ein Auge geworfen. Das geschäftliche Umfeld in Deutschland basiert, ganz besonders im Mittelstand und bei Familienunternehmen, auf oft sehr langjährig gewachsenen persönlichen Beziehungen. Vertrauen zwischen Dienstleister und Kunde ist für die Implementierung einer Cloud oder Big Data Lösung wichtig und zumeist Voraussetzung für beide Seiten. Es ist deutlich geworden, dass sich gerade die großen Global Player, wie z.B. IBM oder Microsoft mit der Erschließung des Cloud Einzelmarktes Deutschland diesbezüglich noch schwertun, jedoch auch bei ihnen die Schritte klar in Richtung “Cloud” gehen.

Auch aufgrund rechtlicher Besonderheiten und der Angst vor “Ausspähung” steht der Mittelstand und Familienunternehmen Cloud Lösungen oft noch skeptisch gegenüber. Weite Teile haben sich bisher noch nicht mit ihren Kostensenkungspotentialen auseinandergesetzt. Die große Herausforderung beim Gewinnen von Marktanteilen im Cloud-Umfeld wird es also sein, fachlich aufzuklären und grundsätzlich kundenzentriert sowie im engen Schulterschluss mit dem Kunden einen für ihn passenden Lösungsvorschlag zu erarbeiten. Datenschutz und Datensicherheitsthemen sind dabei ebenso zu berücksichtigen wie die Prozesse und die Unternehmenskultur des Kunden.

Fazit

Zusammengefasst: Wir haben das Format als gelungen empfunden, da es die aktive Teilnahme am Gespräch ermöglicht hat und dadurch ein guter Informationsaustausch zustande kam. Als wichtiges Ergebnis des Dialogs ist die gemeinsame Wahrnehmung der Teilnehmer festzuhalten, dass ein fachlich und persönlich offener und kundenzentrierter vertrieblicher Ansatz, ganz besonders im Mittelstand und bei Familienunternehmen, gute Erfolge für beide Seiten im Cloud Umfeld ermöglicht.

“Der Arbeitskreis Forum Hessen-IT ist eine freiwillige und offene Interessengemeinschaft von Teilnehmern aus dem hessischen IT-Umfeld. Am Arbeitskreis teilnehmen kann jeder Mitarbeiter eines hessischen IT-Unternehmens, sowie jeder hessische Studierende und Auszubildende der IT-Branche. Der Arbeitskreis bietet für kleine und mittlere IKT-Unternehmen eine offene Networking-Plattform. Unkompliziert, effizient, effektiv und dabei kostenlos. Ein Netzwerk, angelehnt an den Open-Source-Gedanken”. (vgl. Flyer Cloud Round Table)

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

Fachgruppe Big Data nimmt Arbeit auf – und wir sind auch dabei!

Veröffentlicht am 22.05.2014 von Ireen Raue , Event

Das Unternehmensnetzwerk IT FOR WORK hat unter dem Dach der IHK Darmstadt eine Fachgruppe zum Thema Big Data gegründet. Über eine gelungene Einführungsveranstaltung bei der IHK Darmstadt mit sehr interessanten Vorträgen und der Aussicht auf eine spannende Zusammenarbeit berichten wir im Folgenden.

Big Data wird für viele Unternehmen immer interessanter. Noch fehlt aber oft das Wissen, was sich dahinter verbirgt, wie und wofür man die Auswertung von großen Datenmengen im eigenen Unternehmen oder als Kundenlösung überhaupt einsetzen kann. Das Unternehmensnetzwerk IT FOR WORK und die IHK Darmstadt übernehmen hier die Initiative. Mit der Fachgruppe “Big Data” gibt es jetzt für Unternehmen die Möglichkeit, sich aktiv mit dem Thema zu beschäftigen, auszutauschen und sich besser zu vernetzen. Das Fachgruppenkonzept ist derzeit noch weitgehend offen und kann von allen Interessierten – Mitgliedern und Nicht-Mitgliedern – aktiv mitgestaltet werden.

Die Veranstaltung

Am 20.02.2013 fand die erste Veranstaltung und Gründung der Fachgruppe “Big Data” statt. Eine branchen- und hierarchieübergreifende Mischung von Teilnehmern hatte sich auf Einladung der Initiatoren Dr. Robert Rao von der axxessio GmbH und Marcel Tilly von Microsoft Research bei der IHK Darmstadt zusammengefunden. Interessenten zum Thema kamen vorrangig aus dem Management von Industrie und Wirtschaft und zum Teil auch aus Wissenschaft und Forschung sowie technischen Disziplinen.

Die Vorträge waren zum überwiegenden Teil technischer Natur. Hier wurde unter anderem auf die Auswertbarkeit von Twitter und die Möglichkeit der Visualisierung mit Excel Power BI eingegangen. Seitens Microsoft wurde vorgestellt, wie Big Data Tools in Windows Azure genutzt werden können. Zu dieser Praxis folgt in Kürze ein weiterer Artikel – bleiben Sie dran/gespannt! Weitere Vortragende kamen von IBM und der Software AG und stellten bereits existierende Kundenszenarien und -lösungen im Kontext von Big Data vor.

Die Fachgruppe

Die Fachgruppenleitung ist besetzt mit Dr. Robert Rao und Herrn Marcel Tilly als Stellvertreter.

Geplant ist ein Treffen der Fachgruppe alle drei Monate zum Erfahrungsaustausch, oder auch für Workshops. Das nächste Treffen wird vorraussichtilich am 03.06.2014 stattfinden. Wir sind bestimmt wieder mit dabei und erhoffen uns neben offenem Dialog, technischem Wissentransfer und Erfahrungsaustausch auch die Generierung des ein oder anderen konkreten Leads.

Weitere Informationen, wie auch die Präsentationen der wirklich sehr interessanten Vorträge, sind hier abrufbar:

http://www.it-for-work.de/Inhalte/Presse/Aktuelle_Meldungen/2794698/Big_Data_Gelungene_Fachgruppengruendung.html

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

Automatisiertes Anlegen von SQL Datenbanken in Windows Azure

Veröffentlicht am 25.04.2014 von André Dammeyer , Cloud , Windows Azure

Für die Entwicklung von Anwendungen auf Windows Azure werden wie in jeder Anwendung verschiedene Bestandteile (zum Beispiel Datenbanken) benötigt. Es gibt im Prinzip zwei Wege, um die benötigten Artefakte in Windows Azure anzulegen: Entweder wird es manuell im Windows Azure Management Portal vorgenommen, oder man nutzt die Windows Azure PowerShell cmdlets. Natürlich ist in Enterpriseprojekten der automatisierte Weg zu bevorzugen, während der manuelle Weg über das Management Portal für ad-hoc Projekte ebenfalls seine Berechtigung hat. In diesem Artikel stelle ich dar, wie einfach es mit den Windows Azure cmdlets ist, from scratch einen Datenbankserver und eine Datenbank in Windows Azure anzulegen.

Voraussetzungen

Neben den Systemvoraussetzungen sind grundsätzliche Kenntnisse im Umgang mit PowerShell Voraussetzung zum Nachvollziehen des Artikels. Zunächst beginnen wir mit den Systemvoraussetzungen, um mit den Windows Azure cmdlets zu arbeiten. Dazu müssen wir diese zunächst installieren und einrichten.

Installation der Windows Azure cmdlets

Man benötigt die Windows Azure cmdlets (Download unter …). Mit diesen cmdlets kann man das Deployment und Management von Windows Azure Artefakten realisieren. Die Installation der Windows Azure cmdlets lässt sich über den Microsoft Web Platform Installer durchführen. Nach der Installation kann man die cmdlets einfach über die “Windows Azure PowerShell Console” nutzen.

Einrichtung der Windows Azure cmdlets

Dafür muss die Windows Azure PowerShell Console gestartet und der Befehl “>Get-AzurePublishSettingsFile” ausgeführt werden. Es öffnet sich die Anmeldemaske zum Windows Azure Portal im Standard Browser.

image

Nach der Anmeldung wird das PublishingSettingsFile automatisch aus dem Windows Azure Portal heruntergeladen. Diese Datei muss im lokalen Dateisystem gespeichert werden. In der Datei ist ein sogenanntes Management Certificate mit den Credentials enthalten, welches man über den Befehl “>Import-AzurePublishSettingsFile” in die Windows Azure PowerShell Console importieren kann. Nachdem das PublishingSettingsFile importiert wurde, kann und sollte es aus dem lokalen Dateisystem wieder gelöscht werden und bei nur wenn nötig wieder neu importiert werden, damit die Datei nicht in falsche Hände gerät.

Hinweis: Um Informationen über die aktuell in der Windows Azure PowerShell console konfigurierte Windows Azure Subscription zu erhalten, einfach den Befehl “>Get-AzureSubscription” ausführen.

Hinweis: Wenn man mehrere Subscriptions auf die beschriebene Art und Weise importiert hat, kann man über den Befehl “>Select-AzureSubscription -SubscriptionName “XYZ”” die Subscription auswählen, mit der die Windows Azure PowerShell Console arbeiten soll.

Die eigentliche Arbeit kann beginnen…

Für die nächsten Schritte benötigen wir die SQL-cmdlets aus den Windows Azure cmdlets. Eine Übersicht über die verfügbaren Windows Azure SQL Database cmdlets bietet die Eingabe des Befehls “>help sql” in die Windows Azure PowerShell console.

image

Neuen Datenbankserver anlegen

Mit dem Befehl “>New-AzureSqlDatabaseServer” legen wir nun einen neuen Datenbankserver an. Dafür sind folgende Parameter notwendig, die dem Befehl übergeben werden:

  • Location: Gibt an, in welchem Windows Azure Rechenzentrum der Datenbankserver angelegt werden soll (z.B. “North Europe”).
  • AdministratorLogin: Gibt den Login-Namen des Administrators vom betreffenden Datenbankserver an.
  • AdministratorLoginPassword: Gibt das Passwort des Administrators vom betreffenden Datenbankserver an.

So wird zum Beispiel mit dem Befehl “>$Server=New-AzureSqlDatabaseServer -location “North Europe” -AdministratorLogin $Login -AdministratorLoginPassword $Password” ein neuer Datenbankserver im Windows Azure Rechenzentrum “North Europe” angelegt. Die Serverinformationen (ServerName, Location und AdministratorLogin) werden in der Variable “$Server” abgelegt.

Datenbankserver-Firewall-Regeln anpassen

Als nächstes werden mit dem Befehl “>New-AzureSqlDatabaseServerFirewallRule” die Firewall-Regeln für den Datenbankserver angepasst. Korrekte Firewall-Regeln sind Voraussetzung für den Zugriff auf die Datenbankserver. Wichtig ist zum Beispiel, dass der Zugriff von der aktuellen IP-Adresse des Rechners erlaubt ist, auf dem die Windows Azure PowerShell Console läuft, um mit dieser weitere Aktionen auf dem Datenbankserver durchzuführen. Der Einfachheit halber öffnen wir den Zugriff für den Test-Datenbankserver für alle IP-Adressen mit folgendem Befehl “>New-AzureSqlDatabaseServerFirewallRule -ServerName $Server.ServerName -RuleName “Open” -StartIPAddress “0.0.0.0″ -EndIPAddress “255.255.255.255″”, wobei dieses Vorgehen nicht empfohlen wird.

Neue Datenbank anlegen

Schließlich wird eine neue Datenbank angelegt. Zunächst muss man einen entsprechenden DatabaseServer-Kontext erstellen, bevor man die Datenbank anlegen kann. Dazu nutzt man den Befehl “>New-AzureSqlDatabaseServerContext” dem man Credentials bestehend aus dem Administratornamen und dem zugehörigen Passwort für den Datenbankserver mitgeben muss. Dazu erstellt man sich zuerst ein “PSCredential”-Objekt, das in etwa wie folgt aussieht:

“$ServerCredential = new-object System.Management.Automation.PSCredential($Login, ($Password | ConvertTo-SecureString -asPlainText -Force)) $Context = $Server | New-AzureSqlDatabaseServerContext -Credential $ServerCredential”

Im obigen Beispiel enthält die PowerShell-Variable “$Context” den Datenbankserver-Kontext, den man benötigt, um zum Beispiel eine neue Datenbank anzulegen. Die eigentliche Datenbank legt man mit dem Befehl “>New-AzureSqlDatabase” an. Dabei kann man einige Parameter mitgeben, der die Eigenschaft der Datenbank beeinflusst:

“New-AzureSqlDatabase -ConnectionContext $Context -DatabaseName $Database -Edition “Web” -MaxSizeGB 1 -Collation “SQL_Latin1_General_CP1_CI_AS””

Beispiel PowerShell Skript

Unter _createdb.ps1 finden Sie ein Beispiel PowerShell Skript, mit dem ein Datenbankserver sowie eine Datenbank wie beschrieben angelegt wird. Zusätzlich wird währenddessen ein PowerShell Skript generiert, mit dem die Datenbank und der Datenbankserver wieder entfernt werden können.

Zusammenfassung

Die hier dargestellte Vorgehensweise zum Anlegen von Windows Azure SQL Datenbanken ist prinzipiell auf jedes andere Artefakt in Windows Azure übertragbar. So können problemlos komplette Virtuelle Maschinen oder Websites automatisiert mit den Windows Azure cmdlets angelegt werden. Die Automatisierung solcher Aufgaben hilft dabei, Fehler zu vermeiden und Zeit einzusparen, weil sie häufiges manuelles Aufsetzen der Infrastruktur und dauernde Fehlersuche vermeidet, die falsch aufgesetzte Infrastrukturen leider bedingen.

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

Cloud hier, Cloud da, Cloud überall

Veröffentlicht am 28.03.2014 von Robert Schlachta , Cloud

Der Cloud-Hype geht weiter, und so bedarf es noch immer neuer Begriffe, um das Verständnis zu schärfen. In diesem Post werden nicht erneut die Definitionen aufgelistet, sondern eher eine vollständige Liste relevanter Begriff im Kontext “Cloud” bereitgestellt. Vollständige Liste – hat man damit bereits verloren? Dann liegt der Mehrwert des Artikels zumindest in der Darstellung der Zusammenhänge der Definitionen.

Die Anzahl der relevanten Cloud-Begriffe übersteigt die Anzahl der Finger unserer Hände, und typischerweise erfolgt damit automatisch eine Kategorisierung. Demnach ordnet der Autor die Begriffe entsprechend ihrer Häufigkeit bzw. ihres derzeitigen Verständnis-Grads. Ergänzt ist die Aufzählung um jeweils ein Max-7-Word-Statement sowie einen externen Link, der zu einer Begriffsdefinition führt. Die Auswahl der Links ist bewusst heterogen gewählt und zeigt die Vielfalt möglicher Definitions-Quellen.

Beginner:

Cloud Computing: “… erlaubt … jederzeit … einen geteilten Pool von … Rechner-Ressourcen ….” https://www.bsi.bund.de/DE/Themen/CloudComputing/Grundlagen/Grundlagen_node.html
Hybrid Cloud: “… is a cloud computing environment in which an organization provides and manages some resources in-house and has others provided externally.” http://searchcloudcomputing.techtarget.com/definition/hybrid-cloud
Private Cloud: “… dediziert bereitgestelltes Rechenzentrum, … dynamisch, … bedarfsorientiert … und … Virtualisier(t) ….” http://wirtschaftslexikon.gabler.de/Archiv/1020885/private-cloud-v3.html
Public Cloud: “… based on the standard cloud computing model, … available to the general public …” http://searchcloudcomputing.techtarget.com/definition/public-cloud
SaaS: Software as a Service – “… Software (wird) bei einem externen IT-Dienstleister betrieben.” http://de.wikipedia.org/wiki/Software_as_a_Service

Advanced:

Consumer Cloud: Services, die zumeist von B2C-Endkunden direkt konsumiert werden. http://jameskaskade.com/?p=1909
Community Cloud: “In einer Community Cloud schließen sich Unternehmen oder Organisationen der gleichen Branche zusammen…” http://www.itwissen.info/definition/lexikon/Community-Cloud-community-cloud.html
Enterprise Cloud: “… utilizing cloud … for competitive advantage … for business innovation…” http://whatis.techtarget.com/definition/Enterprise-Cloud-Computing-FAQ
Cloud Provider: “provider that offers … storage or software … via a … network.” http://www.webopedia.com/TERM/C/cloud_provider.html
Internal Cloud: siehe “Private Cloud”
External Cloud: siehe “Public Cloud”
EaaS: Everything as a Service – ” bedarfsorientierte Bereitstellung von IT-Ressourcen.” http://wirtschaftslexikon.gabler.de/Archiv/1057709/everything-as-a-service-eaas-v3.html
IaaS: Infrastructure as a Service – “Bereitstellung von IT-Hardware… ” http://wirtschaftslexikon.gabler.de/Archiv/1057710/infrastructure-as-a-service-iaas-v3.html
PaaS: Platform as a Service – “Service, … für Entwickler von Webanwendungen…” http://de.wikipedia.org/wiki/Platform_as_a_Service
XaaS Siehe Eaas

Professional:

Cloud Provisioning: Process of preparing and equipping an environment, which provides services. (Eine Kernkompetenz der eBiz Consulting)
Cloud Computing: siehe SaaS, IaaS, PaaS
Service Models: http://www.cloud-competence-center.com/understanding/cloud-computing-service-models/
OnPremise: OnPremise ist ein Nutzungsmodell für Computerprogramme (, welches) … der Nutzer … auf eigener Hardware (betreibt)” http://de.wikipedia.org/wiki/On_Premise
BaaS: Backend as a Service
MaaS: Monitoring as a Service

Folgende Darstellung bringt einen Großteil der oben aufgeführten Begriffe bildhaft zusammen:

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

Welche Wolke hätten’s denn gern?

Veröffentlicht am 03.03.2014 von Ronny Ulbricht , Cloud

Unter den Konzepten des Cloud Computing ergibt sich sowohl auf Anwender- als auch auf Anbieterseite eine Vielzahl an Möglichkeiten, um das Konzept zu verstehen als auch entsprechend zu vermarkten.

Die Interpretation der Cloud Computing Konzepte ist davon abhängig, ob man aus der Perspektive des Consumer- oder des Providers auf die Cloud schaut und welcher Fokus innerhalb der jeweiligen Sichtweise gesetzt wird. Hier lassen sich teilweise deutliche Differenzierungen vor-nehmen: So sieht beispielsweise der Privatanwender meist verschiedene Dienste in der Cloud, die er über unterschiedliche Geräte nutzen kann. Diese werden ihm durch den/die Provider zentralisiert und hoch-verfügbar angeboten. Unternehmen hingegen können neben den Software-Diensten auch ganze Serverstrukturen oder Messaging Systeme in die Cloud auszulagern. Aus der technischen Sicht lassen sich Realisierungskonzepte für Cloud Computing klarer abgrenzen und ihre jeweiligen Ausprägungen gliedern. Man spricht dabei vom sogenannten “Cloud-Stack”, in dem die jeweils übergeordneten Abstraktionsschichten auf die unteren aufbauen können, aber nicht zwingend müssen. Grundsätzlich setzt sich dieser Cloud-Stack aus den Konzepten “Infrastructure as a Service” (IaaS), “Plattform as a Service” (PaaS) und “Software as a Service” (SaaS) zusammen. Die Realisierungskonzepte, deren spezifische Implementierung und der Umfang ihrer Umsetzung unterscheidet sich von Provider zu Provider. Dies wird im Rahmen eines folgenden Artikels noch im Detail beleuchten. Neben technischen Ansätzen hinter Cloud-Computing lassen sich auch verschiedene organisatorische Ausprägungen von Cloud-Ansätzen unterscheiden, die spezifischen Anwendungsprofilen genügen sollen. Hierbei unterscheidet man folgende Cloud-Typen1:

Public Cloud

Der Begriff “Public Cloud” und die Angebote, die darunter fallen, können als frei verfügbare Dienste eines Anbieters gesehen werden. Dabei ist frei nicht gleichzusetzen mit kostenfrei: So bilden die bekannten “Google-Docs” ebenso ein Public Cloud-Angebot ab wie auch Microsofts Office 365.

Private Cloud

Private Cloud und Private Cloud-Dienste sind von Providern angebotene Dienste, die für den Endnutzer Cloud-Charakter innehaben, etwa Skalierbarkeit und wartungsfreie IT-Anwendungen. Jedoch werden diese Dienste aus Datenschutz- und IT-Sicherheitsgründen weiterhin vom Provider selbst betrieben. Beispiele für Anbieter von Private Cloud-Lösungen sind beispielsweise VMWare, Amazon oder DELL.

Hybrid Cloud

Als Hybrid Cloud bezeichnet man Mischformen der Public Cloud- und Private Cloud-Ansätze. Dabei läuft ein Teil der Dienste bei öffentlichen Anbietern über das Internet, während andere datenschutzkritische Dienste weiterhin im Unternehmen selbst betrieben und verarbeitet werden. Die Crux dabei in der Differenzierung der Prozesse in solche öffentlichen und privaten Dienste und der sauberen Trennung und Klassifizierung der Daten nach Datenschutztechnischen Gesichtspunkten.

Community Cloud

Last but not least stellt die Community Cloud einen eher seltenen Spezialfall der Cloud-Ausprägungen dar. Er umfasst Kontexte, in denen mehrere Unternehmen gemeinschaftlich Dienste sowohl nutzen als auch bereitstellen. Dabei fehlt jedoch der freie öffentliche Zugang, der stattdessen auf einen definierten Nutzerkreis beschränkt ist. Weitere Unterformen werden aufgrund ihrer spezifischen Eigenschaften differenziert, wie Sie in einem der nächsten Artikel lesen können. So stay tuned!

  1. http://www.cloud.fraunhofer.de/de/faq/publicprivatehybrid.html, FAQ Cloud
google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

eBiz live @WebSummit 2014

Veröffentlicht am 11.02.2014 von Ronny Ulbricht , Event

Eine gelungene Microsoft Werbeveranstaltung, die einen “Einblick in die aktuellen Trends der Microsoft Webtechnologien” versprach und lieferte. Getragen von zwei sehr sympathischen Vortragenden war es eine lohnenswerte Veranstaltung.

Der WebSummit war meine erste Veranstaltung im Jahr 2014, und damit ist sie auch die Erste, für die es einen eigenen Blog-Post in unserer neuen Serie “eBiz@Events” gibt. “Wie lässt sich so ein Event am besten beschreiben?” Am besten starte ich mit ein wenig mehr Kontext und erläutere, worum es eigentlich ging.

Die Rahmenbedingungen …

Als Wiederauflage des bereits 2013 durchgeführten Events sollte der Microsoft Web Summit 2014 “umfassende Einblicke in aktuelle Trends und Entwicklungen der Microsoft Webtechnologien bieten”1. Das Format ist ein Bekanntes und Bewährtes, man nehme ein allgemein formuliertes Thema (siehe oben), eine interessante Location (in diesem Fall KOMED im Mediapark Köln), erhebe keine Gebühren, und schon ist das Interesse geweckt. Dazu noch ein bis zwei hochkarätige Namen aus dem Microsoft Umfeld, so dass auch die gewünschte Zielgruppe angesprochen wird. Interessant bei diesem Event waren die zwei parallelen Vortragsstränge mit einem guten Mix aus allgemeinen und spezifischen Themen aus den Trends der Microsoft Webtechnologien.

Web Summit 2014 aus meiner Perspektive als Teilnehmer…

Da Frankfurt und Köln mit der Bahn ja nicht gerade Welten trennen (ca. 1,5h), habe ich dem Event entspannt entgegengesehen. Leider hatte die Bahn etwas dagegen, und so schaffte ich es gerade noch pünktlich zur Keynote um 9:30 Uhr, die übergreifend für die beiden Tracks gehalten wurde. Es startete mit einem sehr herzlichen Willkommen durch den Gastgeber in Person von Jon Galloway, der neben Mads Kristensen als Microsoft Corp Speaker Team den Track 1 an diesem Tag gestaltete. Er erläuterte die Agenda kurz und gab einen Überblick über die Basis Technologien, der leider etwas zu sehr in eine erste kleine Azure Werbetour abdriftete. Im weiteren Verlauf wurde der werbende Aspekt diskreter und ergab sich eher direkt aus den Inhalten. Die sympathische Art von Jon Galloway machte diese Einstiegsphase – gespickt mit teils eher dekorativen Demos – dann trotz aller Werbung für Windows Azure noch unterhaltsam. Nicht mehr offiziell als Teil der Keynote, aber ohne einen alternativen Beitrag im zweiten Track folgte die erste einstündige Session. Unter dem Titel “Introduction to ASP.NET and Visual Studio 2013 Web Tooling” schaffte es Mads Kristensen meiner Meinung nach, sowohl das Interesse von gedienten .NET Entwicklern – wie ich zum Beispiel –, als auch von Neulingen und Quereinsteigern an dem Konzept “One ASP.NET”, aber auch an dem neuen Visual Studio 2013 zu wecken. Dies gründet auf der Tatsache, dass viele der überzeugenden Features aus einer Extension für Visual Studio namens Web Essentials stammen, die – wie sollte es auch anders sein – eben von jenem Mads Kristensen entwickelt wurden. So ließ sich das Visual Studio 2013 (+ Web Essentials 2013) eindrucksvoll positionieren. Ein überarbeitetes Template für alle Ausprägungen Web Anwendungen, die Vereinfachung von Authentifizierungsmechanismen und der massiv ausgebaute Intellisence Support inklusive der Extensibility des Studio als solches überzeugten mich auf ganzer Linie. Mads Kristensen gestaltete eine tolle Session mit zahlreichen gelungenen Live Demos und jeder Menge Infos zu Konzepten, Ideen und Tooling, die das Entwicklerherz aufblühen ließen. Ich entschied mich recht früh, komplett im ersten Track zu bleiben, was nicht daran lag, dass der parallele Vortragsstrang mit ebenfalls guten Speakern nicht auch interessante Themen zu bieten hatte, aber ich wollte die Story gern End-to-End hören, denn so war dieser Track auch aufgebaut. Es gelang beiden Vortragenden, diese Story auch zusammen anschaulich und attraktiv für das Publikum in vier Sessions zu transportieren. Dabei wurde recht schnell deutlich, dass Visual Studio 2013 + WebEssentials auf der einen Seite (Mads Kristensen) und Windows Azure auf der anderen Seite (Jon Galloway) die Tools waren, für welche die Werbetrommel gerührt wurde. In jeweils zwei Tracks wurde vermittelt, wie Frontend – & Backend – Entwicklung mit dem neuesten Tooling und nach dem neuesten Konzept “One ASP.NET” umzusetzen wäre. So wurde in vielen kleinen Beispielen und Demos auf das neue MVC 5 Template und Web API eingegangen, natürlich immer im Kontext der entsprechenden Microsoft Produktpalette. Die Vorträge und Demos waren ausgesprochen aufschlussreich und unterhaltsam. Zum Ende wurde der Fokus auf die Extensibility des Visual Studio (zu nennen sei hier SideWaffle), realitätsnahe Problemstellungen und damit verbundene Cloud basierte Lösungskonzepte gelegt. Da wären z.B. Cloud based Caching, Load Testing in der Cloud oder Source Code Repository und Deployment Package Management zu nennen. Dementsprechend gab es eigentlich keine gesonderte Closing Note, und so endete eine sehr kurzweilige und interessante Veranstaltung etwas früher als geplant und entließ mich zufrieden und um einiges an Informationen reicher.

Das Fazit …

Was ist die Quintessenz aus dem Besuch der Web Summit 2014? Das sollte man wie folgt differenziert betrachten: Es war zum einen eine typische Werbeveranstaltung von Microsoft, aber eine, die für meine Begriffe richtig gut gemacht war. Es wurden anschaulich Inhalte mit einer dem Titel entsprechenden technischen “Tiefe” transportiert ohne dafür Teilnahmegebühren zu erheben. Das ist mehr, als viele andere Formate dieser Art von sich behaupten können. Die Microsoft Corp. Speaker Jon Galloway und Mads Kristensen haben die Veranstaltung geprägt und auf ihre eigene sympathische Art auch so erfolgreich gemacht. Bleibt nur zu hoffen, dass sich dies auch zukünftig wiederholen lässt. Kleinere Schwächen: Platzmangel in den Pausen – wobei die Location als solche gut gewählt war – und die zeitliche Planung, denn außer der etwas längeren Mittagspause (bei der viel Zeit für das Anstehen beim Essen verging) fehlte leider die Zeit für etwas Networking. Abschließend würde ich den WebSummit als informative Veranstaltung für IT-affine Entscheider und Entwickler empfehlen, solange man seine Erwartungen dem Charakter der Veranstaltung anpasst, denn es ist kein Training und keine Entwicklermesse. Für die Art der Veranstaltung und als kostenloses Angebot lohnt es sich allemal … solange die Qualität gehalten werden kann.

  1. http://www.microsoft.com/germany/visualstudio/aktuell/news/show.aspx?id=msdn_de_52062]
google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

Wolkig mit Aussicht auf Erfolg

Veröffentlicht am 31.01.2014 von Ronny Ulbricht , Cloud

Ob Cloud, Private Cloud, Public Cloud, Cloud Service oder Hybrid Cloud … die Fülle ähnlich lautender Begriffe, die inzwischen in aller Munde sind, illustrieren das Potential des “Cloud Computing” für die IT-Welt.

Es umfasst sowohl den Bereich der Anbieter von verschiedenen Modellen und Diensten der Cloud als auch ihre Endnutzer im privaten und im unternehmerischen Umfeld. Das Beratungs- und Marktforschungsunternehmen Gartner attestierte dem “Cloud Computing” etwa das Potential, “das Geschäftsleben in ähnlicher Weise zu revolutionieren wie einst das E-Business”1, in anderen Publikationen wird es sogar mit der industriellen Revolution gleichgesetzt.2 Die “Cloud” wird mehr und mehr Teil unseres Alltags und durch Unternehmen und private Endanwender bewusst und unbewusst, direkt und indirekt genutzt. Doch was verbirgt sich eigentlich hinter den Begriffen, wie definiert sich die “Cloud”, welche unterschiedlichen Ansätze und Ausprägungen gibt es in ihrem Umfeld, und was sind die Vorteile, aber auch die Probleme, die die Cloud mit sich bringt?

“Cloud” – ein wolkiger Begriff

Den Begriff “Cloud” bzw. Cloud Computing klar zu definieren und abzugrenzen, erscheint auf den ersten Blick recht schwierig. Nicht zuletzt aufgrund dieser Tatsache ist ihre Namensgebung so gewählt, denn historisch gesehen ist Cloud (bzw. Wolke) in der Informationstechnik ein Sinnbild für “Rechnernetze”, deren Inneres unbedeutend bzw. unbekannt ist.3 Am ehesten lässt sich das dahinterliegende Konzept als Weiterführung und Kombination von IT-Konzepten verschiedener Ausprägungen und struktureller Ansätze zusammenfassen. So sind z.B. Grid-Computing, Virtualisierung, “Software as a Service” einige Beispiele der vielfältigen Konzepte aus dem Cloud Umfeld. Die Definition der Cloud ist für den Nutzer ebenso nebulös wie eben der Begriff selbst im wörtlichen Sinne, die genutzten Dienste, ihre Formen und Umsetzungen sind wie “in einer Wolke verborgen”. Auch auf den zweiten Blick ist es nur bedingt möglich, eine vollständige Definition des Cloud Begriffs zu geben. Folgt man den Beschreibungen der großen Anbieter von “Cloud Produkten”, so orientiert sich deren Definition stark an ihren angebotenen Services. Geprägt wurde das, was die IT-Welt allgemeinhin unter dem Begriff “Cloud” (bzw. Cloud Computing) versteht, maßgeblich durch die Firmen Amazon, Google und später auch Microsoft. Vor allem die schnell wachsenden Unternehmen Amazon und Google waren mit der Problematik konfrontiert, ihre Systeme so anzulegen, dass diese entsprechend mitwachsen und Spitzenlasten abfangen können, wie z.B. zu Feiertagsgeschäften oder Großereignissen. Nachdem die Anbieter Lösungen, basierend auf ihren Service-orientierten Architekturen, realisiert hatten, boten sie diese als sogenannte “Cloud”-Produkte auch ihren Kunden an. Dies stellt die Basis des Produktes Cloud / Cloud-Computing dar, wie wir sie heute kennen. Um “die Cloud” besser zu verstehen, ist es sinnvoll, sich mit dem Thema detailliert auseinanderzusetzen. In den nächsten Artikeln geht es daher um die technischen Konzepte und verschiedenen Ansätze rund um das Thema Cloud-Computing. So stay tuned!

  1. Gartner Says Cloud Computing Will Be As Influential As E-business; Gartner, 26. Juni 2008
  2. IT-Business, 19.08.2013 oder “Cloud Computing: the 4th IT Industrial Revolution!“, cloudwave.com 18. Juli 2012
  3. The Internet Industry Is on a Cloud — Whatever That May Mean, Wall Street Journal, 26. März 2009. Abgerufen am 29. Januar 2012
google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

Der eBizTalk ist live!

Veröffentlicht am 31.01.2014 von André Dammeyer , Allgemein

Der eBizTalk ist der Business- und Technologie-Blog aller MitarbeiterInnen der eBiz Consulting GmbH.

Die eBiz Consulting GmbH ist seit 2011 am Markt und mit 9 BeraterInnen in den Bereichen Business Consulting und Technical Consulting für verschiedene Kunden erfolgreich tätig.

Neben und in unseren spannenden Kundenprojekten beschäftigen wir uns mit einer Vielzahl an Business- und Technologie-Themen. Dabei machen wir zahlreiche theoretische wie auch praktische Erfahrungen und erarbeiten Wissen, das wir ab sofort über unseren eBizTalk in die Öffentlichkeit tragen. Damit nehmen wir den Austausch mit KollegInnen und Kunden auf und leisten einen Beitrag zur IT-Community.

Was wollen wir erreichen …

Für das Jahr 2014 haben wir uns zum Ziel gesetzt, jeden Monat mindestens einen Artikel im eBizTalk zu veröffentlichen. Darin lassen wir ein breites Spektrum unseres Wissens und unserer Interessen einfließen. Gerade die Kombination von Business und Technologie führt zu interessanten Erkenntnissen und Ideen.

Im eBizTalk wird es sowohl einzelne Artikel als auch Artikelserien geben, in denen Themen analysiert und aus verschiedenen Blickwinkeln betrachtet werden. Die MitarbeiterInnen der eBiz Consulting GmbH bringen ihr eigenes Know-How ein und geben jedem Artikel eine persönliche Note.

Die Reise beginnt …

Und zwar mit dem ersten Artikel einer Serie zum Thema “Cloud Computing”. Wir wünschen allen Leserinnen und Lesern viel Spaß mit dem eBizTalk und laden sie herzlich zum Austausch ein.

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise