eBizTalk - Berichten, Unterhalten, Weiterbilden
Ob Branchendiskurs, Fachartikel oder ein Blick hinter die Unternehmenskulissen: eBizTalk ist die Plattform, die uns auffordert, unsere Leser über Events und Projekte auf dem Laufenden zu halten. Und uns gegenseitig natürlich auch.

Warum man eine Namenkonvention bei Microsoft Teams braucht

Veröffentlicht am 01.05.2018 von Hieronymus Deutsch , Collaboration

Microsoft Teams verwendet für die Rechteverwaltung die Office 365 Groups. Worauf man deswegen achten sollte, um die IT weiterhin sauber zu halten, wird im Folgenden beschrieben.

imageFür jedes neue Team in Microsoft Teams wird eine neue SharePoint Seite und eine neue Office 365 Gruppe angelegt. Daraus ergeben sich 2 Probleme:

  • Wird ein neues Team angelegt für ein organisatorisch bereits aktives Team welches seine Arbeit in SharePoint bereits organisiert wird die SharePoint Landschaft schnell sehr unübersichtlich und unverständlich, da durch die Erstellung nun zwei gleichnamige SharePoint Seiten existieren.
  • Eine Office 365 Group hat eine eigene E-Mail Inbox mit gleichnamiger Adresse. Falls ihr nun bereits einen E-Mail-Verteiler mit dem gleichen Namen habt, könnt ihr euch vorstellen, dass Mails nicht dort ankommen wo sie hinsollen, da die Gruppe leicht mit dem Verteiler verwechselt werden kann.


Was man dagegen machen kann:

image

imageMicrosoft hat zur Lösung der oben genannten Probleme eine Möglichkeit geschaffen die Rechteverwaltung Tool-Übergreifend zu gestalten. Da Groups grundlegender für die Systemlandschaft sind als die einzelnen Services, empfiehlt es sich in erster Linie bestehenden Gruppen ein MS-Team zuzuweisen (Abbildung 2).

Falls ihr E-Mail Verteiler Listen verwendet und diese nicht umbenennen wollt, solltet ihr ein Präfix bei der Benennung des Teams verwenden (was sich auch auf die Group und SharePoint Seite auswirkt). Ein Beispiel könnte sein: „GRP_Teamname“. Auf diese Weise ist es auf einem Blick ersichtlich wohin die Mail geht.

Auch wenn jedes Microsoft Tool seine eigene, leicht zu verwendende Rechteverwaltung mitbringt, ist es auch möglich diese Tool-übergreifend zu gestalten. Es ist gut dies im Hinterkopf zu haben, bevor man ein neues Programm einführt. So erspart ihr euch später viel Frust.

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

SQL Server Konferenz 2018 in Darmstadt

Veröffentlicht am 13.03.2018 von Ireen Raue , SQL Server , Data , Azure

Die SQLPass Deutschland hat dieses Jahr vom 26.-28.02. wieder die SQLKonferenz ausgerichtet. Stattgefunden hat die Veranstaltung im Darmstadium in Darmstadt. Ein Pre- und zwei Konferenztage, die vollgepackt waren mit interessanten und informativen Vorträgen rund um den SQL Server, Azure sowie BI- und Big Data - Themen.

clip_image002Pass Deutschland e.V. ist die deutsche Microsoft Data Platform Community und richtet verschiedene Events rund um dieses Thema aus, unter anderem einmal im Jahr die SQLServer Konferenz. Der Verein ist nicht kommerziell und sieht es als sein Ziel, den Nutzern der Microsoft Data Plattform die notwendigen Mittel zu geben, um die taktischen und strategischen Ziele ihrer Organisation, unter Einsatz der Microsoft Data Plattform zu erreichen. (siehe www.sqlpass.de)

Der Vorstand des Vereins eröffnete dann auch die Konferenz mit einer entsprechenden Keynote. Unter anderem wurden einige der Aussteller und deren Tools vorgestellt. Besonders in Erinnerung geblieben ist mir die Firma DataCore-Software mit dem Tool MaxParallel. Damit wird die IO-Last eines Servers besser auf die zur Verfügung stehenden Kerne aufgeteilt und damit, wie der Name schon sagt, parallelisiert. Das ermöglicht eine Performanceverbesserung ohne jegliche Anpassung der eigenen Anwendung. 

Bei 58 Sessions und fast immer 6 gleichzeitig stattfindenden Vorträgen, fiel es mir bei manchen Slots schon wirklich schwer, mich zu entscheiden und fast immer waren die Sessions sehr informativ und interessant. Das alles hier aufzuführen würde wohl den Rahmen sprengen, deshalb beschränke ich mich auf eine kleine Auswahl, der für mich interessantesten Themen.

Aus dem Business Intelligent (BI) Bereich gab es einen Vortrag zum Power BI Report Server von Wolfgang Straßer. PowerBI.com ist ja bereits seit über 2 Jahren als cloudbasierter Dienst verfügbar, aber nicht jeder möchte seine Reports über die Cloud bereitstellen. Mit der Veröffentlichung des Power BI Report Server (PBIRS) im Juni 2017 wurde ein Teil der Power BI Funktionalität nun auch für das eigene Rechenzentrum und somit die eigenen Server verfügbar gemacht. Dies ermöglicht es, firmenintern Reports abrufbar zu machen. Der Funktionsumfang ist etwas eingeschränkt und die Nutzung muss entsprechend lizenziert sein. Man braucht entweder eine Power BI Premium Lizenz oder eine SQL Server Enterprise Edition mit Software Assurance. Mit dem geplanten Cloud- und on-premises Feature-Gleichstand von Microsoft kann man hier aber vermutlich noch einiges erwarten.

Ein weiterer Vortrag dieser Themenreihe war Power BI und IoT von Markus Raatz. Hier wurden die verschiedenen Streaming Möglichkeiten und deren Visualisierung vorgestellt. Leider geriet der Vortrag etwas kurz, da wir auf Grund eines Feueralarms das Gebäude verlassen mussten.

clip_image002[5]Aus Entwicklersicht war der Vortrag „SQL für alle Lebenslagen“ von Christoph Muthmann sehr spannend. Kurzweilig und mit vielen Beispielen aus dem alltäglichen Leben in der SQL Entwicklung, konnte man sich hier die ein oder andere Idee mitnehmen.

Einige interessante Vorträge gab es außerdem zu Datenbankanalyse und -optimierung. Besonders gut fand ich hier „Database tuning advisor vs. Database management views“ von Torsten Strauss und „Automatische Datenbankoptimierung … Funktioniert das wirklich?“ von Mark Aslan Kuschel.

Dabei ging es vorrangig darum, wie man die Indizierung der Datenbank optimal hält, also herausfindet, welche Indizes fehlen, nicht mehr gebraucht werden oder ineffizient sind. Ab SQL Server 2017 steht dafür eine automatische Datenbankoptimierung zur Verfügung. Genutzt werden dabei die DMV (Datenbank Management Views) und auf deren Grundlage wird über Neuanlage oder Löschen eines Index entschieden. Über die IndexUsage und MissingIndex Views kann man das natürlich auch manuell mit entsprechenden Abfragen ermitteln, aber blindlings ausführen würde ich das nicht. Oft gibt es hier doppelte oder sich überschneidende Vorschläge für neue Indizes und auch bei der Benutzung der Indizes werden nur Ausführungen seit dem letzten Neustart des Servers herangezogen. Ein deutlich besseres Ergebnis erhält man mit Hilfe des Database Tuning Advisors, auch wenn hier etwas mehr Vorbereitung nötig ist, bevor man ein Ergebnis erhält.

Seit SQL Server 2016 gibt es den QueryStore. Eine Live Abfragestatistik mit graphischer Oberfläche, über die ressourcenintensive Queries ausgewertet werden können, was die Analyse und auch Bearbeitung dieser Queries deutlich vereinfacht. Um dieses Feature auch Usern älterer Server Versionen verfügbar zu machen, wurde das Open Source Projekt OpenQueryStore ins Leben gerufen. Einer der Co-Kreatoren William Durkin hat in dieser Session das Design von OQS vorgestellt und in einigen Demos die Feature und auch Grenzen gezeigt. Wenn auch die graphische Oberfläche hier nicht interaktiv ist und einige Schritte per direktem SQL-Befehl gemacht werden müssen, ist das eine super Alternative und die Weiterentwicklung sicher noch nicht abgeschlossen.

clip_image002[7]Im Großen und Ganzen eine gelungene Veranstaltung, aus der ich sehr viel Input mitnehmen konnte und die SQLKonferenz im nächsten Jahr ist schon vorgemerkt.

Tame the Data Monster! Das Maskottchen der SQLPass gab es zur Erinnerung für alle am Ende der Konferenz noch zum Mitnehmen.

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

Wie mache ich mir die InMemory-Technologie des SQL Server 2014 für bestehende Projekte nutzbar!

Veröffentlicht am 05.03.2018 von Ireen Raue , SQL Server , Data

In einem aktuellen Projekt wurde im Zuge eines Hardwaretausches der SQL Server von 2008 auf 2014 migriert, wobei in diesem ersten Schritt keine funktionalen oder technischen Änderungen an den Datenbanken durchgeführt wurden. Da der SQL Server 2014 aber einige technische Verbesserungen mit sich bringt, soll nun überprüft werden, in wie weit diese für die bestehenden Datenbanken zur Verbesserung der Performance genutzt werden können. Die Ergebnisse meiner Recherche dazu möchte ich hier darstellen.

Wer kennt das nicht…?

  • In eine DB strömen große Datenmengen aus verschiedenen Quellen
  • Erwartet wird eine gute Leseperformance gekoppelt mit periodisch auftretenden Batch Inserts/Updates sowie eine niedrige Latenz
  • Intensive Business Logik, die auf dem DB-Server ausgeführt werden muss

Und diese Liste kann man sicher noch um einiges erweitern. Der SQL Server 2014 verspricht aber mit der neuen InMemory-Technologie, an diesen Stellen helfen zu können.

imageDurch den Übertrag ganzer Tabellen oder auch nur von Teilen einer Tabelle in memoryoptimized tables und die Umwandlung von Transact-SQL Code in Natively compiled Stored Procedures soll sich die Performance deutlich verbessern (siehe Bild unten). Voraussetzung dafür ist aber auf jeden Fall genügend Arbeitsspeicher, da die Daten aus diese Tabellen im Arbeitsspeicher gehalten werden.

Wer wünscht sich das nicht… Benefits von In-Memory OLTP (Online Transaction Processing )

  • Eliminierung von Konflikten
  • Effizientes Einfügen der Data
  • Geringere Wartezeiten
  • Minimierung der Code Ausführungszeiten

Und auch hier ist die Liste, der von Microsoft versprochenen Verbesserung noch erweiterbar. Je nachdem wieviel Daten und auch Prozeduren übertragen werden, wird versprochen:

imageUm das auch bei unserem Projekt einsetzten zu können, habe ich mich durch einige Microsoft-Seiten gelesen (die Linksliste befindet sich unter diesem Beitrag) und versucht auf kompakte Weise einen für uns und wahrscheinlich auch für viele andere Projekte machbaren Weg zur Analyse und evtl. Umsetzung zu finden. Eine Vorab-Analyse ist sehr wichtig, da nicht alle Tabellen und Prozeduren für einen Übertrag geeignet sind. In manchen Projekten kann das Ergebnis dieser Analyse auch sein, dass ein Einsatz der InMemory-Technologie nicht ohne großen Umbauaufwand realisierbar ist. In diesem Fall sollte man immer abwägen, ob die angestrebte Performanceverbesserung den Aufwand tatsächlich gerechtfertigt oder es wert ist.


image

Um eine valide Aussage zur Verbesserung geben zu können, muss man den Vorzustand mit dem Nachzustand vergleichen können. Es ist also unerlässlich ein paar Daten zur Performance zu sammeln.

Für die Analyse der Datenstruktur und möglicher Bottlenecks, die durch inMemory verbessert werden könnten, stehen im SQL ManagementStudio Tools zur Verfügung. Zum einen ist das das ARM-Tool. Hier wird mit Hilfe des Management DataWarehouse eine Analyse der aktuellen Performance der Datenbank gemacht und als Ergebnis gibt es den Transaction Performance Analysis Report.

Das ARM-Tool gibt Vorschläge welche Tabellen und Proceduren für inMemory in Frage kommen, wie hoch die Performanceverbesserung wäre und welchen Migrationsaufwand man bei den Objekten hätte.

Außerdem gibt es noch den Memory Optimization Advisor und Native Compilation Advisor. Damit werden die zur Transformation ausgewählten Objekte auf eventuelle InMemory Unverträglichkeiten überprüft. Was unter anderem dazugehört, habe ich bereits in einem anderen Blogbeitrag beschrieben. (Link zu Blog: SQL Server InMemory).

Im folgenden Bild sind alle Schritte noch mal feiner gegliedert dargestellt.

image

Diese Herangehensweise wird auch so von Microsoft empfohlen und kann unter „Determining if a Table or Stored Procedure Should Be Ported to In-Memory OLTP“ siehe Linkliste, genauer nachgelesen werden. Dort ist auch sehr gut beschrieben, wie der Data Collector eingerichtet werden kann.

Weiterführende Links:

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

Cloud for All und Modern Workplaces - eBiz@TechSummit Frankfurt

Veröffentlicht am 28.02.2018 von Mahmoud Habiballah , Event , Azure , Collaboration

Mit mehr als 2000 Teilnehmern, 42 Sessions, zahlreiche Workshops und zahlreichen Partnern standen natürlich Azure und Microsoft 365 im Mittelpunkt des Microsoft Technical Summit 2018 in Frankfurt. Wie die letzten Jahre auch war die eBiz Consulting auch mittendrin.

Für die eBiz gehört die Microsoft Tech Summit schon seit ein paar Jahren fest zum Veranstaltungsplan, aber für mich war es die erste, größere Microsoft Veranstaltung, an der ich als Mitarbeiter der eBiz Consulting GmbH teilnehmen konnte. Und um es vorweg zu nehmen, aus meiner Sicht hat sich der Besuch gelohnt.

Test

Das Event hatte zwei thematische Schwerpunkte – Microsoft Azure und Microsoft 365 – und startete entsprechend mit zwei Keynotes – „Microsoft Azure - Cloud for All“ und „Create a modern workplace with Microsoft 365“. Große, neue Ankündigungen haben gefehlt, ein großes Moto jedoch nicht, welches später auch alle Sessions und Veranstaltungen begleitet

“The four pillars of Azure: Productive, Hybrid, Intelligent, Trusted”

Die Veranstaltung fand in der Frankfurter Messe - Halle 3 statt und verteilte sich auf zwei Tage. Passend zu den zwei Kernthemen war der erste Tag im Fokus von Sessions und Workshops rund um Microsoft 365, jedoch nicht ohne Bezug auf Azure. Für alle die Microsoft 365 bisher weniger oft gehört haben:

Microsoft 365 = Office 365 + Windows 10 + Enterprise Mobility & Security

Wie der Titel der Keynote bereits andeutet, ging es um das moderne Arbeitsumfeld und natürlich um das Zusammenarbeiten. Technisch war, neben der Office Suite im Allgemeinen, natürlich Microsoft Teams als Collaboration Tool ein wesentliches Thema. Für das Entwicklerherz von größtem Interesse war aber sicherlich die Microsoft Graph API. Themen wie die Integration zwischen Office365 und Cortana in Outlook, sowie neue Office365 Features wie z.B. „Powerpoint Ideas“ sind nennenswert und ein weiterer Schritt in der Modernisierung von Office.

image

Am zweiten Tag war eher das Thema Microsoft Azure im Fokus der Veranstaltung. Microsoft zeigte verschiedene Sessions zum Thema Serverless Computing und welche Features Azure Functions und Logic Apps bieten. Auch die Integration mit anderen Azure Diensten wie z.B. API Management, 3rd Party Lösungen, Entwicklungs- und Testwerkzeugen haben nicht gefehlt.
Vor allem aber beim Thema Hybrid Cloud war interessant zu sehen, was Microsoft unter „Cloud for All“ und „Hybrid Cloud“ versteht. In der Session „Unlocking your hybrid Cloud with Azure Stack“ wurden zahlreiche Szenarien gezeigt, wie man mit Azure Stack eine konsistente und effiziente Hybrid Cloud Strategie, mit minimalen Aufwand umsetzen kann.
Dass es bei Hybrid Cloud nicht nur um Infrastruktur-Lösungen geht, sondern auch mehr und mehr um die Verwaltung von Ressourcen in unterschiedlichen Infrastrukturen, konnte man Dank der Session zum Thema Security Center erkennen. Eine einheitliche intelligente Lösung für die Überwachung, sowie die Erkennung von Bedrohungen und Anomalitäten dank Advanced Threat Protection und Security Analytics, die dank Machine Learning neue Bedrohungen und Gefahren erkennen und analysieren können.
Ein Wort noch zur Session „Implement a secure and well managed Azure infrastructure“ von „Adwait Joshi“, die wegen sehr großem Teilnehmerinteresse wiederholt werden musste. Diese Tendenz hat man bei fast allen, sicherheitsbezogenen Sessions bemerkt und sie zeigt besonders gut die Interessenlage beim Thema Cloud in Deutschland wieder.

Fazit aus Sicht der eBiz:

Mit der Tech Summit 2018 ist es Microsoft gelungen, die aktuellen Trends und Best Practices in ihrem Umfeld aufzuzeigen und einen Ausblick auf seine Roadmap zu geben. Auch ihren Ansatz „Microsoft Azure - Cloud for All“ konnte man konsistent in der gesamten Veranstaltung wiederfinden.
Spezifische, technische Ansätze wie Cross Plattform oder Cross Device sind kein großes, neues Thema mehr bei Microsoft, sondern eher die Normalität, die bei jeder Lösung berücksichtigt ist. Der Fokus liegt eher darauf, die Partner optimal mit Lösungen zu unterstützen, damit diese mit und für ihre Kunden optimale Erfolge erzielen können. Es ist Microsoft gelungen, relevante Szenarien aufzuzeigen und zu präsentieren wie diese mit dem Microsoft Portfolio angegangen werden können.

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise

Microsoft Zertifizierung von zu Hause - Proctored Exam

Veröffentlicht am 31.01.2018 von Ireen Raue , Insights@ebizcon , Weiterbildung

Nach fast zweijähriger Pause wollte ich endlich meinen Zertifizierungsplan weiterverfolgen. Wie das wohl fast jeder kennt, der auch schon eine Zertifizierung gemacht hat, kostet das einiges an Zeit. Zum einen muss man Zeit zum Lernen finden und dann einen Termin für die Prüfung selbst. Meist kann man die nur unter der Woche in einem Prüfungscenter ablegen. Bei mir kam dann noch eine längere Anfahrt dazu. Allein für die Prüfung wird also mindestens ein halber Arbeitstag gebraucht. Mit dem Proctored Exam soll genau diese Zeit verkürzt werden. Man kann die Prüfung mit einer online Überwachung von einem selbst gewählten Ort aus ablegen.

imageAuf dem Weg zur nächsten Zertifizierungsstufe standen mir 10 verschiedene Prüfungen zur Auswahl. Die erste Aufgabe bestand also darin zu entscheiden, welche dieser Prüfungen mache ich jetzt und wann lerne ich dafür. Ich suchte also eine der Prüfungen heraus und als ich mich halbwegs sicher mit den Prüfungsinhalten fühlte, machte ich mich daran, einen Prüfungstermin zu suchen Da wurde es dann schon schwieriger. Allzu weit in der Zukunft sollte der, wenn möglich nicht liegen, jetzt wo das ganze Wissen noch frisch im Kopf ist. Aber so viel Zeit gab mein Terminkalender auch nicht her und im Prüfungscenter musste es ja dann auch noch passen.

Auf meiner Suche nach einem Testcenter – das letzte war über eine Stunde Autofahrt entfernt – bin ich auf das Proctored Exam gestoßen. Ich hatte bis dato noch nicht davon gehört und habe dann ein wenig im Internet recherchiert. Das Proctored Exam ist eine überwachte Online Prüfung. Ich konnte mir nicht so recht vorstellen, wie Microsoft sicherstellen will, dass nicht gespickt oder die Prüfung eventuell aufgezeichnet wird. Eine kurze Beschreibung auf der Microsoft Seite: https://www.microsoft.com/en-us/learning/online-proctored-exams.aspx erklärt das Ganze auch nochmal und dort habe ich auch dieses Video gefunden. Hier wird gezeigt welche Vorbereitungen dafür getroffen werden müssen, wie der Raum auszusehen hat, in dem man sitzt, wie man „überwacht“ wird und welche weiteren Rahmenbedingungen gelten. Das klang alles machbar, also habe ich bei der von mir gewählten Prüfung geschaut und tatsächlich gab es dafür die Möglichkeit, diese als Proctored Exam abzulegen.

image

Über Pearson VUE habe ich mich also durch die Anmeldung geklickt und konnte dort ohne Verzögerung für den gleichen Tag die Prüfung buchen. Es bestand sogar die Möglichkeit eine Prüfung bis 22:00 Uhr zu beginnen, für diejenigen, die sich so spät abends noch konzentrieren können. Ich selbst habe mir einen Termin am späten Nachmittag rausgesucht, der nur 30 min nach der Anmeldung lag und konnte nach der Bezahlung direkt beginnen.

imageVor der Anmeldung sollte man unbedingt einen Testlauf machen, um festzustellen, ob der Rechner für die Ausführung der Software geeignet ist. Aber das wird alles während des Anmeldevorgangs beschrieben. Nach der Installation der Software PVProctor ging es los. Ein „Greeter“ (offizielle Bezeichnung) meldete sich zwei Minuten nach Eingabe des Prüfungscodes und führte mit mir den Check-in zur Prüfung durch. Dazu wird über die Kamera ein Bild von Gesicht und Ausweis gemacht. Ich hatte bereits im Vorfeld einen Großteil aller losen Blätter und Notizen weggeräumt, also gleich die Gelegenheit genutzt, den Schreibtisch mal wieder aufzuräumen und auszumisten. Mit der Kamera musste ich dem Proctor den Schreibtischbereich genau zeigen. Da wurde dann auch nochmal der ein oder andere Gegenstand bemängelt, den ich auch noch wegräumen musste, meine Stifte zum Beispiel. Trinkflasche und Becher musste ich genau in die Kamera halten und einen 360° Schwenk durchs Zimmer machen inklusive der Decke und dem Boden. Damit kennt Pearson VUE jetzt mein gesamtes Büro. Mir wurden nochmal die speziellen Prüfungsrichtlinien erklärt. Während der gesamten Prüfung:

  • muss mein Gesicht im Kamerasichtfeld bleiben
  • niemand darf das Zimmer betreten
  • ich darf nicht reden
  • das Handy darf nicht benutzt werden oder sogar in Greifweite liegen, aber im selben Raum musste es sein für den Fall technischer Probleme

Wird eine dieser Regeln nicht eingehalten, wird die Prüfung abgebrochen und gilt dann als nicht bestanden. Wer also nicht sicherstellen kann, ungestört zu sein, sollte sich besser für das Testcenter entscheiden. Der gesamte Vorgang hat ca. 10-15 Minuten gedauert und dann ging die eigentliche Prüfung los.

Ein bisschen eigenartig war es dann schon, vor dem Laptop zu sitzen und zu wissen, dass ich durch die Kamera beobachtet werde und im Hinterkopf Gedanken wie: „Hoffentlich klingelt jetzt keiner!“ oder „Bloß nicht zu viel bewegen, damit man nicht aus dem Bild kommt.“ Da hat man in einem Testcenter mit Kamera an der Decke schon mehr Bewegungsfreiheit.

Für die eigentliche Prüfung habe ich dann nochmal eine gute Stunde gebraucht. Wie im Testcenter auch, gab es direkt nach Beenden der Prüfung das Ergebnis mit der erleichternden Mitteilung: „Bestanden“. Damit war das Proctored Exam abgeschlossen und „Big Brother“ hat mich wieder verlassen.

Ich habe so zu den üblichen vier bis sechs Stunden zum Ablegen einer Prüfung nicht mal ganze zwei gebraucht und konnte sie zu einem Zeitpunkt ablegen, der mir passte. So spät hätte ich in einem Testcenter vermutlich keinen Termin mehr bekommen. Ich werde diesen Weg für weitere Prüfungen definitiv wieder in Betracht ziehen.

Das Beste zum Schluss: Ich bin mit der bestandenen Prüfung jetzt Microsoft Certified Solution Expert (MCSE) Data Management and Analytics.

google_about_ebiz fb_about_ebiztwitter_about_ebizxing_about_ebiz
ebiz_consulting_expertise