TechNet · Englische TechNet Blogs · TechNet Deutschland · itproblogs.de · .NET Blogs

Willmar Heinrich: ARD–der WerbeCheck…–die unsichere DE-Mail

“Was bleibt von einem teuren Werbespot übrig, wenn man sein Versprechen auf die Probe stellt? Unsere Reporter haben genau das getan und dabei Verblüffendes herausgefunden.” Montag Abend, ARD, 20:15 Uhr. Ich bin gespannt…. Vor allem auf: “Sichere Mails versprechen gleich mehrere deutsche Anbieter in ihrem Werbespot. Kann man so sein Privatleben wirklich schützen?” Sachkundige Bewertung […]

faq-o-matic: Screenrecording mit Windows Phone

Günter Born hat auf seinem Blog einen pfiffigen Artikel gepostet, in dem er beschreibt, wie man den Bildschirm eines Windows Phone als Video aufzeichnen kann. Sein Trick besteht darin, den Bildschirminhalt per USB und App auf einen PC zu übertragen und die Aufzeichnung dort auszuführen. Diese PC-Projektion beherrscht Windows Phone seit dem Update auf Version 8.1.

Günter nutzt zum Aufzeichnen das professionelle Werkzeug Camtasia, aber es dürften sich auch alle anderen Screenrecorder eignen. In seinem Artikel beschreibt Günter noch ein paar Tricks dazu.

[Screenrecording beim Windows Phone 8.1 | Borns IT- und Windows-Blog]
http://www.borncity.com/blog/2014/12/03/screenrecording-beim-windows-phone-8-1/

Carsten Rachfahl [Hyper-V]: Videointerview mit Didier Van Hoye über Rolling Cluster Upgrade in vNext

Videointerview with Didier Van Hoye about Rolling Cluster Upgrade Thumb1

In diesem Interview habe ich einen Gute alten Bekannten vor der Kamera: Hyper-V MVP und Hyper-V Amigo Didier Van Hoye. Ich traf Dieder auf dem Technical Summit 2014 in Berlin wo er eine Session über “What’s new in Failover Clustering in Windows Server 2012 R2” gehalten hat. Da lag es natürlich nahe Didier nach seinem Lieblingsfeature in vNext zu fragen. Das ist auch der Grund, warum Didier in dem Interview mit mir über Rolling Cluster Update in Windows Server vNext spricht.

Ich habe das Interview sehr genossen, vor allen Dingen als Didier seine Theorie zum Thema DevOps zum Besten gegeben hat.

Ich wünsch euch wie immer viel Spaß beim Zuschauen.

Einige Links zu Didier:

Carsten Rachfahl [Private Cloud]: Videointerview: K2, Nintex und Avepoint unsere Sponsoren auf der Office 365 Konferenz

Ohne unsere Sponsoren für die Office 365 Konferenz, die vom 09.-10.01.2015 in Köln stattfand, wäre ein solches kostenloses Event gar nicht möglich gewesen. Neben Microsoft, die uns auch die Örtlichkeiten und das Team zur Verfügung gestellt haben, zählte K2 zu unseren Platinsponsoren. Als Goldsponsoren konnten wir …

Weiterlesen

Marc Grote: Microsoft Dynamics NAV 2013 R2 und Zertifikate

Hallo Leutz,

bei einem Kunden sind wir gerade dabei, Microsoft Dynamics NAV ueber einen Forefront TMG und Remote Desktop Gateway zu veroeffentlichen.
Dazu haben wir auf dem NAV Server fuer eine Navision Instanz die Authentifizieurng von Windows auf UserName umgestellt. Um diese Art Authentifizierung zu verwenden, muss in der NAV-Konfiguration ein Zertifikat hinterlegt werden. Dabei ist u. a. zu beachten, dass der Zertifikat-Fingerabdruck in Grossbuchstaben eingetragen wird und der CDP des Zertifikats erreichbar ist, sonst laesst sich die NAV-Instanz nicht starten. CAPI2 Logging fuehrte uns dann zur Fehlerursache.
Diese und weitere Informationen stehen in folgendem Bilderbuch:
http://www.it-training-grote.de/download/Navision-Certificate-Error.pdf

Gruss Marc

Arnd Rößner: Ab 1. März: Enterprise Mobility Suite (EMS) über Open-Programme

Die Enterprise Mobility Suite (EMS) ist eine umfassende Cloud-Lösung für Ihre Herausforderungen hinsichtlich der zunehmenden Mobilität Ihrer Mitarbeiter, einer wachsenden Anzahl unterschiedlicher mobiler Endgeräte (auch verbunden mit „Bring-your-own-Device“ (BYOD)-Szenarien) und der Verwaltbarkeit einer Vielzahl von SaaS-Anwendungen. Die Enterprise Mobility Suite bietet Ihnen eine kosteneffiziente Möglichkeit zur Nutzung der darin enthaltenen Cloud Services: Microsoft Azure Active Directory mehr [...]

TechNet Austria [MS]: Mit Premier Workshops sein Wissen vertiefen...

... in den Workshops können Sie Microsoft Technologien live und hands-on kennenlernen, das in jeweils mehrtägigen, praxisorientierten Veranstaltungen und unter Anleitung unserer erfahrenen Experten.

Ab März haben wir neue Themen im Programm - ob zu Windows Server, Dynamics AX, Office 2013, Azure, System Center 2012 Orchestrator oder Active Directory unsere Technologien werden wieder in großer Vielfalt angeboten!

>>> Schauen Sie auf unsere WEBSITE: http://www.microsoft.com/de-at/services/PremierWorkshops.aspx

Bei Fragen eine Email an atpsc@microsoft.com schicken.

 Wir freuen uns auf Sie!

faq-o-matic: Hyper-V-Reports per PowerShell

imageAuf der TechNet-Gallery steht jetzt ein neues PowerShell-Skript namens Get-HyperVInventory.ps1 bereit, mit dem man umfassende Konfigurations-Reports einer Hyper-V-Umgebung erzeugen kann. Diese Berichte dienen der Inventarisierung und bieten einen schnellen, recht vollständigen Überblick über die Virtualisierungsumgebung. Sie enthalten keine Performance-Daten und keine Angaben zum “Gesundheitszustand” der Umgebung. Man kann aber auf Basis der gesammelten Daten einschätzen, ob die jeweilige Umbgebung “sauber” implementiert ist.

Das Skript läuft mit Windows Server 2012, Windows Server 2012 und Windows Server Technical Preview. Es untersucht sowohl Einzel-Hosts als auch vollständige Failovercluster mit Hyper-V. Ein kurzer Überblick über die gesammelten Daten:

  • Cluster: Grundkonfiguration, Hosts, Quorum, Clusternetzwerke, CSV
  • Host: Betriebssystem, Hyper-V-Konfiguration, Storage, Netzwerke, vSwitches
  • VM: Speicherort, CPU, RAM, Netzwerk, Integrationsdienste, Checkpoints

In der aktuellen Fassung erzeugt das Skript reine Text-Reports. Für künftige Versionen ist u.a. eine HTML-Ausgabe geplant, die sich dann besser lesen lässt.

Das Skript stammt von Christopher Junker und Nils Kaczenski und steht hier kostenlos bereit:

[TechNet Get-HyperVInventory: Create inventory reports of Hyper-V environments]
https://gallery.technet.microsoft.com/Get-HyperVInventory-Create-2c368c50

SharePointPodcast: SPPD318 SharePoint 2016 und Talk mit Anna Piazza von Spreaker


SharePoint 2016 – es wird eine neue Version on premise geben – aber wie sieht sie aus, was wird sie können? Viel heisse Luft wurde in den letzten Wochen zu diesem Thema verbreitet, die Botschaft lautet:

Kommt nach Chicago zur Ignite

Nicht die optimale Lösung wie ich finde – deshalb habe ich mir die Blogs und Videos der letzten Wochen dazu näher angeschaut und gebe euch meine Einschätzung zu SharePoint 2016.

Im Talk habe ich Anna Piazza von Spreaker zu Gast, mit der ich über den Online Audio Dienst Spreaker gesprochen habe.

Trends

Termine

Themen – SharePoint 2016

Talk

flattr this!

Mark Heitbrink: GPO-Admin einrichten - Gruppenrichtlinien Delegation

Richtlinien administrieren ohne Domänen-Admins

TechNet Austria [MS]: Speziell für unsere Leser: zwei exklusive Microsoft IT-Camps – “Erweitern Sie Ihr Rechenzentrum mit Microsoft Azure” und “Windows 8.1 im Unternehmen und wie man Enterprise Devices am besten verwaltet”

Wir laden Euch ein unsere exklusiven Microsoft IT-Camps zu besuchen. Diese Trainings wurden speziell für Microsoft Firmen Kunden geschaffen. So lernen IT-Teams unter fachkundiger Anleitung unserer Spezialisten die Vorteile von Microsoft Technologien in der praktischen Anwendung kennen und schätzen.

Exklusiv für Leser des TechNet Blogs haben wir ein Kontingent freigehalten. Wer zuerst kommt mahlt zuerst!!

Anmelden zu: Erweitern Sie Ihr Rechenzentrum mit Microsoft Azure

  • Beginn: Dienstag, 17. März 2015 09:00
  • Ende: Dienstag, 17. März 2015 17:30

Anmelden zu: Windows 8.1 im Unternehmen und wie man Enterprise Devices am besten verwaltet

  • Beginn: Mittwoch, 18. März 2015 09:00
  • Ende: Mittwoch, 18. März 2015 17:00

Ort: Microsoft Österreich, Am Europlatz 3, 1120 Vienna, Austria

Da wir speziell für Euch Plätze reserviert haben, bitte den Einladungsempfehlungs-Code „TechNet Blog Austria“ eintippen!

Der Ablauf der Veranstaltung wird dabei von den Teilnehmern mitgestaltet, die allein oder in Gruppen Szenario-basierte Probleme lösen. Das bedeutet mehr Austausch, mehr Praxis und idealerweise auch mehr Spaß als bei klassischen Seminaren und Vorträgen.

Dieses neue Trainingsformat legt die Schwerpunkte auf Hands-On Labs sprich auf praktische Übungen statt vieler Präsentationen, sowie auf Aufgaben und Technologien, mit denen IT Spezialisten heutzutage konfrontiert sind. Für die Verbindung auf die Übungs-Infrastruktur muss daher auch ein eigenes Notebook mit Windows 8 (oder 7) mitgebracht werden. (Systemvoraussetzungen / Virtuelles Lab Testen)

Diese Trainings finden in englischer Sprache statt!

Die konkreten Inhalt bzw. die detaillierte Agenda entnehmt bitte den Veranstaltungswebseiten, wo Ihr Euch dann gleich auch kostenlos anmelden könnt:


Ideal zur Vorbereitung auf die IT Camps sind die kostenlosen Online-Trainings der Microsoft Virtual Academy (MVA). Die MVA unterstützt IT-Professionals dabei, ihr Know-how kostenlos und ortsunabhängig zu erweitern. Unsere Empfehlung für Teilnehmer des IT Camps sind speziell diese Themenbereiche: 

Ihr möchtet die Infrastrukturprodukte von Microsoft vorab schon einmal ausprobieren? Im TechNet Evaluierungscenter finden Ihr kostenlose Testversionen aller wichtigen Produkte für IT-Professionals. Probiert doch auch den kostenfreien Testzugang zu Microsoft Azure

Gerhard Göschl, Marketing Leiter - IT-Spezialisten und Software Entwickler

Microsoft Österreich GmbH
Gerhard.Goeschl@Microsoft.com

PS: Bitte daran denken: Ihr müsst Euer eigenes Notebook mitbringen!! (Notebook mit WLAN-Funktion unter Windows 7/8 (bevorzugt 64 Bit)) (Systemvoraussetzungen / Virtuelles Lab Testen)

PPS: Beide Trainings finden in englischer Sprache statt!

  

Hans Brender: OneDrive (for Business) | Video-Interview

Office 365 Konferenz

Auf der Office 365 Konferenz am 9.+10.1.2015 in Köln hat Kerstin Rachfahl, MVP Office 365, jede Menge Video-Interviews durchgeführt. Auch ich war Gast …

Thema: natürlich OneDrive…

Videointerview: Kerstin Rachfahl auf der Office 365 Konferenz, im Gespräch mit Hans Brender

wow, ich habe ja ganz schnell geredet…


Arnd Rößner: Microsoft kündigt Neuheiten rund um Big Data und das Internet of Your Things an

Letzte Woche haben wir im Rahmen der Strata + Hadoop World in San Jose, Kalifornien Updates unserer Technologien für Big Data und das Internet of Things (IoT) angekündigt. Dazu zählen die Preview für Azure HDInsight für Linux, die generelle Verfügbarkeit von Azure Machine Learning und die Lieferung von Informatica-Technologien für Azure. Informatica ist unabhängiger Anbieter von Datenintegrationssoftware, die Unternehmen dabei hilft, Daten unterschiedlichster Provenienz aufzubereiten und mehr [...]

Arnd Rößner: Windows 10: Unterstützung von biometrischen Zugangssystemen

Microsoft hat angekündigt, dass Windows 10 die kommende Version 2.0 des Fast Identification Online (FIDO) Anmeldestandards unterstützen wird. Die neue Generation von Microsofts Betriebssystem stellt damit zukünftig besonders sichere Anmeldungstechnologien bereit, die über die Passworteingabe hinausgehen: So ist mit Windows 10 erstmals eine Anmeldung per Zwei-Faktor-Authentifizierung ohne Passworteingabe über biometrische Zugangssysteme möglich, beispielsweise via Fingerabdruck. Teilnehmer des mehr [...]

Willmar Heinrich: BitLocker–zuverlässig?

Bisher gehörte ich eigentlich zu der Kategorie Anwender, die mit fast uneingeschränktem Vertrauen zu Microsoft-Technologien gesegnet waren. Blindes Vertrauen ist aber nicht unbedingt gut, wie Folgendes zeigt: Ich habe einige Jahre mit einem BitLocker-verschlüsselten Notebook gearbeitet, Basis eine ganz normale Festplatte. Nie Probleme, hat stabil und unsichtbar im Hintergrund gearbeitet. Seit geraumer Zeit habe ich […]

Arnd Rößner: Microsoft bringt Cloud-Speicher von Drittanbietern mit Office zusammen

heute hat Microsoft über den Office Blog das neue Cloud Storage Partner Programm für Office vorgestellt. Über dieses Programm können Drittanbieter von Cloud-Speicher ihre Dienste mit Office Online verbinden. So gibt Microsoft Nutzern die Möglichkeit, Dokumente direkt zu öffnen, anzuzeigen und zu bearbeiten. Daneben kündigt Microsoft auch die Integration von 3rd-Party-Cloud Services für Office für iPad und iPhone an, die über eine offene Schnittstelle (API) zugänglich sein werden. Damit mehr [...]

Arnd Rößner: Transparenz, Dialog und Offenheit: Microsoft stellt Cloud Platform Roadmap Portal vor

Microsoft hat mit dem Cloud Platform Roadmap-Portal eine „großartige Ressource für IT-Abteilungen“ gelauncht, so Forbes. Mit der Roadmap sorgt Microsoft für die notwendige Orientierung in einer Zeit, in der sich die Entwicklung digitaler Technologien rasant beschleunigt und von den Unternehmen gleichermaßen strategischen Weitblick wie schnelle und unmittelbare Reaktionen auf sich verändernde Marktbedingungen abverlangt.„Die Cloud Platform Roadmap ist ein transparentes Angebot an unsere mehr [...]

Arnd Rößner: Microsoft setzt ersten internationalen Standard für Datenschutz in der Cloud um

der heutige Tag markiert einen weiteren wichtigen Meilenstein: Microsoft übernimmt als erster der führenden Anbieter von Cloud-Diensten den internationalen ISO/IEC 27018 Standard für Datenschutz in der Cloud.Der ISO/IEC 27018-Standard, eine Erweiterung des etablierten ISO 27001-Standards, wurde von der International Organization for Standardization (ISO) mit dem Ziel entwickelt, ein einheitliches und international gültiges Konzept zu schaffen, um in der Cloud gelagerte personenbezogene Daten mehr [...]

Hans Brender: OneDrive for Business | ETL-logging – Speicher Problem

OneDrive for Business, Microsoft

heute mal zu OneDrive for Business und ETL-Logging

Betrifft: Windows 7, Windows 8.x

Wer sich schon immer wundert, warum sein System sein System viel Plattenspeicher braucht, (und wir reden nicht vom Cache-Speicher), der sollte einmal hier nachsehen. Normalerweise ist ETL Logging automatisch eingeschaltet. und erzeugt dann moderate ETL- und ETL.Z Dateien. Es kann aber auch passieren, dass eine riesige, über 1GB große Datei erzeugt wird. Und je nach Gerät und Speicher kann’s da schon mal eng werden.

Wo werden die ETL Logs abgelegt?

im versteckten Teil des Benutzers.

C:\Users\”UserName”\AppData\Local\Microsoft\Office\Spw\logs

OneDrive for Business, Log-Dateien

Microsoft weis um dieses Problem, aber sollten Sie in diesem Verzeichnis große Dateien finden, dann können Sie das Problem wie folgt durch Hinzufügen zweier Registry-Einträge lösen.

Windows Registry Editor Version 5.00

[HKEY_CURRENT_USER\Software\Microsoft\Office\15.0\Groove\Development]

"TraceLogCompressionEnabled"=dword:00000001

"EnableEtwTraceLogging"=dword:00000001

Sie können sich hier auch die Datei GrooveETL.reg herunterladen und dann mit einem Doppelklick starten, damit werden obige Registry-Einträge erzeugt.

Beenden Sie anschließend OneDrive for Business

Windows 8.x

Starten Sie den Taskmanager, wechseln Sie in Details und suchen Sie nach msosync.exe

Task-Manager unter Windows 8.1

Klicken sie mit der rechten Maustaste auf msosync.exe und wählen Sie “Task beenden”

Windows 7

Starten Sie den Taskmanager, wechseln Sie auf Prozesse und suchen Sie nach Groove.exe

Task-Manager unter Windows 7

Wenn die Groove.exe als Prozess sichtbar ist, wechseln Sie in die Informationsleiste und klicken Sie mit der Rechten Maustaste auf das Wolkensymbol und dann auf beenden.

Anschließend suchen Sie im Taskmanager den Prozess MsoSync.exe und beenden sie den Prozess. (rechte Maustaste und “Prozess beenden”.

Danach wechseln Sie im Datei-Manager zu

C:\Users\”UserName”\AppData\Local\Microsoft\Office\Spw\logs

Selektieren Sie die “große” Datei und löschen Sie diese

Starten Sie anschließend wieder “OneDrive for Business”

Windows 7 Windows 8.x
Windows 7 Start-Menü Windows 8.1 Suchen

Wer zwei Einträge im Suchfenster sieht, muss den Eintrag mit der blau gefüllten Wolke wählen !!

Im Verzeichnis C:\Users\”UserName”\AppData\Local\Microsoft\Office\Spw\logs sollte jetzt ein neuer, kleiner Log-Eintrag erzeugt worden sein.


faq-o-matic: Angelo: Meta-Reporting für Active Directory

Es gibt viele Möglichkeiten, eine Active-Directory-Umgebung zu dokumentieren und zu analysieren. Wer sich einen Überblick über ein AD verschaffen möchte – sei es das der eigenen Firma, sei es die Domäne eines neuen Kunden – kommt mit den vorhandenen Werkzeugen in kurzer Zeit zu einem Ergebnis. Da ist dann aber immer der Aufwand, sich die verschiedenen Tools zusammenzusuchen und richtig einzusetzen.

Um diese Arbeit etwas zu erleichtern, haben wir Angelo gebaut: Ein Meta-Reporting-Tool für Active Directory. Angelo selbst macht dabei eigentlich fast nichts, die Arbeit erledigen vorhandene Werkzeuge aus verschiedenen Quellen. Angelos Job besteht darin, diese Tools aufzurufen und ihre Ergebnisse in einem Report-Ordner zusammenzustellen. Dazu generiert Angelo dann noch eine Report-Übersicht.

Folgende Werkzeuge steuert Angelo:

  • AdFind
  • Borg
  • Cindy
  • Costa
  • DCDiag
  • DNSLint
  • Get-GroupReport
  • GPMC-Skripte bzw. –Commandlets
  • José
  • OldCmp

Damit erzeugt Angelo u.a. folgende Analysen:

  • Metadaten der Domäne
  • Objektstruktur
  • Standorte und Replikationskonfiguration
  • Domänen-“Gesundheit”
  • Gruppenrichtlinien
  • DNS-Grundkonfiguration
  • IP-Konfiguration und Windows-Konfiguration aller DCs
  • Aktive, inaktive und kritische Benutzer- und Computerkonten
  • Mitgliedschaft in kritischen Gruppen, einschließlich Primary Groups
  • AD-Schema

Mit diesen Daten hat man eine sehr gute Grundlage, den Zustand einer AD-Umgebung einzuschätzen. Die Interpretation der Ergebnisse nimmt Angelo einem nicht ab, aber in der Report-Übersicht gibt es ein paar Hinweise, worauf man achten sollte. Angelo ist vollständig in englischer Sprache, läuft aber natürlich auch auf nicht-englischen Systemen.

Angelo-Download

Hier findet ihr Angelo:

Note: There is a file embedded within this post, please visit this post to download the file.

 

Angelo vorbereiten

In dem Download befindet sich nur das Angelo-Skript selbst sowie eine Ordnerstruktur und ein paar Hilfsskripte. Die eigentlichen Tools sind nicht enthalten – und zwar aus zwei Gründen: Erstens werden diese Tools von anderen gepflegt und aktualisiert. Würden wir sie in unseren Download integrieren, wären viele davon wohl schnell veraltet. Und zweitens dürfen wir natürlich fremde Tools nicht so einfach weiterverbreiten.

Also müsst ihr die Tools selbst herunterladen und in Angelos Ordnerstruktur verteilen. Das ist aber sehr einfach, denn in jedem Ordner steht genau, welches Tool dort hingehört und wo man es bekommt. Euren eigenen fertigen Angelo-Ordner könnt ihr dann natürlich nach Belieben mitnehmen.

Angelo nutzen

Angelo kann man auf einem beliebigen Rechner ausführen, der Mitglied der zu untersuchenden Domäne ist. Einige Tools haben aber folgende Voraussetzungen:

  • Auf dem Rechner, auf dem man Angelo startet, sollten die Verwaltungstools (RSAT) für Active Directory installiert sein.
  • Auch die PowerShell mit AD-Modul sollte vorhanden sein (ist normalerweise der Fall, wenn die RSAT installiert sind).  
  • Angelo läuft zwar auch ohne Adminrechte, aber dann kann er einiges nicht lesen. Am besten läuft Angelo, wenn man über Domänen-Admin-Rechte verfügt.

Am besten startet man also ein CMD-Fenster mit Domänen-Admin-Rechten, wechselt in den Angelo-Ordner und ruft Angelo dann auf. Das Skript braucht ein paar Minuten, in großen Umgebungen vielleicht auch ein paar Minuten mehr. Alle weiteren Fenster, die sich öffnen, bitte einfach so lassen, sie schließen sich von selbst wieder.

Nach ein paar Minuten hat Angelo dann alle Daten in seinem Unterordner “Reports” abgelegt, wo es einen Unterordner mit Zeitstempel gibt. Dort liegen viele Einzeldateien und ein paar weitere Ordner. Besonderes Augenmerkt verdient die Datei “_ReportOverview.html”: Sie enthält einen Überblick über alle Einzel-Reports, erläutert diese kurz und gibt auch gleich die passenden Links zu den Berichten an.

Hier ist ein Beispiel-Report, allerdings ohne die Detaildaten.

Hans Brender: OneDrive for Business | The end of the Windows 8.1 app

OneDrive for Business, Microsoft

Was the app useless? The recessions of the OneDrive for Business modern app for Windows 8.1 let the developers get any trophies. 

OneDrive for Business, modern App, Windows 8.1 The main problem of this app is and was that I could only access the data when I was online. No internet – no data. Therefore you may do all your work with Web-Browser.  No way to synchronize the data locally with the app.

And most people decide to install the Client program OneDrive for Business, which you may download here in 40 languages in 32- and 64 Bit versions.

Users, who have installed

  • Office Professional Plus 2013
  • Office 365 Enterprise E3
  • Office 365 Midsize Business
  • Office 365 Small Business Premium
  • already have installed this program.

    Microsoft has announced in the Office 365 portal, that they will remove the modern app OneDrive for Business in the store at 03/27/2015. Also they will do no more updates. Well, as mentioned above, tears will not flow here.
    Only owners with Windows RT operating system (Surface RT, Surface 2, …) may have no chance, because, the access can really only take place via the browser, because the above client downloads do not run on RT.

What is the background?
Why Microsoft has not expanded the app? Well, the answer to that is, simply:

Next Generation Sync Client (NGSC).

Microsoft has begun for some time with the development of a completely new client, which included the summary of OneDrive and OneDrive for Business. A client program, synchronization, but two different destinations in the cloud.

And with Windows 10 Preview, you can test it already, but in its first form, and only with OneDrive (personal).

… And since it seems logical to end the life of a poor app.


Hans Brender: OneDrive for Business | Das Ende der Windows 8.1 App

OneDrive for Business, Microsoft

War Sie unnütz? Die Rezessionen der OneDrive for Business modern App für Windows 8.1 lassen den Entwicklern keine Pokale zukommen. 

OneDrive for Business, modern App, Windows 8.1 Das Hauptproblem dieser App ist und war, dass ich nur auf die Daten zugreifen konnte, wenn ich Online war. Kein Internet – keine Daten. Dann kann ich ja gleich einen Web-Browser nehmen. Keine Möglichkeit, die Daten lokal zu synchronisieren.

Und die meisten Benutzer haben dann auch zum Client Programm OneDrive for Business gegriffen, den man hier in 40 verschiedene Sprachen in 32- oder 64 Bit herunterladen kann.

Benutzer von

  • Office Professional Plus 2013
  • Office 365 Enterprise E3
  • Office 365 Midsize Business
  • Office 365 Small Business Premium
  • haben diesen das Programm ja schon installiert.

Und in den Nachrichten vom Office 365 Portal  hat Microsoft angekündigt, dass sie zum 27.3.2015 die OneDrive for Business App für Windows 81.1 aus dem Store herausnehmen werden. Es wird auch keine Updates mehr geben. Gut, wie oben schon erwähnt, Tränen werden hier nicht fließen.

Einzig Besitzer mit Windows RT als Betriebssystem (Surface RT, Surface 2, …) schauen dann ihn die Röhre. Hier kann der Zugriff wirklich nur über den Browser erfolgen, denn die obigen Client-Downloads laufen nicht unter RT.

Was aber ist der Hintergrund?

Warum hat Microsoft die App nicht ausgebaut? Nun, die Antwort dazu heißt schlichtweg:

Next Generation Sync Client (NGSC).

Microsoft hat schon seit einiger Zeit mit der Entwicklung eines völlig neuen Client begonnen, der die Zusammenfassung von OneDrive und OneDrive for Business beinhaltet. Ein Client-Programm, eine Synchronisation, aber zwei verschiedene Zielorte in der Cloud.

Und unter Windows 10 Preview kann man es schon testen, allerdings in seiner ersten Form und nur mit OneDrive (personal).

… und da erscheint es konsequent, das Leben einer schlechten App zu beenden.


Torsten Meringer: Aktualisierung des ConfigMgr 2012 R2 SDK’s   Recently updated !

Die aktuelle Version kann hier https://www.microsoft.com/en-us/download/details.aspx?id=29559 heruntergeladen werden.

Der Beitrag Aktualisierung des ConfigMgr 2012 R2 SDK’s   Recently updated ! erschien zuerst auf Torsten's Blog.

Torsten Meringer: ConfigMgr 2012 R2 CU4 verfügbar

Das Cumulative Update (CU) 4 für System Center 2012 R2 Configuration Manager ist seit gut 2 Wochen verfügbar. Der Download ist hier zu finden https://support.microsoft.com/kb/3026739/en-us, die Neuerungen bzgl. Powershell hier http://support.microsoft.com/kb/3031717/en-us.

Der Beitrag ConfigMgr 2012 R2 CU4 verfügbar erschien zuerst auf Torsten's Blog.

Hans Brender: One year with OneDrive

OneDrive, Microsoft

So many things, and I forgot the birthday. Ok. But yesterday Microsoft celebrate OneDrive’s first birthday. Yes, we know, the baby is older, but law forced Microsoft to change the name from SkyDrive to OneDrive. And 365 days later…

 

and these things happend:

Increased free storage by three times to up to 30 GB (2x base quota, 5x camera roll bonus)

Office 365 storage benefit went from 20 GB to UNLIMITED!

Launched OneDrive for Business and added it to all our mobile apps

Office became free on iPad and Android

Partnered with Salesforce.com

Increased upload performance by roughly 3 times

OneNote powered by OneDrive became free on PCs and Macs

Office Lens turns whiteboards and documents into Office files

Save and Send files in OneDrive from Outlook.com & OWA accounts

Introduced photo albums, tag support, object detection, and search

and the Next Generation Sync Client of OneDrive is in PreView (NGSC)

 

Happy birthday OneDrive.


Arnd Rößner: E-Mail Verschlüsselung Teil 2: Clientbasierte vs. Gatewaybasierte E-Mail-Verschlüsselung

Wenn man sich für die Einführung von E-Mail-Verschlüsselung entschieden hat, gibt es zwei unterschiedliche Möglichkeiten der Umsetzung. Zum einen gibt es die klassische Variante, bei der das Zertifikat auf dem Computer des Benutzers installiert und in den E-Mail-Client integriert wird. Ab diesem Zeitpunkt kann der Benutzer alle seine ausgehenden E-Mails signieren. Sobald er den öffentlichen Schlüssel seines Kommunikationspartners bekommen hat, kann er an diesen Partner die E-Mails zusätzlich mehr [...]

Hans Brender: Ein Jahr OneDrive

OneDrive, Microsoft

Wow, nicht immer hat man Zeit, Geburtstag zu feiern. Dann man halt nachträglich. Denn gestern war es soweit. 1 Jahr OneDrive. Gut das Baby gibt es schon länger, aber Gesetze haben dafür gesorgt, dass das Baby einen neuen Namen bekommen hat. Und das ist schon wieder ein Jahr her.

Und es ist auch viel passiert

Microsoft hat mehrfach den Speicher, der einem OneDrive Benutzer unentgeltlich zur Verfügung steht, erhöht. Link, Link, und Link

In einigen Office 365 Abonnements wurde der OneDrive Speicher von 20 GB auf unbegrenzt Speicher in der Wolke erhöht.

OneDrive for Business wurde gestartet und sorgte für Verwirrung wegen des Namens.

Es wurde eine Partnerschaft mit Salesforce.com bekannt gegeben.

Die Upload-Geschwindigkeit wurde um das 3-fache erhöht.

Das Programm OneNote, welches von OneDrive unterstützt wurde, ist jetzt kostenfrei.

Office Dokumente können direkt in OneDrive gespeichert werden.

Photo-Alben und Tagging wurde eingeführt.

und die nächste Generation von OneDrive steht vor der Tür (NGSC)

 

Herzliche Glückwunsch OneDrive.


Hans Brender: OneDrive | Tipp #1 – Versionsverlauf

OneDrive for Business, Microsoft OneDrive (personal, Microsoft

Zwei unterschiedliche Produkte, trotzdem haben OneDrive (personal) und OneDrive for Business Gemeinsamkeiten, und heute geht es um den Versionsverlauf. Beim Versionsverlauf geht es um Dokumente, die wir in OneDrive oder OneDrive for Business gespeichert haben.

Doch schauen wir uns erst einmal die Synchronisation an:

Synchronisierung OneDrive und OneDrive for Business

Die Abbildung zeigt, dass für beide Dienste die Synchronisation über unterschiedliche Protokolle in die Cloud synchronisiert werden. Handelt es sich um ein Office Dokument, dann wird zusätzlich das Microsoft Office Upload Center mit eingebunden. Hintergrund dafür ist, dass hier die Möglichkeit besteht, dass mehrere Personen gleichzeitig an einem Dokument arbeiten können.

Während bei OneDrive (personal) die Daten in Windows Azure, genau genommen unter Azure Files gespeichert werden sieht es bei OneDrive for Business etwas komplizierter aus. Hier liegt ein SharePoint zu Grunde, die Daten landen dann

a) SharePoint Server on premise –> SQL Datenbank
b) Office 365, SharePoint Online und OneDrive for Business mit Office Online –> Azure Store

Unter b) werden die Daten dann verschlüsselt (Erklärung 1 und 2 und Video)

Versionsverlauf:

OneDrive (Personal) nur für Office Dokumente
OneDrive for Business wenn eingeschaltet für alle gespeicherten Dateien

OneDrive (personal)

Wann kann ich den Versionsverlauf einsetzen und wie?

Als Beispiel sei hier eine Excel-Datei angeführt, die in seiner ursprünglichen Fassung  in OneDrive gespeichert wurde. Danach habe ich einen Bearbeitungs-Link erstellt und diesen dann anderen zur Verfügung gestellt. Diese MVP Kollegen haben dann die Datei geöffnet (Office-Online) und eigene Daten eingetragen. Irgendwann  hat jedoch jemand das Excel-Sheet falsch sortiert und nichts passte mehr zusammen. Soweit zum Szenario. Mit jedem Bearbeiten schreibt Excel (jedes Office Dokument) eine neue Version. Auch in OneDrive. Allerdings nur bis zu einer Tiefe von 25. Das habe ich hier schon einmal beschrieben.

OneDrive: Versionsverlauf Zur Versionshistorie kommen Sie, in dem Sie das Dokument markieren und dann die rechte Maustaste betätigen und dann auf Versionsverlauf klicken.
OneDrive, Versionsverlauf, Versionen Im Beispiel sehen wir das Excel-Sheet mit seinen Daten und unter 1 die letzte Version mit Datum und (verpixelt) dem Namen , der die letzte Version erzeugt hat.

Unter 2 sind dann die alten Versionen zu sehen.

OneDrive: Versionsverlauf: Versionen: Wiederherstellen in dem ich auf einen Eintrag klicke, werden mir die Daten im Excel-Sheet angezeigt und ich habe zwei Möglichkeiten:

Herunterladen:
Kann manchmal nützlich sein
Wiederherstellen:
Damit wird diese Version zur aktuellen Version

In meinem Szenario musste ich zwei Versionen zurück, da war das Dokument noch in Ordnung. Da ich durch den Namenseintrag aber vorher gesehen habe, wer betroffen war, konnte ich den Personen eine E-Mail senden und Sie bitten, Ihre Einträge nochmals vorzunehmen.

 

OneDrive For Business

Standardmäßig ist in der Cloud die Versionshistorie eingeschaltet.

OneDrive for Business: Versionshistorie: Bibliothek Zum Überprüfen klicken Sie oben links auf Bibliothek,…
OneDrive for Business: Versionshistorie: Bibliothekseinstellungen dann auf der rechten Seite auf Bibliothekseinstellungen…
OneDrive for Business: Versionshistorie: Einstellungen und danach auf Versionsverwaltungseinstellungen

OneDrive for Business: Versionshistorie: Einstellungen

Hier wird der Unterschied zu OneDrive deutlich.

  • Ich kann Versionskontrolle ein/ausschalten
  • Ich kann Haupt- und Nebenversion auswählen
  • Ich kann die Anzahl der Hauptversionen /Entwürfe begrenzen
    der größte Unterschied jedoch ist: Die Versionsverwaltung wirkt auf alle Dateien, nicht nur auf Office Dokumente.

Als Bespiel hier einen simple Text-Datei. Es handelt sich um eine log-Datei.

OneDrive for Business: Versionsverlauf 1 Datei markieren und danach auf …klicken.

2 erneut auf die … klicken

3 Auf Versionsverlauf klicken

OneDrive for Business: Versionsverlauf

Beim Klicken auf das Datum haben Sie dann mehrere Möglichkeiten:

  • Dokument anzeigen
  • Wiederherstellen
  • Löschen

Zusammenfassung:

Sowohl OneDrive als auch OneDrive for Business haben einen Versionsverlauf. Der Versionsverlauf in OneDrive erstreckt sich auf 25 Ebenen und ausschließlich auf Office Dokumente. In OneDrive for Business ist der Versionsverlauf konfigurierbar und erstreckt sich auf alle Dokumente.


Hans Brender: OneDrive Tipps

OneDrive for Business, Microsoft OneDrive (personal, Microsoft

Angeregt von einem Microsoft Kollegen, der eigentlich eine Zusammenfassung sucht, die ich (noch nicht) erstellt habe, werde ich ab sofort unregelmäßig, aber doch regelmäßig Tipps zum Umgang von OneDrive und OneDrive for Business  auf diesem Blog veröffentlichen.

 

image

Auf der rechten Seite meines Blog findet Ihr dann unter OneDrive Tipps / OneDrive Hints sowohl die deutschen, also auch die in englischer Sprache geschriebenen in numerischer Reihenfolge aufgelisteten Tipps.

 

Langfristig werden die beiden Dienste OneDrive und OneDrive for Business vieles gemeinsam haben, auch wenn das derzeit nur an einigen Stellen zu erkennen ist.

Das bedeutet, dass unter den Tipps praktische Beispiele sowohl zu OneDrive als auch zu OneDrive for Business zu finden sein werden.

Und natürlich freue ich mich über Follower und Kommentare.


Hans Brender: OneDrive | 100 GB extra Speicher für 2 Jahre–und dann?

OneDrive, Microsoft OneDrive

Bing Reward Programm und Zugriffszahlen im OneDrive Blog

Nachdem ich den Original Blog Post über das Bing Reward-Angebot am  13.2.2015 geschrieben habe, sind bei mir die Zugriffszahlen stark angestiegen

Die farbige Markierung ist der 13.2.2105

Weil aber andere das Thema aufgegriffen und selbst Beiträge darüber geschrieben haben, kommt es auf den unterschiedlichen Kommunikationswegen zu Nachfragen, und zwei werde ich hier in diesem Blog Post beantworten:

Was passiert nach zwei Jahren?

die Antwort ist einfach ganz einfach. Der zusätzliche Speicher fällt weg. Wenn ich aber diesen Speicher genutzt habe, dann löscht Microsoft diese Daten nicht. Als Benutzer kann ich weiterhin auf “alle” meine OneDrive Daten zugreifen. Was nicht mehr funktioniert? Das weitere Speichern. Und egal, was ich dann speichern möchte, Bilder, Texte, Videos, Musik… Nichts geht mehr. Auch das Ändern von Dateien geht nicht mehr. Dann muss ich mir überlegen, ob ich diese Daten auf ein lokales Gerät auslagere, ja ein Download funktioniert natürlich, oder aber Speicher kaufe.  Aber die Gedanken sollte ich mir frühestens in 23 Monaten machen. Wer weiß, was Microsoft uns dann für Angebote in der Wolke anbietet.

Warum ist er Up- und Download so langsam?

OneDrive steht dem Benutzer auf unterschiedlichen Betriebssystemen und Geräten zur Verfügung. Die Daten werden in den Datenzentren von Microsoft gespeichert. Genauer gesagt unter Windows Azure. Noch genauer: Unter Azure Files.  Und je nach Betriebssystem stehen dem Benutzer unterschiedliche Synchronisations-Mechanismen zur Verfügung. Allein unter Windows gibt es mehrere unterschiedliche Programme und Apps. Wer unter Vista und Windows 7 unterwegs ist, benutzt das Synchronisations-Programm “SkyDrive”. Unter Windows 8.x ist das Synchronisationsprogramm dann in das Betriebssystem integriert worden. Und Microsoft arbeitet an NGSC (Next Generation Sync Client). Und in wenigen Monaten werden wir Benutzer dann mit NGSC  arbeiten können. Einen ersten Einblick zu NGSC kann man schon in der Preview von Windows 10 sehen. In Facebook gibt es eine Gruppe, wo schon über 700  Mitglieder Erfahrungen austauschen. Hier geht’s zur Gruppe.

Über NGSC werde ich natürlich in meinem Blog berichten, denn dieses Client-Programm wird unter Windows 7,8,10 und MAC nicht nur OneDrive, sondern auch OneDrive for Business  unterstützen.

Über die Synchronisation gibt es schon verschiedene Blog-Beiträge:

Zugriff und Synchronisation auf Daten
Das Synchronisations-Icon ist zurück
Synchronisation von Ordnern einstellen
Next Gerneration Sync Client

Um nichts zu versäumen, also den Blog als Lesezeichen  hinterlegen, als RSS Feed abonnieren, dem Blog abonnieren oder mir mir auf Twitter @HansBrender folgen.


 

 

Danke nochmals fürs Rebloggen

 

ComputerBase ComputerBase
PCGamesHardware PCGamesHardware
PCWelt PC Welt
WinFuture WinFuture
Dr.Windows Dr.Windows

faq-o-matic: Die Primary Group in Active Directory

Es gibt einen Mechanismus in Active Directory, den man normalerweise nie braucht. Leider wissen viele Administratoren das nicht und setzen den Mechanismus ein, was oft zu unerwünschten Reaktionen führt. Das Dumme daran: Es können daraus durchaus Sicherheitsprobleme entstehen.

Die Rede ist von den Primary Groups (im Deutschen: Primäre Gruppe). Für jedes Benutzerobjekt kann man genau eine Primary Group festlegen, in der grafischen Oberfläche findet sich dies auf der Seite “Mitglied von” eines Benutzerobjekts im unteren Bereich.

image

Die Angabe der Primären Gruppe in Active Directory-Benutzer und -Computer

Warum gibt es die Primary Group, und was ist das Problem damit?

Windows selbst benötigt die Primary Group nicht, ebenso wenig Active Directory. Bei jedem Benutzerobjekt ist sie allerdings eingetragen, normalerweise die Gruppe “Domänen-Benutzer”. Tatsächlich dient dieser Eintrag nur der POSIX-Kompatibilität, also für eine mögliche Interaktion mit Unix-Systemen (auch für Macintosh konnte so etwas nötig sein, aber da ging es um die Zeit vor OS X). POSIX ist ein Betriebssystemstandard, der für Unix-Systeme relevant ist.

In der frühen Entwurfsphase von Windows NT (Anfang der Neunzigerjahre!) bestand ein Ziel darin, eine gewisse Kompatibilität zu POSIX herzustellen. Dieser Standard sieht vor, dass jeder Benutzer (genau) einer Gruppe angehört. Dies bildete Windows NT als “Primary Group” ab. Benötigt man diese Unix-Interoperabilität nicht (und man benötigt sie eigentlich nie, auch nicht, wenn man Unix oder Linux im eigenen Netzwerk betreibt), dann ist diese Gruppenmitgliedschaft eigentlich obsolet.

Und was ist nun das Problem?

Die Primary Group wird anders gespeichert als normale Gruppenmitgliedschaften. Nimmt man einen Benutzer in eine AD-Gruppe auf, so wird die Mitgliedschaft bei der Gruppe gespeichert (in deren Feld “member”). Das Feld “memberOf” (in der grafischen Oberfläche eben: “Mitglied von”) ist ein so genannter “Backlink”, der eigentlich gar nicht gespeichert, sondern aus den Gruppenmitgliedschaften errechnet wird. Er dient im Wesentlichen der Bequemlichkeit, weil man so schneller nachsehen kann, wo ein User Mitglied ist.

image

Das Feld “member” einer Gruppe gibt deren Mitglieder an

Die Primary Group hingegen wird direkt im User-Objekt gespeichert, und zwar im Feld “primaryGroupID”. Dort steht aber nicht etwa der Name der betreffenden Gruppe, sondern nur ihr RID (Relative Identifier). Das ist der letzte Abschnitt der SID (Security Identifier), also ohne den Domänenteil davor.

image

Das Feld “primaryGroupID” bei einem Userobjekt enthält den RID der betreffenden Gruppe. Der Wert 513 steht die die “Domänen-Benutzer”

Ganz wichtig: Das bedeutet, dass die Zuordnung einer Primary Group nicht im “member”-Feld der betreffenden Gruppe gespeichert wird! Die Gruppe selbst “weiß” also gar nicht, dass diese Mitglieder auch dazugehören!

Das kann man auch zeigen: Fragt man das Feld “member” einer Gruppe ab, dann tauchen die User nicht auf, die diese Gruppe als Primary Group eingetragen haben. In den meisten Umgebungen sieht man dies sehr schön an der Gruppe “Domänen-Benutzer”, die nämlich scheinbar (fast) leer ist.

Nun kommt das Hinterlistige: Die AD-Verwaltungstools kennen diesen Mechanismus und rechnen die Primary-Group-Mitglieder stillschweigend hinzu. Schaut man also im grafischen Verwaltungstool nach, sieht man eben doch “alle” Mitglieder. (Dasselbe gilt für viele andere mitgelieferte Tools, z.B. net group oder die ds*-Tools.)

image

Das Feld “member” der “Domänen-Benutzer” ist meistens leer. Die grafische Verwaltung schummelt hier und rechnet die Primary-Group-Mitglieder hinzu!

Ja, und das Problem?

Ein wirkliches Problem entsteht hieraus, wenn Administratoren die Primäre Gruppe eines Benutzers ändern. Oft tun sie das aufgrund einer falschen Annahme: Wenn etwa jemand im Vertrieb arbeitet, setzen sie die Vertriebsgruppe als Primäre Gruppe. Dadurch aber verschwindet dieser Benutzer in Wirklichkeit aus der Vertriebsgruppe! Der Administrator sieht das aber nicht, weil die Verwaltungstools das Mitglied ja doch anzeigen. Um die Verwirrung komplett zu machen, wird in diesem Fall das betreffende Userobjekt stillschweigend im Hintergrund als “normales” Mitglied in die Gruppe “Domänen-Benutzer” aufgenommen.

image

Magda Nalyse hat die Gruppe “GG-Vertrieb” als Primäre Gruppe. In deren Mitgliedsliste (im Bild links) taucht sie daher nicht mehr auf …

Soll nun beispielsweise eine Gruppe geleert werden, dann entfernt man dadurch nur die Mitglieder, die über das “member”-Attribut dort Mitglied sind. Die Primary-Group-Mitglieder erreicht man so nicht.

Oder andersrum: Zu Reporting-, Dokumentations- oder Analysezwecken liest man die Mitglieder einer Gruppe aus. Die Liste ist dann aber möglicherweise nicht vollständig, weil eben die Primary-Group-Mitglieder fehlen.

Und noch ein Nebeneffekt: Systeme wie Exchange betrachten ebenfalls nur die “echten” Mitglieder einer Gruppe, nicht die Primary-Group-Mitglieder. Setzt man also bei einem Benutzer eine Gruppe als Primäre Gruppe, die auch als Exchange-Verteiler dient, dann kann man über das Globale Adressbuch von Exchange nicht feststellen, dass dieser Benutzer zu dem Verteiler gehört – er taucht dort nicht auf. Die Mitgliedschaft funktioniert aber trotzdem, der Benutzer erhält also die Mails, die man an die Gruppe sendet.

Oha. Und was heißt das?

Windows und Active Directory brauchen die Primäre Gruppe nicht, und sie benutzen sie (eigentlich) auch nicht. Daher sollte man die Primäre Gruppe im Normalfall niemals ändern. Anders gesagt: Alle Benutzerkonten der Domäne sollten als Primäre Gruppe die “Domänen-Benutzer” gesetzt haben. Ausnahmen davon gibt es so gut wie nie.

Um nachzuprüfen, welche Benutzerkonten eine Primäre Gruppe haben, die nicht “Domänen-Benutzer” ist, sucht man im Feld primaryGroupID nach Werten ungleich 513 (denn 513 steht eben für “Domänen-Benutzer”).

Mit Active Directory-Benutzer und Computer kann man dies über eine Benutzerdefinierte Suche mit diesem LDAP-Filter tun:

"(&(objectClass=user)(objectCategory=person)(!primaryGroupID=513))"

In unserem SQL-basierten AD-Abfragetool Carmen könnte eine solche Abfrage so lauten:

SELECT name,member FROM 'LDAP://DC=domain,DC=tld' WHERE objectClass='user' and objectCategory='person' and primaryGroupID <> '513'

Das hervorragende Abfragetool AdFind von Joe Richards erledigt die Aufgabe so:

adfind -f "(&(objectClass=user)(objectCategory=person)(!(primaryGroupID=513)))" dn sAMAccountName primaryGroupID memberOf

Carsten Rachfahl [Hyper-V]: Videointerview mit Mr. Azure Pack Marc van Eijk

Videointerview with Marc van Eijk about Azure Pack Thumb4

Meine Firma arbeitet momentan für einige Kunden und implementiert die Microsoft CloudOS Vision. Ein integraler Bestandteil hierbei ist Microsoft Azure Pack. Und so ist es kein Wunder das ich mit schon lange auf ein Interview mit Mr. Azure Pack Marc van Eijk gefreut habe. Marc ist Azure MVP und für mich die Azure Pack Quelle schlecht hin.

Auf dem Technical Summit in Berlin letzten November hatte ich dann endlich die Chance mit Mark ein Interview zu führen und was soll ich sagen wir sprechen über Azure Pack und ein bisschen Azure.

Ich wünsch euch viel Spass beim anschauen des Interviews.

Hier noch einige Resourcen:

Hyper-V.nu Blog

Windows Azure Pack Wiki

Marcs TechEd 2014 NA Azure Pack Vortrag

Marcs Technical Summit 2014 Vortrag zu Azure Pack 

Marcs Blog Serie zur VMRole auf TechNet Part 1, Part 2 and Part 3

Michel Lüscher [MS]: Mounting VHD Error Message “Sorry, there was a problem mounting the file”

Windows as well as Windows Server has this small but great feature to mount ISO and VHD images locally. This makes certain scenarios much easier, like the VM Offline Patching explained in another article. In some situations, the operating system might not mount the image and return an error message instead:  Sorry, there was a

Willmar Heinrich: Migration von Windows 7 nach 8.1

So langsam kommen ja auch die Windows 7 Rechner dran mit der Migration zur aktuellen Version. Aktuell ist die Version 8.1. Sollte ja eigentlich kein Problem sein… – doch Vorsicht! Die direkte Migration übernimmt keine Apps, sprich Programme. Es wird also im Wesentlichen eine Neuinstallation! Ich kramte in meinen Erinnerungen: Das ging doch mal? Klar […]

Willmar Heinrich: Das war noch Qualität….

2002/2003 war ich in den USA, dort habe ich die Idee der Blackberrys mitgebracht und seitdem viele Jahre nur noch diese Geräte benutzt. Dass ich jetzt ein WindowsPhone benutze, ist ein anderes Thema. In den USA hatte ich ein Triple-Band-Handy gekauft, da dort mit meinem Handy nichts anzufangen war. Seit dem habe ich selbiges in […]

faq-o-matic: “Realistische” Testbenutzer im Active Directory erzeugen

Wenn man ein echtes Firmen-Active Directory mit tausenden Benutzern simulieren soll, stellt man schnell fest, dass die Erzeugung realistischer Testbenutzer alles andere als einfach ist. Man findet im Internet zwar haufenweise PowerShell-Einzeiler, die "mal eben" ein Benutzerkonto anlegen, aber was, wenn richtige Vor- und Nachnamen verwendet werden sollen? Adressen, die es wirklich gibt und Postleitzahlen, die zur Telefonvorwahl passen? Wenn es realistisch werden soll, werden zwei Dinge benötigt: zum einen Eingabedateien mit Namen, Adressen, etc. Zum anderen ein Skript, das mittels der Daten Benutzerkonten anlegt. Auf meinem Blog steht beides bereit.

Features

Das Skript soll eine beliebige Anzahl an Benutzerkonten erzeugen können, deren folgende Attribute mit realistischen Werten gefüllt sind:

  • Logon name (sAMAccountName)
  • User principal name (UPN)
  • First name
  • Last name
  • Display name
  • E-mail address
  • Street
  • City
  • Postal code
  • State
  • Country
  • Phone number
  • Company
  • Department
  • Title

Die Konten sollen in einer beliebigen OU erzeugt werden. Sie sollen ein Passwort haben und aktiviert sein. Das Ergebnis soll wie folgt aussehen:

image

Download

Das fertige PowerShell-Skript samt benötigter Eingabedateien kann in Helge Kleins Blog heruntergeladen werden. Im zugehörigen englischsprachigen Artikel werden noch weitere Hinweise zur Nutzung gegeben. Viel Spaß damit!

Scolab: SharePoCalypse 20 – Gib uns dein Erstgeborenes

Die letzten zwei Wochen waren reich an SharePocalypsen. Fremde BMWs lassen sich via Smartphone öffnen, Samsung Smart TVs hören in die gute Stube, WLAN Kunden im Flughafen geben ihr Erstgeborenes an F-Secure und mittendrin erhebt Andrew Keen seinen warnenden Finger.   ShowNotes … Weiterlesen

Hans Brender: OneDrive | 100 GB extra storage for 2 years

OneDrive, Microsoft OneDrive

First only for US, now all over the world. Here you may grab 100 GB extra storage for your OneDrive for 2 years.

OneDrive storage You may click on “more storage” and see your current storage for your selected Account

Then you click here

allow access Now you should read the next dialog in your language and answer with “yes”.

But you should read it !!

OneDrive storage and if you refresh the storage page you see:

100 GB extra storage for 2 years

You have more then one OneDrive Account? Then you must switch your Account (Log off and sign in with you another Account)


Arnd Rößner: Erfolgreiches Open Licensing Programs (OLP) jetzt auch für Microsoft Dynamics CRM Online

Microsoft Dynamics CRM Online steht den Microsoft-Partnern seit dem 1. Februar 2015 für den Wiederverkauf im Rahmen des Open Licensing Programs (OLP) zur Verfügung. Mit der Ankündigung von Dynamics CRM Online in Open hat die Microsoft Corporation zudem drei neue Cloud CRM Kompetenzen vorgestellt. Die zur weltweiten Partnerkonferenz 2014 erstmals präsentierten Services richten sich speziell an die Anforderungen für kleine und mittelständische Unternehmen mit bis zu 250 Benutzern. Microsoft Partner mehr [...]

Arnd Rößner: TYPO3 CMS ab sofort auch auf Microsoft Azure verfügbar

Die Cloud hilft beim schnellen und einfachen Aufsetzen von TYPO3-Webseiten und federt Lastspitzen im Betrieb flexibel abDas quelloffene Content Management System TYPO3 CMS ist ab sofort auch unter Microsoft Azure verfügbar. Kunden von Azure finden TYPO3 CMS in der Azure Web App-Gallery und können so im Handumdrehen eine komplexe Website aufsetzen, verwalten und zum Beispiel über Autoscaling schnell an wechselnde Systemanforderungen anpassen. TYPO3 CMS ist eines der meist genutzten Content Management mehr [...]

Willmar Heinrich: Moderne Kommunikation…

So kurz am Wochenende finde ich Zeit, über einige Erlebnisse der letzten Tage und Wochen nachzudenken… Aus gegebenen Anlass musste ich mit einigen Behörden, Steuerberater, Notar, Krankenversicherung u.s.w. kommunizieren. Dass alle bereits E-Mails empfangen, auch wenn es vielleicht erst nach Tagen gelesen wird, das sollte man schon im Jahr 2015 als Fortschritt bezeichnen. Doch wie […]

TechNet Austria [MS]: Wie Du Deine technischen Fähigkeiten unter Beweis stellst: Know It. Prove It.

Know It. Prove It.

Ob IT Spezialist, Entwickler oder Student – es gibt immer einen Bereich, in dem Du Dich weiterentwickeln kannst. „Know it. Prove it.“ ist ein von Microsoft initiierter Wettbewerb, bei dem Du den ganzen Februar die Möglichkeit hast, Dein Know-how zu erweitern und Deine Fähigkeiten unter Beweis zu stellen.

Nimm die Herausforderung an und wähle Deinen Lernbereich. Zusätzliche Anreize findest Du außerdem im Born To Learn Blog.

Welches Thema wirst Du rocken?

Wähle die Themen, in denen Du Deine Fähigkeiten verbessern möchtest. Know It. Prove It. stellt acht Trainings von je 28 Tagen Dauer zur Auswahl.

Know It. Prove It.Know It. Prove It.Know It. Prove It.Know It. Prove It.

Know It. Prove It.Know It. Prove It.Know It. Prove It.Know It. Prove It.

Jedes Training enthält von Microsoft Rockstars erstellte Module, die helfen, wertvolle Fähigkeiten schnell und richtig zu erlernen. Du kannst Dich in Deinem Know It. Prove It. Konto an jedem beliebigen Standort anmelden, die Lautstärke aufdrehen und jammen. Du verdienst Badges und Punkte, trittst in Lernwettbewerben gegeneinander an und interagierst mit Mitgliedern der KiPi (Know It, Prove It) Community.

Steigere noch im Februar Deine technischen Fähigkeiten auf das Niveau eines Rockstars!

Wie? Nimm an den einmonatigen kostenlosen Trainings teil und wähle Dein spezielles Thema – oder auch alle!

Nail Own: Microsoft Virtual Academy Kurs zu Failover Clustering

Diesmal ein Tipp zu einem richtig guten, kostenlosen Failover Clustering Kurs aus der Microsoft Virtual Academy (MVA). Warum das Videotraining so gut ist?

Elden Christensen, seines Zeichens Principal Program Manager für Clustering mit über einem Jahrzehnt Erfahrung im HA-Bereich und Symon Perriman, ehemaliger Microsoft Senior Technical Evangelist, halten diesen Kurs ab – das spricht doch schon für sich.

Hier der Online-Kurs:
» http://www.microsoftvirtualacademy.com/(…)failover-clustering(…)

Diese englischsprachigen Videos sollte sich jeder ansehen, der sich mit Failover Clustering in Windows Server 2012 R2 befasst.
Der ausführliche Kurs umfasst neun Module mit ca. 60 Minuten Laufzeit je Video:

  • Modul 1: Introduction
  • Modul 2: Cluster Deployment & Upgrades
  • Modul 3: Cluster Networking
  • Modul 4: Cluster Storage & Scale-Out File Server (SOFS)
  • Modul 5: Hyper-Clustering
  • Modul 6: Multi-Site Clustering & Disaster Recovery
  • Modul 7: Advanced Cluster Administration & Troubleshooting
  • Modul 8: Managing Clusters with System Center 2012 R2
  • Modul 9: Recommended Resources & Next Steps

Stay tuned,
N.Own

Scolab: Warum Microsofts HoloLens ihren Betrieb auf den Kopf stellen wird

Die HoloLens zündet die „Sensorification of the Enterprise“. Alle lieben Microsofts HoloLens. Nur: warum? Die Microsoft Fan-Boys lieben so wie so alles was von Nord-Westen der USA kommt. Hauptsache irgendetwas innovatives. Ob Fitnessbarmband, Telefon oder Holo-Brille. Die grossen Tech-News Seiten … Weiterlesen

Arnd Rößner: Vorsicht! Microsoft-Patch legt Rechner lahm

Vorsicht! Microsoft-Patch legt Rechner lahm – heise online Viele Grüße Arnd Rößner

Carsten Rachfahl [Private Cloud]: Kurzfristig noch Plätze frei auf der Exchange & Office 365 Expert Summit

Vom 18.-19.02.2015 findet in der Microsoft Niederlassung in Köln der “Exchange & Office 365 Expert Summit” statt. Von Süd Afrika, Großbritannien, Österreich und Deutschland kommen die Sprecher. Zwei Tage steht Exchange im Mittelpunkt egal ob On Premise, Hybrid oder in der Cloud. Meine zwei Sessions drehen sich um Office 365. Nach einem …

Weiterlesen

TechNet Austria [MS]: So sicher ist die Cloud–Datenschutz und Datensicherheit in der Microsoft Cloud

Am 26. Februar findet von 09:00 Uhr bis 13:30 Uhr bei Microsoft Österreich eine Veranstaltung rund um das Thema Datenschutz und Datensicherheit in der Microsoft Cloud statt. Die Veranstaltung richtet sich dabei an IT Entscheidungsträger, Sicherheits- und Datenschutzbeauftragte und Juristen von Unternehmen und soll helfen, ein gemeinsames Bild zur Entwicklung einer Cloud Strategie zu entwickeln und sich über die Rahmenbedingungen zu informieren.

image

Cloud Computing ist in aller Munde, eröffnet neue Möglichkeiten, hilft Unternehmen neue Strategien und Entwicklungsmöglichkeiten zu finden. Gleichzeitig schürt es Ängste und diese müssen sachlich adressiert werden.

Die Dynamik der Cloud-Angebote verlangt ein Umdenken. Dazu gehört auch, dass Verantwortungsbereiche neu abgesteckt und die transnationalen Regeln in Bezug auf Datensicherheit (Zuverlässigkeit), Datenschutz (Zugangskontrolle) und Transparenz (durch EU-konforme Standardvertragsklauseln) strikt eingehalten werden; und die Einsicht, dass Datenschutz bereits innerhalb des Unternehmens beginnt.

Microsoft hat eine transparente Kommunikation, was Regelwerk und rechtliche Rahmenbedingungen betrifft.  IN diesem Expertenbriefing erhalten Sie die Möglichkeit rechtliche Aspekte, behördliche Vorgaben, technische Details und Best Practices kennen zu lernen und sich mit Juristen und Experten zum Thema auszutauschen.

Weil Microsoft weiß, dass gerade beim Thema Cloud der Dialog von Business und IT entscheidend ist.

Die Agenda:

09:00 – 09:30

Keynote

Andreas Ebert

09:30 – 10:15

Patriot Act, Datenschutz und Compliance – alles neu?

Dr. Winklbauer

10:15 – 11:00

Datenschutz, Privatsphäre und Compliance bei Microsoft Online-Diensten für Unternehmen

Martin Zimmermann/Alfred Ecker/ Dr.Winklbauer

11:00 – 11:30

Pause

 

11:30 – 12:30

Datensicherheit bei Microsoft Azure und Office 365

Rainer Stropek MVP/Martina Grom MVP/ Harald Leitenmüller

12:30 – 13:30

Paneldiskussion (Q&A)

alle Sprecher

Kommen Sie vorbei und nutzen Sie diese Gelegenheit, sich über den heutigen Stand der Sicherheit in Microsoft Cloud Diensten zu informieren. Hier geht es zur Anmeldung!

faq-o-matic: AD-Gruppen auswerten mit einem PowerShell-Skript

Der australische CTP Jeremy Saunders hat ein umfangreiches PowerShell-Skript veröffentlicht, das eine umfassende Analyse von Gruppen in Active Directory ausführt. Es eignet sich hervorragend zur Dokumentation, vor allem aber für Best-Practice-Audits.

Das Skript untersucht unter anderem folgende Aspekte der Gruppenstruktur:

  • Übersicht der Gruppen nach Typ
  • Leere Gruppen
  • Systemgruppen
  • Geschützte administrative Gruppen
  • Duplikate
  • Mail-Gruppen
  • Unix-Gruppen

Das Skript läuft sowohl in Umgebungen mit Exchange als auch in reinen AD-Domänen. Es erzeugt CSV-Dateien als Ausgabe, die man hinterher gut mit Excel analysieren kann. Zudem gibt Jeremy einige nützliche Hinweise zum Umgang mit Gruppen.

[Script to Create an Overview and Full Report of all Group Objects in a Domain | J House Consulting]
http://www.jhouseconsulting.com/2015/01/02/script-to-create-an-overview-and-full-report-of-all-group-objects-in-a-domain-1455

Carsten Rachfahl [Hyper-V]: Test: Violin 6000 All Flash Array

imageWer einen hohen Bedarf an IOPS, niedrigen Latenzen und/oder Performance im Bereich Netzwerkspeicher hat, kommt um ein System mit flashbasiertem Speicher kaum herum. Es gibt unterschiedliche Ansätze, wie die benötigte Leistung erbracht werden kann. In diesem Test geht es um ein System der Firma Violin Memory, die mit der Violin 6000 All Flash Arrays ein Speichersystem anbietet, welches ausschließlich auf Flash-Speicher basierend und mit zu einer Million IOPS bei einer äußerst geringen Latenz eine High-End Lösung bereit stellt. Welche Performance dieses System im Bereich der Virtualisierung mit Hyper-V bietet schauen wir uns in diesem Artikel an.

Dieser Artikel ist im November 2014 bereits im IT-Administrator Magazin erschienen.


6100, 6200 oder 6600?

Innerhalb der Violin 6000 Serie gibt es mehrere Varianten, die sich in der Art des Flash Speichers, der Größe, der maximalen Performance und natürlich dem Preis unterscheiden.

image

*) Dieses Modell gibt es nicht als Windows Flash Array, sondern nur mit dem Violin-eigenen Betriebssystem vMOS.

**) die Nutzkapazität ist abhängig von der Formatierung. Die Werte beziehen sich auf ein Formatierungslevel von 84%.

Das in diesem Test genutzte Modell trägt die Bezeichnung Violin 6264 und bietet eine Brutto-Speicherkapazität von 70 TB, wovon 44 TB nutzbar sind. Die Anzahl der IOPS, die mit diesem Modell erreicht werden können, liegen laut Datenblatt des Herstellers bei 750.000.

Der technische Aufbau

Neben dem reinen Flash-Speicher enthält das Gerät unter anderen noch zwei Server (vom Hersteller als Memory Gateways, abgekürzt MG, bezeichnet), die mit Windows Server 2012 R2 in der Storage Edition betrieben werden. Die Lizenzen für diese Server sind bereits enthalten, auf jedem der beiden Server-Einheiten befindet sich ein Lizenzaufkleber. Beide Server sind intern mehrfach redundant an den Flash-Speicher angebunden, dies wird über vier aktiv/aktiv RAID-Controller (vRAID Control Modules, abgekürzt VCM) erreicht. Von diesen vier VCMs könnten bis zu drei ausfallen, der Betrieb würde (wenn auch verständlicherweise mit Leistungseinbußen) weiterhin funktionieren. Der Speicher in dem Testgerät besteht aus einzelnen Modulen mit einer Größe von jeweils 1 TB, diese werden als Violin Intelligent Memory Modules bezeichnet (im weiteren Verlauf mit VIMM abgekürzt). Fünf dieser VIMMs werden jeweils zu einem Verbund (vom Hersteller wird dieser Verbund als VIMM Protection Group bezeichnet) zusammengefasst. Eingehende Daten werden grundsätzlich in 4KB großen Blöcken abgespeichert. In jedes VIMM einer VIMM Protection Group werden 1 KB geschrieben, in das fünfte VIMM werden zusätzlich 1KB Paritätsinformationen geschrieben. Vorweg geschaltete Array Control Module (ACM) sorgen dafür, dass eingehende Daten nur in Speicher geschrieben werden, der gerade nicht durch einen anderen Prozess beeinflusst wird. Diese Technik umgeht Performance-Einbrüche durch anstehende oder gerade aktive Lösch-Aktionen oder durch eine aktive Garbage Collection und sorgt für eine durchgehend hohe Performance.

Für den Ausfall eines VIMMs stehen insgesamt vier Hot Spare-VIMMs zur Verfügung. Sollte es zu einem Ausfall kommen, können alle Komponenten (VIMMs, VCMs, Netzteile, …) im Betrieb getauscht werden.

clip_image001

Eine Anbindung der Server per Netzwerk nach „außen“ wird je nach Konfiguration über Fibre Channel (acht Ports mit je 4 oder 8 Gb/s), Ethernet (acht Ports mit je 10 Gb/s) oder Infiniband (vier Ports mit je 40 Gb/s) erreicht, wobei die Fibre Channel-Variante ausschließlich bei dem vMOS-System zum Einsatz kommt. Bei den Windows Flash Array-Modellen haben Sie „nur“ die Wahl zwischen Ethernet oder Infiniband. Das uns zur Verfügung stehende Gerät besitzt die bereits erwähnte Anbindung per Ethernet, d.h. es stehen insgesamt 80 Gb/s zur Verfügung. Verbaut sind vier Karten der Firma Chelsio mit jeweils zwei Interfaces (Chelsio T-520CR Dual-Port 10 Gigabit Ethernet Adapter). Jeder der beiden Server bekommt zwei dieser Karten zugewiesen und kommt somit auf eine Bandbreite von 40 Gb/s. Die Karten unterstützen Remote Direct Memory Access (RDMA), auf diese Funktionalität gehen wir später erneut ein und schauen uns die Vorteile dieser Technik an.

Zusätzlich zur Anbindung über 40 Gb/s besitzt jeder Server noch einen Intel 82579LM- sowie zwei Intel I350-Adapter mit einer Bandbreite von jeweils 1 Gb/s.

Beide Server verfügen über 24 GB RAM (die Anzahl an RAM könnte bei Bedarf auf bis zu 48 GB erhöht werden) sowie zwei Intel Xeon E5-2448L CPUs mit jeweils 20 MB L3 Cache. Jede CPU besitzt acht Cores, dank Hyperthreading käme jeder Server somit auf 32 logische Prozessoren.

Die Speicherbereitstellung

Die beiden in dem Storage verbauten Server werden nicht direkt zur Virtualisierung genutzt, sondern stellen den Flash-Speicher über SMB 3 im Netzwerk zur Verfügung. Die beiden Systeme werden zu einem Failover Cluster konfiguriert, innerhalb dieses Clusters wird eine hochverfügbare Dateiserver-Rolle betrieben. Diese Art von Dateiserver wird als Scale-Out File Server bezeichnet. Sollte einer der beiden Server ausfallen, übernimmt der zweite Server den kompletten Betrieb alleine. Dieser Vorgang ist vollständig transparent, es kommt zu keiner Kommunikationsunterbrechung zwischen dem Dateiserver und den angeschlossenen Hyper-V Hosts. Voraussetzung für die Nutzung dieser Technik auf Seiten der Virtualisierungs-Hosts ist mindestens ein Windows Server 2012, absolut empfohlen ist allerdings die Nutzung von Windows Server 2012 R2, da hier einige Änderungen und Verbesserungen in das Produkt eingeflossen sind.

Die Installation der beiden Server wird über einen kleinen Wizard gestartet, hier werden grundsätzliche Informationen wie Name, Kennwort und IP-Adresse abgefragt. Nach der Installation sind beide Systeme per Remote Desktop zu erreichen und können entweder manuell oder über den im Betriebssystem enthaltenen Assistenten administriert werden.

Der Storage kann über das Violin Control Utility administriert werden. Das Programm selbst hat wenig Konfigurationsmöglichkeiten, Sie können lediglich vorhandene LUNs löschen oder neue anlegen. Sichtbar sind noch weitere Informationen über die Controller und die Art von Speicher, hier können aber keine Änderungen vorgenommen werden. Alle erstellten LUNs sind immer beiden Servern zugewiesen, nach dem Anlegen können Sie die Datenträger in der Datenträgerverwaltung sehen und verwalten. Negativ fällt auf, dass keine Möglichkeit zur Größenänderung der LUNs vorhanden ist.

clip_image003

Einen generellen Überblick über das gesamte System erhalten Sie über die Weboberfläche. Diese ist über einen Webbrowser erreichbar und zeigt einige Informationen über das System an.

clip_image005

clip_image007

Zusätzlich können über den Bereich Administration noch weitere Aufgaben ausgeführt werden, z.B. ein Neustart des Systems, eine Anpassung von IP-Adressen oder die Anzeige der Logdatei.

clip_image009

Die Konsole macht einen sehr aufgeräumten Eindruck und zeigt sehr schnell einige Informationen über den aktuellen Betriebsstatus an.

SMB Direct

Die in dem Testsystem verbauten 10 GbE-Karten sind RDMA-fähig. Dies bedeutet, dass bei einer Kommunikation zwischen dem SMB-Server (in diesem Fall einer der beiden Scale-Out File Server Knoten) und einem SMB-Client (Verwechseln Sie Client nicht mit einem „normalen“ Client, in diesem Fall ist mit SMB-Client ein Hyper-V Host gemeint) eine sehr hohe Bandbreite bei einer sehr geringen Latenz erreicht werden kann. Dies liegt daran, dass ein SMB-Client die Daten auf dem Datei-Server direkt in seinen Arbeitsspeicher liest. Da bei dieser Aktion weder die CPU des Datei-Servers noch die CPU des SMB-Clients (in diesem Fall des Hyper-V Hosts) genutzt werden muss, stehen beiden Systemen diese Ressourcen für andere Aufgaben zur Verfügung. Auf Seiten des Dateiservers ist dies z.B die Bearbeitung von Nicht-RDMA-Traffic, auf Seiten des Hypervisor führt dies unter anderem zu einer Erhöhung der VM-Anzahl, die Sie auf diesem System betreiben können.

Die hier genutzten Karten nutzen die iWARP-Technik. Vorteil dieser RDMA-Variante (z.B. gegenüber der RoCE-Variante) ist, dass auf Seiten der Switches keine weitere Konfiguration vorgenommen werden muss. Bei der Einrichtung ist darauf zu achten, dass für die 10 GbE-Karten kein Team konfiguriert werden darf. Sobald ein Adapter Mitglied in einem Team ist, steht die RDMA-Funktionalität nicht mehr zur Verfügung. Da in den Hyper-V Hosts jeweils nur zwei Ports mit iWARP-Technik zur Verfügung stehen, werden im Dateiserver-Failover Cluster ebenfalls nur zwei der vier möglichen Ports pro Server genutzt.

Das System unter Last

Um die Performance des Systems unter Last zu sehen, wurde ein Scale-Out File Server mit insgesamt fünf Datenträgern angelegt. Drei der Datenträger spielen bei der Betrachtung der Leistung keine Rolle, da einer dieser Datenträger ausschließlich als Datenträgerzeuge im Quorum verwendet wurde und die anderen beiden nicht benötigt werden (Anmerkung: Zwei jeweils 10 TB große Datenträger reichen aus, um pro Datenträger über 1200 Instanzen der Benchmark-VM zu speichern). Die anderen beiden Datenträger wurden als Cluster Shared Volume konfiguriert, jeder dieser Datenträger bietet ebenfalls eine Speicherkapazität von 10 TB.

Auf Seite der Hyper-V Hosts wurden acht Systeme ohne RDMA-Karten sowie zwei Systeme mit RDMA-Karten genutzt, um Last auf dem Storage zu erzeugen. Pro Host laufen VMs, in denen das SQLIO-Programm von Microsoft für eine Belastung sorgt. Zeitweise sorgen insgesamt 440 dieser VMs für eine Belastung von Netzwerk und Storage. Die Nicht-RDMA-Systeme sind Schulungsrechner mit einem Intel Core i5-2400S bzw. einem Intel Core i7-3770, 24 bzw. 32 GB RAM, zwei 1 Gb/s Karten sowie einer Intel X540-T2 Karte mit zwei 10 Gb/s-Ports. Bei den RDMA-Systemen handelt es sich um Cisco Server mit zwei Intel E5-2650 CPUs, 128 GB RAM, vier 1 Gb/s Ports sowie einer Chelsio T420-BT Karte mit zwei 10 Gb/s-Ports.

In jeder VM wird nach dem Start automatisiert eine SQLIO-Instanz gestartet, die von einer zentralen Freigabe eine Konfigurations-Datei herunterlädt und mit den konfigurierten Werten startet. Pro Durchlauf werden jeweils 60 Sekunden lang die Tests Random Read, Random Write, Sequential Read und Sequential Write durchgeführt. Jeder Durchlauf beinhaltet zwei Schleifen. Nach diesem Durchlauf wartet das Programm eine beliebige Zeit zwischen 0 und 60 Sekunden, bevor der nächste Durchlauf startet. Vor jedem Durchlauf wird die Konfiguration erneut von der zentralen Freigabe heruntergeladen, falls in dieser Zeit Änderungen vorgenommen wurden (z.B. eine Änderung der Block-Größe) werden diese nun angewandt. In dem folgenden Screenshot sehen Sie eine VM, in der ein Test mit einer Blockgröße von 8KB durchgeführt wird.

clip_image011

Laufen alle VMs einige Zeit, verschieben sich durch die Zufalls-Wartezeiten zwischen den einzelnen Durchläufen die Tests so, dass die Belastung nicht immer parallel anliegt, sondern variiert und so eine möglichst reale Umgebung versucht nachzustellen. Durch die Messung einiger aussagekräftiger Leistungsindikatoren in der Windows Leistungsüberwachung über einen gewissen Zeitraum lassen sich so einige Werte ermitteln, die die Performance des Geräts zeigen.

Die Tests in Zahlen

Konfiguration:

· Anzahl der VMs: 260 (160 Stück auf Nicht-RDMA-Hosts, 100 auf zwei RDMA-Host)

· Anzahl der Hosts: 10

· SQLIO-Einstellungen

o Loops: 2

o Laufzeit: 60 Sekunden

o Blocksize: 4KB

o Threads: 2

o Queue Depth: 8

Ergebnisse (Messung der Performance über 30 Minuten auf beiden Systemen des Dateiserver-Failover Cluster):

image

Die ermittelten Werte zeigen, dass in Summe durchschnittlich fast 180.000 IOPS realisiert werden konnten. Die maximalen Werte liegen sogar noch deutlich höher, hier konnten über 250.000 IOPS gemessen werden. Die gemessenen Größen pro Anfrage zeigen sehr deutlich, dass das SQLIO-Tool wie gewünscht 4KB große Blöcke erzeugt und verarbeitet hat. Die durchschnittliche Zeit pro Anfrage liegt laut Anzeige durchschnittlich bei 1 ms, was bei der großen Anzahl an IOPS und der großen Menge an Anfragen sehr gut ist. Die Höhe des Datendurchsatzes spielt hier eher weniger eine Rolle, trotzdem sind die Daten auch in der Tabelle zu finden.

Konfiguration:

· Anzahl der VMs: 260 (160 Stück auf Nicht-RDMA-Hosts, 100 auf zwei RDMA-Host)

· Anzahl der Hosts: 10

· SQLIO-Einstellungen

o Loops: 2

o Laufzeit: 60 Sekunden

o Blocksize: 8KB

o Threads: 2

o Queue Depth: 8

Ergebnisse (Messung der Performance über 30 Minuten auf beiden Systemen des Dateiserver-Failover Cluster):

image

Bei einer Erhöhung der Blockgröße des SQLIO-Tests auf 8KB zeigt sich, dass die IOPS nur leicht steigen gegenüber den Tests mit 4KB großen Blöcken. Bei diesem und allen anderen Werten (außer den 4K-Werten) muss allerdings zusätzlich beachtet werden, dass die Messung auf den Dateiserver-Knoten in 8KB IOPS durchgeführt werden. Auf dem Violin-System selbst werden die IOPS durchgehend in 4KB gemessen und angezeigt, da hier ausschließlich 4KB große Blöcke verarbeitet werden. Auf Seiten des Storage müssen die hier aufgeführten Werte verdoppelt werden, um einen direkten Vergleich gegenüber dem vorherigen Benchmark mit 4KB zu haben.

clip_image013

Die erreichten Transferraten steigen ebenfalls um knapp das doppelte, hier kann logischerweise mit einer größeren Blockgröße und einer fast gleichen IOPS-Anzahl auch ein höherer Durchsatz erreicht werden. Die Verarbeitungszeit der Daten bleibt weiterhin konstant bei (gerundet) 1ms.

Konfiguration:

· Anzahl der VMs: 260 (160 Stück auf Nicht-RDMA-Hosts, 100 auf zwei RDMA-Host)

· Anzahl der Hosts: 10

· SQLIO-Einstellungen

o Loops: 2

o Laufzeit: 60 Sekunden

o Blocksize: 64KB

o Threads: 2

o Queue Depth: 8

Ergebnisse (Messung der Performance über 30 Minuten auf beiden Systemen des Dateiserver-Failover Cluster):

image

Durch die Erhöhung der Blockgrößen auf 64 KB zeigt sich eine weitere Verringerung der IOPS auf durchschnittlich knapp 45.000, aber auch eine deutliche Steigerung der Transferraten. Durchschnittlich konnten über beide Freigaben kontinuierlich 2 Gigabyte pro Sekunde verarbeitet werden (sowohl schreibend als auch lesend), zu Spitzenzeiten stieg die Bandbreite auf knapp 3 Gigabyte. Da die Verarbeitung von solch großen Blöcken seine Zeit braucht, stieg die durchschnittliche Bearbeitungszeit pro Paket auf durchschnittlich 15 ms.

Probleme bei der Erzeugung von Last und Grenzen der Testumgebung

Bei der Erzeugung einer möglichst hohen Belastung auf dem Flash-Storage sind wir bei der Menge der VMs (trotz Nutzung von RDMA) an Grenzen gestoßen. Die Nicht-RDMA-fähigen Hyper-V Hosts waren bei der Ausführung von jeweils 20 VMs fast an der Grenze ihrer CPU-Leistung, diese lag durchschnittlich zwischen 80 und 95%. Insgesamt acht Hosts konnten so insgesamt 160 VMs betreiben.

Auf Seiten der Cisco Server mit den verbauten Chelsio T420-BT Karten mussten wir feststellen, dass 50 VMs den Server zu knapp 50% auslasten und je nach Blockgröße für eine Bandbreite zwischen 16 und 18 Gb/s pro Hyper-V Host sorgen. Zwei dieser Systeme konnten so mit 100 VMs Tests auf dem Violin Storage durchführen. Weitere Hyper-V Hosts mit RDMA-fähigen Netzwerkkarten hätten so noch mehr VMs betreiben können, bei denen die Messwerte wahrscheinlich noch weiter gestiegen wären. Hierbei wäre dann allerdings zu beachten, dass die beiden NICs in den Memory Gateways um weitere Karten erweitert werden müssen, da sonst die Anbindung mit 20 Gb/s der Flaschenhals in dem Aufbau ist. Da die Karten logisch in jeweils einem eigenen Subnetz liegen müssen (SMB Multi Channel in einem Failover Cluster funktioniert nur, wenn die Karten logisch getrennt sind), werden auf Seiten der Hyper-V Hosts ebenfalls weitere Karten benötigt. Dies ist einer der vielen Dinge, die während der Planungsphase berücksichtigt werden muss, damit es im späteren Betrieb nicht an „nur“ 20 Gb/s hängt.

Während der Tests hat sich gezeigt, dass ein Betrieb von VMs mit dynamisch erweiterbarer Festplatte die Performance sehr stark (negativ) beeinflusst. VMs sollten ausschließlich mit VHDX-Dateien in einer festen Größe betrieben werden, um hier von vorn herein mögliche Engpässe auszuschließen. Zum Zeitpunkt der Erstellung dieses Tests arbeitet der Hersteller gemeinsam mit Microsoft bereits an einer Best Practise-Beschreibung, die unter anderem diesen Punkt beinhaltet. Weiterhin werden einige weitere Empfehlungen ausgesprochen, die einen Betrieb mit Hyper-V möglichst optimal vorbereiten.

Neben den reinen Messwerten gibt es ja immer auf Seiten des Administrators (bzw. in meinem Fall des Testers) ein Gefühl für den Betrieb, die „gefühlte Geschwindigkeit“. Bei der Arbeit mit dem Violin System habe ich zu keinem Zeitpunkt auf Seiten der Hyper-V Hosts oder der VMs ein Problem in Bezug auf die Performance gehabt. Selbst während einer Belastung des Storage mit 260 VMs, in denen alle die SQLIO-Tests liefen, gab es keine Hänger bei der Arbeit mit einer VM. Alle durchgeführten Aktionen waren gewohnt schnell, z.B. der Start von Programmen, einer Auflistung aller Dateien auf dem Laufwerk C: oder dem Kopieren von Dateien auf ein Netzlaufwerk oder von einem Netzlaufwerk in die entsprechende VM.

Die Nutzung des CSV Block Cache

Ab dem Windows Server 2012 gibt es die Funktion des CSV Block Cache. Bei dieser Technik kann bei der Nutzung von CSV-Datenträgern in einem Failover Cluster ein gewisser Teil des RAMs als Lese-Cache genutzt werden. Unter Windows Server 2012 mussten zur Aktivierung dieser Funktion die Datenträger offline und wieder online genommen wurden. Dies bedeutet, dass die Funktion entweder direkt bei der Installation eingeschaltet werden musste oder im späteren Betrieb eine Downtime geplant werden musste, damit die Funktion nachträglich aktiviert werden konnte. Nach der Aktivierung kann bis zu 20% des verfügbaren Speichers genutzt werden. Die Empfehlung von Microsoft lautet bei Hyper-V Hosts, die Größen allerdings sehr moderat zu setzen und gibt hier Größen von 512MB bis maximal 2GB vor. Bei Scale-Out File Server-Systemen kann eine größere Menge an RAM genutzt werden, hier können problemlos 4GB oder mehr genutzt werden. (Quelle: http://blogs.msdn.com/b/clustering/archive/2013/07/19/10286676.aspx)

Unter Windows Server 2012 R2 hat sich die Aktivierung und Nutzung dieser Funktion verbessert, dies liegt unter anderem daran, dass die Funktion schon direkt bei der Installation und Einrichtung aktiviert ist, die Größe des zu nutzenden Speichers allerdings bei 0MB liegt. Sie müssen hier nur noch die Größe des Speichers anpassen, ein offline und wieder online schalten und somit ein Ausfall der Systeme auf diesem Volume muss nicht mehr berücksichtigt werden. Bei einem hochverfügbaren Dateiserver unter Windows Server 2012 R2 müssen Sie allerdings beachten, dass die gleichzeitige Nutzung von Tiering und einem CSV Block Cache nicht möglich ist. Sie können diese Funktion zwar aktivieren, es wird allerdings kein RAM als Lesecache genutzt.

Warum erzähle ich Ihnen all diese Informationen? Ganz einfach, in unserem Fall setzen wir mit der Violin einen Scale-Out File Server ein, der nur über eine Art von Speicher verfügt und somit kein Tiering (im deutschen als Speicherebenen bezeichnet) nutzt. Die verbauten VIMMs sind zwar schon unglaublich schnell und haben eine sehr geringe Latenz, allerdings dürfte der in den beiden Servern verbaute RAM noch deutlich schneller sein. Wir aktivieren nun in beiden Systemen jeweils 8GB RAM, starten die Systeme durch und schauen uns an, welche Veränderungen der Benchmark zeigt.

Konfiguration:

· Anzahl der VMs: 260 (160 Stück auf Nicht-RDMA-Hosts, 100 auf zwei RDMA-Host)

· Anzahl der Hosts: 10

· SQLIO-Einstellungen

o Loops: 2

o Laufzeit: 60 Sekunden

o Blocksize: 4KB

o Threads: 2

o Queue Depth: 8

Ergebnisse (Messung der Performance über 30 Minuten auf beiden Systemen des Dateiserver-Failover Cluster):

image

Konfiguration:

· Anzahl der VMs: 260 (160 Stück auf Nicht-RDMA-Hosts, 100 auf zwei RDMA-Host)

· Anzahl der Hosts: 10

· SQLIO-Einstellungen

o Loops: 2

o Laufzeit: 60 Sekunden

o Blocksize: 8KB

o Threads: 2

o Queue Depth: 8

Ergebnisse (Messung der Performance über 30 Minuten auf beiden Systemen des Dateiserver-Failover Cluster):

image

Fazit zur Nutzung des CSV Block Cache

Nach der Aktivierung des CSV Block Cache zeigte sich ein interessantes Verhalten: Bei Blockgrößen von 4KB und 8KB sanken die Daten fast komplett ein, nahezu alle Messwerte waren mit aktiviertem CSV Block Cache deutlich schlechter als ohne. Bei einer Blockgröße von 64KB waren die Unterschiede nicht mehr messbar, beide Tests zeigten annährend gleiche Werte. Interessant sind auch die Zugriffszeiten mit und ohne aktivierten CSV Block Cache: Während bei deaktiviertem Cache die Zugriffszeiten (bei 4KB und 8KB) konstant bei 1ms liegen, variieren diese mit aktiviertem Cache bei zwischen 0ms (bzw. nicht messbar durch den Performance Monitor) und 8ms.

Der Vergleich der jeweiligen Benchmarks zeigt direkt eine absolute Empfehlung: Schalten Sie den CSV Block Cache nicht ein. Die Aktivierung verschlechtert die Leistung signifikant.

Quellen:

http://blogs.technet.com/b/storageserver/archive/2014/04/22/violin-and-microsoft-jointly-develop-a-high-performance-all-flash-enterprise-storage-appliance-powered-by-windows-storage-server-2012-r2.aspx

http://www.chelsio.com/nic/t5-unified-wire-adapters/t520-cr/

http://pull.vmem.com/wp-content/uploads/techoverview-federal.pdf

http://blogs.msdn.com/b/clustering/archive/2013/07/19/10286676.aspx (CSV Block Cache)

Kay Giza [MS]: Was genau ist die Microsoft Virtual Academy (MVA)? Microsofts Online-Schulungsplattform?

Häufig wurde ich in letzter Zeit gefragt, was genau die MVA von Microsoft sei. Gerne gehe ich hier etwas genauer darauf ein... Die Microsoft Virtual Academy, oder kurz: MVA - stellt die zentrale und offizielle Online-Learning Plattform von Microsoft dar. In der MVA findet man kostenfreie und von Microsoft Experten durchgeführte Live- und Online-Kurse zu Microsoft Produkten, -Services und –Technologien. Diese kostenlosen Kurse können als Weiterbildungsangebot, Vorbereitungskurs zu Microsoft Prüfungen und -Zertifizierungen oder als schlicht als Online-Schulung zu bestimmten neuen oder zu vertiefenden Themen genutzt werden.... [... mehr in diesem Blogeintrag auf Giza-Blog.de]


This post is powered by www.Giza-Blog.de | Giza-Blog.de: RSS Feed
© Copyright 2006-2013 Kay Giza. All rights reserved. Legal

Don't contact us via this (fleischfalle@alphasierrapapa.com) email address.