TechNet · Englische TechNet Blogs · TechNet Deutschland · itproblogs.de · .NET Blogs

Marc Grote: Austausch eines selbstsignierten Remote Desktop Connection Zertifikats in Windows Server 2012 R2

Hallo Leutz,

Windows Server 2012 R2 verwendet fuer die Remote Desktop Connection ein selbst signiertes Zertifikat.
Anders als bei Windows Server 2008 R2 gibt es die MMC TSCONFIG.MSC in Windows Server 2012 / R2 nicht mehr.
Wie also das Zertifikat auf einem Server austauschen, ohne ueber den Server Manager ein Remote Desktop Services Deployment durch zu fuehren?
Die Loesung heisst per WMIC oder Powershell das alte Zertifikat und den Thumbprint zu ermitteln, ein neues Zertifikat anzufordern, mit privaten Schluessel zu exportieren und anschliessend per WMIC wieder an die RDS-Dienste zu binden.

Wie das geht, steht in folgendem Bilderbuch:
http://www.it-training-grote.de/download/RDS-2012R2-SelfSignedCertificate.pdf

Gruss Marc

TechNet Austria [MS]: Der Weg zur kostenfreien MSDN Azure Test-Subscription mit einem Microsoft Partner Account-Teil 2

In Teil 1 wurde ein neues Microsoft Konto zu einem Microsoft Partner hinzugefügt und diesem Konto ein MSDN-Abonnement zugeordnet. Somit kann das MSDN-Konto für das hinzugefügte Partner-Konto aktiviert und (für eine kostenfreie Microsoft Azure Test-Subscription) verwendet werden.

Natürlich funktioniert diese Aktivierung auch genauso mit einem “normalen” (Nicht-Partner) MSDN-Account.

1. MSDN aktivieren

Zunächst muss die Anmeldung mit dem Microsoft-Konto des neuen Partners erfolgen, am besten direkt auf der MSDN Website (schließlich haben wir ja bereits ein MSDN-Konto für diesen Partner hinzugefügt).

Die Anmeldung kann direkt gegen http://msdn.microsoft.com/ durchgeführt werden.

Sofern das MSDN noch nicht aktiviert ist (was nur durch die Zuordnung im MPN natürlich noch nicht erfolgt ist), muss dies nun durch den Link “Ihr Konto aktivieren” passieren.

image

Es folgt die Abo-Aktivierung. Hier müssen Vor- und Nachname, E-Mail Adresse und die “Abonnenten-ID” eingetragen werden.

image

Mit der “Abonnenten-ID” ist jene ID aus dem MPN (siehe unten) gemeint.

Zur Erinnerung hier der Screenshot aus der Registerkarte MSDN Subscriptions.
Die MSDN “Abonnenten-ID” heißt hier “Technical ID”… diese (hier: 1234567) wird in obigem Formular benötigt!

image

Wenn das Formular “Eigenes Abonnement aktivieren” ausgefüllt ist, Klick auf “Weiter”.

Stolperstein: Die Aktivierung funktioniert nicht?

Tipp: Wenn nun diese Fehlermeldung folgt…

Der Versuch schlägt fehl! Eingabe nicht erkannter Abonnementdaten” …

image

…dann liegt das Problem wahrscheinlich daran, dass die MSDN-Abonnenten-ID im MSDN System noch nicht bekannt ist. Es dauert nach meinen Erfahrungen mindestens einen Tag, bis das funktioniert. Laut Microsoft Dialogbox kann es auch 2 bis 3 Arbeitstage dauern:

“In einigen Fällen kann es 2 bis 3 Arbeitstage dauern, bis die Abonnementdaten bereit zur Aktivierung sind. Wenn dieser Fehler weiterhin angezeigt wird, besuchen Sie diese Seite später noch einmal.
Wenn Sie das Abonnement nach 3 Tagen immer noch nicht aktivieren können, wenden Sie sich an den Kundendienst.”

Abhilfe: Wenn das Partner-Konto vor weniger als einem Tag mit einem MSDN-Konto verknüpft wurde: WARTEN SIE MINDESTENS EINEN TAG und VERSUCHEN SIE ES DANACH EINFACH NOCHMALS!

Im Regelfall funktioniert es dann. Alternativ kann nur der Kundensupport (MSDN Subscription - Customer Service Center) für weitere Hilfe kontaktiert werden.

2. MSDN nutzen

Wenn die MSDN-Aktivierung geklappt hat, folgt die “My Account” MSDN-Dashboard-Seite. Als Subscription wird jene aus dem Partner-Netzwerk angezeigt – hier “Visual Studio Premium with MSDN (MPN)”.

image

Nun erhält der Partner den vollen Umfang des MSDN Ihres Unternehmens mit allen Downloads und weiteren Angeboten, je nach Partner-Status und Region.

Der Rest ist einfach: Klick auf den Link “Activate Windows Azure”.

3. Azure aktivieren

Auch Azure muss einmalig aktiviert (eigentlich: provisioniert) werden. Bei Verwendung von MSDN ist für die Aktivierung von Azure KEINE Kreditkarten-Eingabe erforderlich – sonst erscheint in diesem Formular ein Schritt 2 für die Eingabe der Kreditkartendaten.

image

Einzig eine “Mobile verification” – sprich eine SMS-fähige Telefonnummer – muss angegeben werden. Mit “Send text message” wird dieser an die Handy-Nummer versendet. Dieser empfangene Code muss dann in das Feld vor “Verify Code” eingetragen werden und mit dem Button überprüft werden.

Stolperstein: Ein interessanter Aspekt ist, dass das Versenden des Codes (bei mir in Österreich) mit dem Handy-Netz von Drei (Vorwahl 699 …) nicht funktioniert. Mit A1 (664 …) jedoch schon! Mit anderen Telefon-Providern konnte ich es noch nicht testen.

Abhilfe: D.h. das ist auch mein Workaround, wenn keine SMS kommt, am einfachsten jemand mit A1 Telefonnummer schnappen und den Code dorthin senden lassen. Achtung vor Timeout – die ganze Aktion muss relativ rasch innerhalb weniger Minuten erfolgen! Also einen Partner (oder sein Handy) griffbereit haben.

Nach “Verify Code” and Markieren des “Agreements” sollte die “Purchase”-Schaltfläche aktiv (grün) werden und der MSDN-Azure-Tenant kann angelegt werden. Dieser Provisionierungs-Vorgang kann ein bis zwei Minuten dauern.

4. Azure verwenden

Danach können alle Abonnements auf der Subscriptions-Seite verwaltet werden. Die neue Subscription aus dem MPN sollte nun das monatliche Guthaben von 75 Euro (od. 100 USD) anzeigen.

Hier ein Screenshot vom Endergebnis.

image_thumb33

5. Hinweise zur Verwendung von Azure

  • MSDN ist nur zum Testen da, nicht für Produktivsysteme.
  • Das Guthaben gilt monatlich und kann nach Belieben – also für alle Dienste – verbraucht werden. Wenn das Guthaben vor einem Monat Laufzeit verbraucht ist, werden die laufenden Dienste gestoppt.
  • Nach einem Monat Laufzeit wird wieder ein Guthaben aufgebucht – und gestoppte Dienste können wieder gestartet werden.
  • Wenn das Guthaben nicht ausreicht (z.B. wenn mehrere große VMs od. Cloud-Services laufen, etc.) kann das Limit mit “Remove spending limit” und Angabe einer gültigen Kreditkarte natürlich jederzeit erweitert werden. Das kann einmalig erfolgen, oder dauerhaft. Es werden dann alle darüber hinaus laufenden Kosten einfach von der Kreditkarte abgebucht – pay only what you use.
  • In einer Subscription können die angefallenen Kosten jederzeit durch den Besitzer der Subscription angezeigt und als PDF und CSV downgeloadet werden.

Das wars! Hier gehts zu den vorbereitenden Schritten in Teil 1.

Eigentlich recht einfach, mit ein paar wenigen Stolpersteinen gespickt. Ich hoffe, diese Schritt-für-Schritt Anleitung hilft beim unkomplizierten Aktivieren von Microsoft Azure aus dem Microsoft Partner Netzwerk!

Viel Spaß beim Testen!

TechNet Austria [MS]: Der Weg zur kostenfreien MSDN Azure Test-Subscription mit einem Microsoft Partner Account-Teil 1

Als Microsoft Partner erhält ein Unternehmen Zugang zu Microsoft MSDN und ein Testkontingent für Microsoft Azure. Nachdem dieser Vorgang einige Aktionen erfordert habe ich hier eine Schritt-für-Schritt Anleitung erstellt, beginnend vom Zuordnen eines Microsoft Kontos im Partner-Web bis zum Hinzufügen eines MSDN-Abonnements.

In Teil 2 folgt die Aktivierung eines Azure-Abonnements aus einer MSDN-Subscription.

Das Ziel ist also, als Microsoft Partner eine Azure Subscription zum Testen zu erstellen. Über die assoziierte MSDN Subscription erhält der Partner monatlich ein Guthaben von 75 Euro (100 USD), hier ein Screenshot vom Endergebnis.

image

1. Wir benötigen ein (neues) Microsoft Konto

Wir gehen davon aus, dass bereits ein neues Microsoft Konto vorhanden ist (dieses kann über https://account.live.com/ erstellt werden). Dieses soll dem Unternehmen im Partner-Web hinzugefügt werden und als Verwalter für die neue Azure-Subscription verwendet werden.

2. Ein Microsoft Konto im Partner-Account assoziieren

Begonnen wird im Microsoft Partner Network (MPN) https://partner.microsoft.com/ mit Auswahl des eigenen Landes und Anmeldung mit dem Partner (Verwalter-) Konto.

image

Je nach der Art des bereits hinzugefügten Kontos erfolgt die Anmeldung am Partner-Web – in den meisten Fällen wird das ein (historisches) Microsoft Konto sein (huch, hier heißt es noch immer “Windows Live ID Account”….) – darauf weist auch der Text links hin:

image

 

Nach erfolgter Anmeldung in die “Mitgliedschaft” / “Mitgliedschaften verwalten”:

image

Weiter im Partner Membership Center (bzw. Direkteinstieg direkt über diesen Link):
https://partners.microsoft.com/partnerprogram/PartnerMembershipCenter.aspx

image

 

Und in “Requirements & Assets” das Menü “Associated People” aufrufen:

image

Nun wird im Register “Add New People” ein neues Konto hinzugefügt.

image

Und das neue Konto ausfüllen. Erforderlich sind (unterhalb des eigenen Unternehmens) die Felder Country, First Name, Last Name und E-Mail und Language. Wichtig: Sie müssen das E-Mail Postfach des Kontos lesen können, denn dorthin wird eine Bestätigungs-E-Mail versendet.

image

Nach dem Ausfüllen des Kontos mit “Send invitation” absenden.

3. Partner-Konto bestätigen

Nun (in einem weiteren Browser-Fenster) mit dem (zugewiesenen) Partner-Konto anmelden, je nachdem wie das Microsoft Konto erstellt wurde zB: unter https://login.live.com (Microsoft-Konto) oder über https://portal.microsoftonline.com (Office 365).

4. Zuordnung bestätigen

Wir benötigen die E-Mail, welche an unser neues Partner-Konto gesendet wurde. Am besten den Bestätigungs-Link in die Zwischenablage kopieren… (hier rot markiert).

image

 

…und im (angemeldeten) Browser in einen neuen Tab kopieren. Es folgt (da bereits angemeldet) die MPN Profil-Seite, die noch zu um eine “Job Role”, eine “Business Telephone Number” und das Häkchen “Microsoft Partner Network Legal Agreement“ zu vervollständigen ist.

image

Am Seitenende dann Klick auf den “Submit”-Button. Das wars. Es folgt eine Finish-Seite.

image

Der neue Partner-Account ist nun dem Unternehmen zugeordnet und kann verwendet werden.
Dies erfolgt sofort. Den Partner-Browser benötigen wir erst später wieder, wenn wir das MSDN-Konto zuweisen (einen Tag später….).

5. MSDN zum Partner-Konto hinzufügen

Nun muss der Verwalter des Partner-Kontos (siehe 2.) im MPN dem neuen Partner ein MSDN-Abo zuordnen.

Das ist tricky – weil die entsprechende Funktion nämlich (zumindest in meinen Browsern) NICHT SICHTBAR ist!!

So funktioniert es: Im Partnerportal auf den letzten Register “Privileges” klicken (das ist der Link https://partners.microsoft.com/PartnerProgram/ManagePeople.aspx?tab=9 – also der 9.te Tab).

image

Wir benötigen Tab Nr. 11 “MSDN Subscriptions” – dieser taucht erst auf, wenn “Privileges” angeklickt wurde! (Was für ein Stolperstein….)

image

Die Liste zeigt die Partner-Konten an und in der letzten Spalte eine Checkbox, ob diese einem MSDN-Premium Konto zugewiesen sind.

Nun wird dem neuen Konto durch simples Markieren der Checkbox ein MSDN-Konto zugewiesen.

image

Und mit “Submit” gespeichert.

image

Fertig. (Fast). Reload der Seite… die verwendeten MSDN Konten sollten aktualisiert sein.

image

Neben dem Partner-Konto erscheint dann die MSDN-ID (etwa 1234567) in der Liste. Diese ist dann für die Inanspruchnahme auf der MSDN-Subscription-Seite erforderlich.

Die MSDN-Zuordnung ist erfolgt. Jedoch dauert es nach meiner Erfahrung im Regelfall mindestens etwa einen Tag (!), bis diese MSDN-ID auch verwendet werden kann. (Microsoft selbst sagt, dass diese Zuordnung auch 2 bis 3 Arbeitstage dauern kann – anscheinend benötigt dieser Prozess eine Bestätigung oder Aktion von einem Menschen und ist nicht vollständig automatisiert).

Die Schritte zum Aktivieren der MSDN-Subscription folgen in Teil 2.

Marc Grote: Implementierung Offline Root CA mit Issuing Online Enterprise Root CA und Windows Server 2012 R2

Hallo Leutz,

bei einem Kunden habe ich in den letzten Wochen und heute final die Online Enterprise Root CA dekommissioniert und eine zweistufige CA Hierarchie mit einer Offline Root CA und einer Online Enterprise Issuing CA auf Basis Windows Server 2012 R2 implementiert, um unter anderen der baldigen Abschaltung des Support fuer SHA1 seitens Microsoft nachzukommen: http://www.it-training-grote.de/blog/?p=6254

Die neue CA wurde mit CNG (SHA256 Hashalgorithmus) implementiert.
Durchgefuehrte Schritte:
Installation Offline Standalone Root CA
Installation Online Enterprise Issuing CA
Einrichtung der Schluesselarchivierung
Einbindung von Common PKI (Rollentrennung)
Ausstellen von neuen Zertifikaten fuer alle Server
Dekommissionierung der alten Online Enterprise CA

Dabei ist folgendes Bilderbuch entstanden: http://www.it-training-grote.de/download/OfflineRoot-EnterpriseOnline-CA.pdf

Gruss Marc

Hans Brender: Dienste und Automatisierung

WordPress, Twitter, Facebook und Paper.li sind Dienste, die viele nutzen. Natürlich möchte am es sich einfach machen. Wenn ein neuer Blog Post erstellt wurde, und dieser veröffentlicht wird, soll automatisch ein Tweet über den Nachrichten-Dienst Twittter veröffentlicht werden. Und in vielen Blog Programmen ist dies auch enthalten, muss nur noch konfiguriert werden. Aber es kann schon tückisch werden. Zum Bespiel wenn man in 2 Sprachen bloggt. Dann möchte man man natürlich das Tweet zeitversetzt senden. Dann, wenn die amerikanische Bevölkerung nicht mehr schläft. 

Oder aber man folgt anderen Bloggern Und möchte sofort informiert werden, wenn dort etwas veröffentlicht wird. Und diese Information dann sofort in Facebook posten , einen Tweet darüber senden, diesen Fremd-Beitrag dann in Linked-In veröffentlichen.

Wundern sie sich über Personen, von denen Sie genau wissen, dass diese Urlaub ohne Internetzugang machen, und trotzdem jede Menge Nachrichten in den sozialen Netzwerken erscheinen? Und das zu jeder Uhrzeit?

Möglich machen das Dienste wie Twitterfeed, Paper.li, IFFFT, Hootsuite, oder Bufferapp.
Diese Programme unterstützen auf unterschiedliche Weise die Arbeit des Bloggers.

Ich habe nach Diensten gesucht, die folgendes ausführen können.

  • Tweets zeitversetzt senden.
  • Tweets zu bestimmten Zeiten immer wieder senden.
  • fremde Blog-Informationen aufbereiten und in verschiedene Netzwerke weiterleiten.
  • fremde Blog-Informationen auf mein Smartphone per SMS zukommen lassen.
  • eigene Blog-Artikel in andere Netzwerke veröffentlichen.

Bestimmte Dienste setze ich schon lange ein. Aber man muss immer wieder ins Internet, denn neue Dienste werden über Nacht etabliert, vorhandene Dienste erweitert.

schon vor drei Jahren habe ich darüber geschrieben

Das Rad der Zeit hat sich jedoch weitergedreht und als Beispiel IFTTT hat jede Menge Channels implementiert. Inzwischen sind auch Microsoft Programme wie OneDrive und OneNote dazugekommen. Und sogar ein Kanal für Yammer gibt es.

 

Das Dashborad von IFTTT

eige Rezepte in IFTTT Unterschiedliche IFTTT-Rezepte automatisieren die tägliche Arbeit

Leider gibt es nicht das allumfassende Tool, das all meine Wünsche erfüllt, so muss ich noch mit mehreren Diensten arbeiten.

Das bedeutet auch, dass ich mir eine Excel-Liste gebaut habe, in der meine Automatisierungen “was macht wann welches Tool” abgebildet sind.

 

Und wie schreibt Agnes Molnar, MVP SharePoint (Mrs. Search), ein Kanal in IFFFT fehlt noch, nämlich Lync, damit man seinen Lync Status (Grün, Rot) anzapfen und diesen dann einer Lampe oder einem Schalter zukommen kann. So kann dann jeder im Home-Office sehen, ob ich beschäftigt bin. Die Schalter und Lampen gibt es schon….

Ach ja, derzeit benutze ich folgende Dienste…

  • Twitterfeed
  • IFFT
  • Bufferapp
  • Hootsuite

Carsten Rachfahl [Hyper-V]: Unsere Best Practice-Erfahrungen – Teil 1 – Die Installation eines Hyper-V Failover Cluster unter Windows Server 2012 R2

Vorlage-Button-WinServ2012R2Dieser Artikel behandelt die Installation eines Failover Cluster unter Windows Server 2012 R2, welches zur Ausführung von Hyper-V VMs genutzt wird. Gegenüber den vorherigen Artikeln zur Einrichtung unter Windows Server 2008 R2 und Windows Server 2012 hat sich teilweise etwas geändert, das “Grundrauschen” ist allerdings gleich geblieben. Die größte Änderung liegt darin, dass durch unterschiedliche Techniken die Anzahl der Möglichkeiten enorm gestiegen sind. Dadurch gibt es nicht mehr “die eine” optimale Lösung, es muss nun anhand der jeweiligen Hardware entschieden werden, was die beste Lösung in diesem einen Fall ist. Zusätzlich habe ich an einigen Stellen noch die genutzten PowerShell-Befehle mit aufgeführt. Diese hier beschriebene Konfiguration eignet sich primär bei der Nutzung eines Scale-Out File Servers. Dieser ist bereits eingerichtet und in diesem Artikel wird nicht auf die Einrichtung eingegangen, dies wird komplett im zweiten Teil der Serie gemacht.

Egal was Sie einsetzen möchten, was Sie bereits haben oder wo Sie ansetzen: Sprechen Sie uns an, wir können diese Konfiguration gerne an Ihre Bedürfnisse anpassen.


Die genutzte Hardware

Die Demoumgebung

Die hier genutzte Hardware sind zwei Rechner aus unserem Hyper-V Powerkurs und einem Scale-Out Fileserver unter Windows Server 2012 R2 als SMB3-Ziel. Die Rechner besitzen zwei 1Gbit NICs und vier 10Gbit NICs, 24 GB RAM und eine Quadcore-CPU. Beide Server sind Mitglied der Active Directory powerkurs.local. Der Scale-Out File Server hat jeweils zwei 10Gbit-Ports für SMB3 und zwei 1Gbit-Ports zur Anbindung an die Active Directory pro Knoten.

Ein paar Worte zu der Hardware, den Verbesserungs- und den Sparmöglichkeiten

Diese hier beschriebene Konfiguration entsprecht von den Eckdaten her dem, was wir empfehlen und was wir bereits in Projekten mehrfach erfolgreich eingesetzt haben. Natürlich sollte als Server ein wirklicher Server zum Einsatz kommen, der für den 24/7-Betrieb geeignet ist. Von einer Nutzung von PCs oder Workstations ist natürlich absolut abzuraten, wegen der Verfügbarkeit habe ich diese Systeme aber als Demoumgebung genutzt.

Wir geben Ihnen als Empfehlung zwei 10Gbit-Adapter mit jeweils zwei Ports vor, d.h. jeder Hyper-V Host ist mit 40 Gbit angebunden, hinzu kommen noch zwei oder mehr 1 Gbit-Adapter. Diese Anbindung könnte theoretisch noch erhöht werden auf sechs 10 Gbit-Adapter, prinzipiell spricht hier nichts gegen. Dies bewirkt eine Erhöhung der Gesamtbandbreite, ändert aber nichts an der Performance der einzelnen Adapter. Hier kommen RDMA bzw. SMB Direct-Karten ins Spiel. Mit Hilfe dieser Technik können Sie eine deutliche Steigerung der Performance bei sehr geringer Latenz erreichen. Wenn alle Netzwerk-Komponenten diese Technik beherrschen haben Sie eine enorm hohe Bandbreite zwischen Hyper-V Failover Cluster und Scale-Out File Server. Informationen zu dem Thema gibt es unter anderem im Hyper-V Podcast Folge 35 von meinem Kollegen Carsten Rachfahl.

Wenn Sie nicht den Bedarf von 40 Gbit pro Knoten haben oder die Hardware bereits vorhanden ist, können Sie den Betrieb auch mit einer 10 Gbit DualPort-Karte realisieren. In diesem Fall wären die VMs mit zwei oder mehr 1 Gbit-Karten angebunden, die 20 Gbit ständen dann exklusiv für die Anbindung an den Storage zur Verfügung.

Die Installation und Einrichtung des Betriebssystems

Die Einrichtung beginnt mit einer frischen Installation eines Windows Server 2012 R2 in der Datacenter Edition auf beiden Hosts. Nach der Grundinstallation werden die Netzwerkkarten umbenannt und teilweise zu einem Team konfiguriert.

image

Beide 1Gbit-Adapter werden zu einem Team zusammengefasst, zusätzlich werden zwei 10Gbit-Adapter (jeweils auf einem der beiden Adapter) zu einem Team zusammengefasst. Das 2Gbit-Team wird als Management-Netzwerk genutzt, das 20Gbit-Team wird zur Anbindung der VMs an das Netzwerk genutzt. Insgesamt existieren vier Netzwerke, auf drei der Karten hat der Host eine eigene IP-Adresse. Das VM-Netzwerk wird exklusiv für die virtuellen Computer genutzt.

image

image

image

Die Konfiguration per PowerShell wäre wie folgt:

New-NetLBFOTeam -Name "Management-Team" -TeamNICName "Management-Team" -TeamMembers 1GBit#1, 1GBit#2 -TeamingMode SwitchIndependent -LoadBalancingAlgorithm Dynamic -Confirm:$false

New-NetLBFOTeam -Name "VM-Team" -TeamNICName "VM-Team" -TeamMembers 10GBit#1, 10GBit#3 -TeamingMode SwitchIndependent -LoadBalancingAlgorithm Dynamic -Confirm:$false

Die Karte Management-Team wird mit einer IP-Adresse im Bereich 192.168.209.0/24 konfiguriert. In meinem Fall arbeite ich mit den Systemen Hyperv10 und Hyperv15, daher bekommt Hyperv10 die Adresse 192.168.209.10 und Hyperv15 die Adresse 192.168.209.15. Die Endadresse bleibt in allen Netzen gleich, so kann eine eindeutige Zuordnung erfolgen. Eine gleichmäßige Zuweisung von Adressen sowie eine durchgängige Benamung machen den Betrieb und die Administration an vielen Stellen einfacher. Die Karte VM-Team wird zu diesem Zeitpunkt nicht konfiguriert, sie wird später als Hyper-V Netzwerk genutzt. Bei der Wahl der Adapter wird jeweils ein Adapter pro Hardware-Karte gewählt, dies ermöglicht einen Betrieb auch dann, wenn einer der beiden Hardware-Karten ausfallen würde. Die Bindungen der Karte werden nicht geändert und sehen wie folgt aus:

image

Die beiden 10Gbit-Adapter, die nicht Mitglied des Teams sind, werden mit einer IP-Adresse aus den Storage-Bereichen versehen. Hierbei achten wir ebenfalls darauf, dass die End-Adresse jeweils identisch ist mit der Adresse im Management-Netz. Nach der korrekten Konfiguration sehen die Eigenschaften der Karten wie folgt aus:

image

image

 

 

 

 

 

image

image

 

 

 

 

 

 

 

 

 

 

 

Unter IP-Einstellungen werden keine Änderungen vorgenommen, die Einstellungen der Karte 10GBit#2 (die zweite Storage-Karte) sind bis auf die IP-Adresse identisch.

Die Konfiguration per PowerShell:

Set-NetIPInterface -InterfaceAlias "10GBit#2" -dhcp Disabled -verbose
New-NetIPAddress -AddressFamily IPv4 -PrefixLength 24 -InterfaceAlias "10GBit#2" -IPAddress 192.168.208.10
Set-DnsClientServerAddress -InterfaceAlias "10GBit#2" -ServerAddresses 192.168.209.1
Set-NetAdapterBinding -Name "10GBit#2" -ComponentID ms_tcpip6 -Enabled $False

Set-NetIPInterface -InterfaceAlias "10GBit#2" -dhcp Disabled -verbose
New-NetIPAddress -AddressFamily IPv4 -PrefixLength 24 -InterfaceAlias "10GBit#4" -IPAddress 192.168.207.10
Set-DnsClientServerAddress -InterfaceAlias "10GBit#4" -ServerAddresses 192.168.209.1
Set-NetAdapterBinding -Name "10GBit#2" -ComponentID ms_tcpip6 -Enabled $False

Beide Server werden nun auf den aktuellen Patchlevel geupdatet.

image

Nach der Installation und dem anschließenden Neustart kann die Einrichtung mit der Installation der Hyper-V Rolle fortgesetzt werden.

Über den Server-Manager oder per PowerShell kann nun die Hyper-V Rolle installiert werden. Bei der während der Installation durchgeführten Konfiguration wählen wir keine der Karten für das Hyper-V Netzwerk aus, dies wird im späteren Verlauf manuell konfiguriert. Die Livemigration wird nicht konfiguriert, bei der Wahl der Pfade wird ebenfalls an dieser Stelle keine Änderung vorgenommen. Das System startet nun zwei Mal durch und steht danach wieder zur Verfügung.

image

image

imageimage

 

 

 

 

 

 

Alternativ kann die Installation natürlich auch per PowerShell gemacht werden:

Install-WindowsFeature -Name Hyper-V -IncludeManagementTools –Restart

Wenn der Parameter –ComputerName noch mit angegeben wird können sogar alle Server fast gleichzeitig installiert werden:

Install-WindowsFeature -Name Hyper-V -IncludeManagementTools –Restart -ComputerName Hyperv10

Die Einrichtung von Hyper-V zur Vorbereitung auf den Betrieb als Failover Cluster-Knoten

Nach der Installation von Hyper-V müssen noch ein paar lokale Einstellungen vorgenommen werden, bevor das Failover Cluster eingerichtet werden kann. Im Hyper-V-Manager werden auf beiden Systemen unter dem Manager für virtuelle Switches eine neue externe Switch erstellt und auf den VM-Team-Adapter gebunden. Achten Sie darauf, den korrekten Adapter auszuwählen.

image

Wie Sie die virtuelle Switch nennen ist Ihnen überlassen, wichtig ist das sie auf allen Hyper-V Hosts gleich heißt. Achten Sie zusätzlich unbedingt darauf, nicht die gemeinsame Verwendung zu aktivieren. Bei Nutzung der gemeinsamen Verwendung bekommt der Host eine weitere, virtuelle Netzwerkkarte, die nicht benötigt und nicht gewollt ist. Der PowerShell-Befehl hierzu ist:

New-VMSwitch -Name "VM" -NetAdapterName VM -AllowManagementOS 0 -ComputerName Hyperv10

Danach kann Hyperv10 durch den Namen des zweiten Knoten ersetzt werden.

Die Installation und Einrichtung des Failover Cluster

Nachdem nun die Vorbereitungen abgeschlossen sind können wir mit der Installation und Einrichtung des Failover Cluster beginnen.

Die Installation der benötigten Features

Für die Einrichtung eines Failover Cluster wird das Feature Failoverclustering benötigt

image

Wenn Sie das System lokal administrieren möchten oder müssen sollten Sie die Failovercluster-Verwaltungstools sowie das Failoverclustermodul für Windows PowerShell ebenfalls installieren

image

Per PowerShell:

Install-WindowsFeature Failover-Clustering –IncludeAllSubFeature –IncludeManagementTools -ComputerName Hyperv10

Die Einrichtung des Failover Cluster

Nach der Installation öffnen Sie den Failovercluster-Manager und beginnen mit dem Menüpunkt Konfiguration überprüfen….

image

Im Assistenten fügen Sie die Server hinzu, die überprüft werden sollen (Tipp: das lokale System kann mit einem Punkt ( . ) oder “localhost” hinzugefügt werden)

image

Danach können Sie auswählen, welche Tests durchgeführt werden sollen. Falls dies der erste Durchlauf ist sollten Sie unbedingt alle Tests auswählen, falls Sie nur einen oder mehrere spezielle Tests durchführen möchten (z.B. bei einem erneuten Durchlauf) können Sie diese manuell auswählen.

image

Es werden nun alle Tests durchgeführt, dies dauert je nach Anzahl der Server.

image

Nach dem Durchlauf erhalten Sie eine Übersicht der Tests und haben die Möglichkeit, sich den kompletten Bericht anzeigen zu lassen.

image

Schauen Sie sich unbedingt die Warnungen und Fehler an. Je nach Art der Fehler können diese entweder ignoriert werden oder sie müssen aktiv korrigiert werden. In meinem Fall steckte ein Kabel in einem falschen VLAN, wodurch die folgende Meldung in dem Bericht auftaucht:

image

Solche Fehler werden meist durch den Assistenten erkannt und angemerkt, eine Behebung vor der Erstellung und Nutzung des Failover Cluster macht deutlich mehr Spaß als die nachträgliche Suche.

Andere Warnungen können ggf. ignoriert werden, z.B. ein fehlender Datenträger oder eine permanente SCSI-3-Reservierung. Da wir mit SMB3-Shares arbeiten sind keine Datenträger im Failover Cluster vorhanden.

image

Wenn keine Fehler während der Überprüfung auftauchen aktiviert der Assistent direkt die Möglichkeit, den Failover Cluster mit den überprüften Knoten zu erstellen

image

Während der Erstellung werden wir nach dem Namen des Failover Cluster und der IP-Adresse gefragt, unter der eine Administration möglich ist. Die Frage nach dem Netzwerk erscheint nur, weil keine der Netzwerkkarten ein Gateway eingetragen hat. Sobald ein Gateway vorhanden ist wird automatisch dieses Netzwerk als Zugriffspunkt definiert.

image

Wir benötigen in unserem Fall eine IP-Adresse im Netzwerk 192.168.209.0/24 und einen eindeutigen Namen

image

Nach einem Klick auf Weiter wird überprüft, ob Name und IP-Adresse bereits vorhanden bzw. belegt sind, falls dies nicht der Fall ist erscheint eine Übersicht über die getätigten Einstellungen.

image

Die Option Der gesamte geeignete Speicher soll dem Cluster hinzugefügt werden bewirkt an dieser Stelle keine Änderung, da keine Datenträger hinzugefügt wurden. Wir haben uns angewöhnt diese Option grundsätzlich zu deaktivieren, da wir den Speicher manuell zuweisen wollen. Nach einem Klick auf Weiter wird der Cluster erstellt, danach verbindet sich der Failovercluster-Manager automatisch mit dem gerade erstellten Cluster. In der Zusammenfassung bekommen wir noch einen Hinweis angezeigt, dass kein geeigneter Datenträgerzeuge vorhanden ist. Um diese Einstellungen kümmern wir uns später.

image

Die Konfiguration des Netzwerks

Die ersten Anpassungen im gerade erstellten Cluster werden im Netzwerk gemacht. Die Netze werden automatisch durchnummeriert, diese Namen ändern wir auf die Funktion des einzelnen Netzwerks.

image

Um welches Netz es sich handelt können Sie sehen, wenn Sie auf das Netzwerk klicken und im unteren Teil auf den Reiter Netzwerkverbindungen wechseln.

image

Das Ergebnis sind drei vollständig benannte Netzwerke. Die Eigenschaften der Karten sehen wie folgt aus:

image

image

In den Einstellungen für Livemigration muss nun die Reihenfolge der Netzwerke definiert werden, über die eine Livemigration gemacht wird.

image

Hier werden die beiden Storage-Karten als primäre Karten definiert und in der Reihenfolge nach oben geschoben, falls dies nicht automatisch der Fall ist. Der Adapter Management bleibt ebenfalls aktiviert, wird aber ganz nach unten verschoben.

image

Als nächstes muss die Metrik der Netzwerke im Failover Cluster definiert werden. Die Metrik bestimmt, über welches Netzwerk die Daten während eines umgeleiteten Modus zwischen den einzelnen Knoten laufen. Diese Einstellung kann ausschließlich per PowerShell ausgelesen und gesetzt werden, eine Administration per GUI ist nicht möglich. Öffnen Sie eine administrative PowerShell oder die PowerShell ISE und nutzen Sie die folgenden Befehle zum Auslesen und manuellen Setzen der Werte.

Get-ClusterNetwork | ft Name, Metric, AutoMetric

image

Je kleiner die Metrik, desto höher ist die Priorität. Standardmäßig wird in dem oberen Screenshot das Netzwerk Storage2 genutzt, da die Metrik 30240 die kleinste der drei ist. Grundsätzlich ist diese Reihenfolge (Erst Storage2, dann Storage1 und dann Management) in Ordnung, wir möchten aber gerne die Prioritäten manuell auf die folgenden Werte setzen:

Storage1 100
Storage2 101
Management 110

Die entsprechenden Befehle dazu sind

(Get-ClusterNetwork "Storage1").Metric = 100
(Get-ClusterNetwork "Storage2").Metric = 101
(Get-ClusterNetwork "Management").Metric = 110

Diese Einstellungen müssen nur auf einem der Knoten gemacht werden, da hier clusterweite Einstellungen verändert und konfiguriert werden.

Die folgende Einstellung muss auf jedem Cluster-Knoten gesetzt werden, da es sich um eine lokale Einstellung handelt. Wechseln Sie in die Netzwerkverbindungen und wählen Sie in der Menüleiste (Falls nicht sichtbar “Alt” drücken) unter Erweitert die Option Erweiterte Einstellungen….

image

Schieben Sie dort den Adapter Management-Team ganz nach oben.

image

An dieser Stelle sind wir mit der Konfiguration des Netzwerks lokal und im Cluster fertig.

Die Einrichtung des Datenträgerzeugen / Quorum

Ganz wichtige Änderung unter Windows Server 2012 R2 in Bezug auf das Quorum: Erstellen Sie immer (egal welche Anzahl von Knoten und ob gerade oder ungerade) ein Quorum und weisen Sie dieses auch immer! zu. Das Failover Cluster verwendet dieses Quorum dynamisch, und zwar immer nur dann wenn es eins benötigt. Weitere Informationen und eine Bestätigung seitens Microsoft finden Sie im Technet: What’s New in Failover Clustering in Windows Server 2012 R2.

Da wir bei der Nutzung eines Scale-Out File Server keine CSV-Datenträger in unserem Failover Cluster haben müssen wir eine Dateifreigabe verwenden. Es existieren zu diesem Zeitpunkt drei Freigaben auf dem Scale-Out File Server. Die Freigabe HVQuorum wird für den Hyper-V Failover Cluster genutzt.

image

Wechseln Sie im Hauptmenü des Failover Cluster unter Weitere Aktionen auf Clusterquorumeinstellungen konfigurieren….

image

Es öffnet sich ein Assistent, der Sie bei der Einrichtung unterstützt. Nach der Vorbemerkung werden Sie nach der Art der Einrichtung gefragt. Die erste Option Standardquorumkonfiguration verwenden ist in diesem Fall nicht möglich, dies führt dazu das kein Quorum verwendet wird. Wir nutzen daher die zweite Option Quorumzeugen auswählen.

image

Im nächsten Schritt werden Sie nach der Art des Quorum gefragt, hier wählen Sie die Option Dateifreigabezeuge konfigurieren.

image

Schreiben oder Kopieren Sie nun den Pfad der Freigabe in den Assistenten.

image

Bestätigen Sie die Einstellungen und schließen Sie den Assistenten ab.

image

Nachdem Sie die Einrichtung abgeschlossen haben können Sie sehen, dass an besagtem Ort nun ein Ordner erstellt wurde, in dem eine Textdatei liegt.

image

Kurze Zeit später erscheint eine zweite Datei

image

Die Konfiguration ist nun abgeschlossen.

Die Einrichtung von Bandbreitenmanagement für SMB-Traffic

Wenn, wie in unserem Fall, die Livemigration und der Storage-Traffic über eine Leitung laufen, könnte dies ungewünschte Folgen bei vielen gleichzeitigen Livemigrationen haben. Zusätzlich werden Daten zwischen den einzelnen Hosts ebenfalls über diese Netze gesendet (Metric-Konfiguration weiter oben, bei der Storage1 die geringste Metric besitzt. In solch einem Fall können wir ein Bandbreitenmanagement für SMB-Traffic einführen. Die Installation kann auf Wunsch per Server-Manager gemacht werden, die Konfiguration muss allerdings zwingend per PowerShell gemacht werden. Das Feature versteckt sich hinter dem Namen SMB Bandwidth Limit.

image

Die Installation per PowerShell erfolgt mit dem Befehl

Add-WindowsFeature FS-SMBBW

Nach der Installation erfolgt die Einrichtung per PowerShell. Um die Livemigration auf z.B. 8 Gbit/s zu begrenzen, kann der folgende Befehl angewendet werden

Set-SmbBandwidthLimit -Category LiveMigration -BytesPerSecond 1000MB

Als Kategorie steht neben LiveMigration noch VirtualMachine und Default zur Verfügung.

image

Die Nutzung von SMB Multi Channel

Wir nutzen in unserem Fall mehrere Wege zu unserem Scale-Out File Server, daher haben wir beim Netzwerk-Design und bei der Einrichtung weiter oben zwei Storage-Karten konfiguriert. Grundsätzliches zum Thema SMB3 hat Carsten unter anderem in diesem Video gezeigt und erklärt: Hyper-V-Server.de: Videocast rund um Hyper-V auf SMB. Damit die Multi Channel-Funktionalität in einem Failover Cluster (egal ob Hyper-V oder Scale-Out File Server) greift, müssen sich die Storage-Karten in unterschiedlichen Subnetzen befinden. Multi Channel in einem Subnetz funktioniert nur bei Konfigurationen, in dem das Failover Cluster-Feature noch nicht installiert ist.

Arnd Rößner: Microsoft-CEO stellt neue Datenstrategie vor und präsentiert eine der umfassendsten Datenplattformen auf dem Markt

Microsoft-CEO Satya Nadella hat soeben auf der „Accelerate your insights“ in San Francisco die neue Datenstrategie von Microsoft vorgestellt. Zusammen mit der Präsentation neuer Lösungen und Services, dem Launch von SQL Server 2014, der Public Preview von Microsoft Azure Intelligent System Service (ISS) sowie der allgemeinen Verfügbarkeit von Analytics Platform System (APS) hob Nadella in seiner Keynote die Vision einer „Umgebungsintelligenz“ („ambient intelligence“) hervor. Es sei für jedes Unternehmen und jeden Mitarbeiter wichtig, eine neue Datenkultur und die dafür notwendigen Werkzeuge zur Verfügung zu haben. „Microsoft verfügt mit seinen Tools und Plattformen jetzt über die umfassendste Datenplattform auf dem Markt, und die Zeit ist reif, um aus den vorhandenen Daten Treibstoff für innovationsgetriebene Unternehmen zu machen“, kommentiert Kai Göttmann, Direktor Geschäftsbereich Server, Tools & Cloud. Einer IDC-Studie im Auftrag von Microsoft zufolge haben geschäftliche Mehrwerte auf der Basis von Datenanalysen in den kommenden vier Jahren ein weltweites Potenzial von 1,6 Billionen US-Dollar. Allein für Deutschland prognostizieren die IDC-Analysten eine mögliche „Daten-Dividende“ in Höhe von 99 Milliarden US-Dollar bis 2017. Unternehmen brauchen eine neue DatenkulturWerkzeuge allein reichen für eine nachhaltige Datenkultur aber nicht aus. Unternehmen müssen sich so verändern, dass Teams und Individuen überhaupt in der Lage sind, aus Daten auf Knopfdruck produktive Einsichten zu gewinnen. Mitarbeiter in innovativen Unternehmen fangen damit an, Fragen zu stellen, formulieren aus diesen Fragen Hypothesen, prüfen diese Hypothesen anhand von internen sowie extern verfügbaren Daten und können am Ende ihre Einsichten mit anderen teilen oder selbst für den Geschäftserfolg nutzen. Für diese Schritte benötigen Unternehmen eine Analyse- und Datenplattform, die Ordnung in die aus einer Vielzahl von Quellen generierten Daten zunehmend unterschiedlichsten Datentyps bringt. Um den immer größer werdenden Datenvolumina gerecht zu werden, brauchen Unternehmen in Echtzeit skalierbaren Speicherplatz aus der Private, Hosted oder Public-Cloud. Diese Teile bilden zusammen die Microsoft-Plattform für intelligente Datenumgebungen und sind die Basis für eine neue Ära der Datenanalysen. Diese intelligenten Umgebungen brauchen Unternehmen aber nicht erst in ferner Zukunft. Schon heute stehen sie vor der Herausforderung, ihre Daten effizient zu verwalten. Sie müssen mit einer Vielzahl von strukturierten und unstrukturierten Daten aus unterschiedlichen Quellen umgehen, die oft in isolierten Silos abgelegt sind, auf die nur Spezialisten Zugriff haben. Microsoft bietet für solche Szenarien schon heute Lösungen an und verbindet seine Visionen von einer Datenplattform der Zukunft mit seinen direkt verfügbaren Angeboten für Big Data, das Internet der Dinge bzw. Industrie 4.0 und die unterschiedlichsten Varianten der Cloud, mit denen Kunden beides schaffen: Daten effizient zu analysieren und zugleich im gesamten Unternehmen eine Plattform für die Datenanalysen von morgen aufzubauen. Die Microsoft-Lösungen auf einen Blick: SQL-Server 2014 mit stark verbessertem Echtzeit-Antwortverhalten für die Analyse mittels In-Memory-Technologie sowie Hybrid Cloud basierte Skalierungsmöglichkeiten in Richtung Microsoft Azure HDInsight zur Analyse von unstrukturierten Datenmaterialien on Premise und in der Cloud Power Query für Excel – zur Abbildung von ETL-Prozessen für den Fachanwender Das neue Analytics Platform System (APS) mit der neuen universellen Analyseplattform PolyBase für sowohl unstrukturierte als auch relationale Daten über einheitliche Datenqueries. Die Appliance kombiniert damit SQL Server und Hadoop-Technologien für […]

Arnd Rößner: RWE setzt auf Microsoft: Innovatives Datenmanagement im Dienst des Kunden

Effektivere Kundenprozesse, besseren Service und mehr Kosteneffizienz Der in Europa führende Strom- und Gasanbieter RWE setzt bei hoher Verfügbarkeit von Anwendungen auf die SQL Server-Technologie von Microsoft. Damit ist bei zunehmenden Datenaufkommen der flexible Einsatz der Ressourcen mit gleichzeitiger Senkung der Systemkosten und Ausgaben für den Datenbankbetrieb gesichert.Der Abschluss eines erweiterten und auf weitere drei Jahre ausgelegten Rahmenvertrages ist für den Essener Energieversorger von großer Bedeutung in Punkto Planungssicherheit und Kundenservice. Vorwärts denken mit SQL ServerMit der Bereitstellung von Daten in Echtzeit zum Zeitpunkt und im Kontext der Entscheidungsprozesse profitiert RWE von effektiveren Kundenprozessen und mehr Kosteneffizienz, die Kunden von noch besserem Service.„Wir haben mit Microsoft einen vertrauensvollen Partner gefunden, mit dem wir gerne den erfolgreichen Weg fortsetzen und strategisch erweitern wollen“, begründet Michael Neff, CIO im RWE-Konzern, die Entscheidung zum neuen Rahmenvertrag mit Microsoft und ergänzt: „Microsoft gibt bei hochverfügbaren Anwendungen mit der leistungsstarken und hochverfügbaren SQL Server-Technologie die notwendige Sicherheit und Flexibilität. Als Partner kennt und versteht Microsoft die dahinterliegenden Business-Prozesse, bindet unsere IT- und Fachabteilungen frühzeitig ein und passt die Systeme unseren Bedürfnissen an.“Mit seinen rund 66.000 Mitarbeitern gehört der RWE-Konzern zu Europas führenden Strom- und Gasanbietern. Für seine Strategie auf dem europäischen Markt setzt das Unternehmen dabei auf innovative Projekte und einen breiten Energiemix. „Wachstumsanforderungen an Datenbanksysteme und Kapazitäten lassen sich im Vorfeld oft nur schwer abschätzen. Umso wichtiger ist es für große Unternehmen, dass Lizenzmodelle ihnen die Möglichkeit geben, Technologien einfach nach Bedarf und erforderlichem Umfang einzusetzen“, erklärt Thomas Schröder, Mitglied der Geschäftsleitung der Microsoft Deutschland GmbH. Die Nutzung der Microsoft Enrollment for Application Platform (EAP)-Lizenzierung gewährleistet diese System-Harmonisierung und gibt mit der Reduzierung der Lizenz- und Wartungskosten Raum für Einsparungen und Investitionen. Daten intelligent und effizient nutzen„Der Einsatz modernster SQL Server Datenbanktechnologie mit der Kombination innovativer Lizenzierungsmodelle schafft in unserem Business-Critical Umfeld die Voraussetzung, Tier 1 Applikationen einfach zu konfigurieren und so auf Herausforderungen flexibel zu reagieren”, erklärt Andreas Gillhuber, Leiter IT Infrastructure. So können alle RWE Gesellschaften mit dem neuen Rahmenvertrag auf das Angebot an Business Intelligence und Datenmanagement-Features zugreifen und verbessern mit der InMemory-Technologie die Systemperformance oder verringern Backup-Zeiten.„Beim Datenaufkommen in Unternehmen haben sich die Voraussetzungen dramatisch verändert“, erklärt Gillhuber. „Zum einen weil das Volumen von verfügbaren Daten fast explosionsartig ansteigt, zum anderen weil immer mehr Quellen zur Verfügung stehen, die Daten wesentlich schneller generieren. SQL Server ist dabei langfristig das sichere Fundament unserer Datenplattform Strategie.“ Viele Grüße Arnd Rößner

Michel Lüscher [MS]: Infrastructure as a Service (IaaS) Product Line Architecture (PLA) Guides verfügbar

Das warten hat ein Ende, die “Infrastructure as a Service” Product Line Architecture Guides (PLA) stehen ab Heute zum Download bereit. Mit der Veröffentlichung der PLA für Fabric (183 Seiten) und Fabric Management (128 Seiten) stellt Microsoft ihren Kunden und Partner “die” Referenz für eine Private Cloud Implementierung zur Verfügung. Das Ziel der PLA, welche

Arnd Rößner: Microsoft stellt Patch für WSUS-Probleme mit Windows 8.1 Update bereit

Microsoft stellt Patch für WSUS-Probleme mit Windows 8.1 Update bereit – heise online Viele Grüße Arnd Rößner

Arnd Rößner: Virendefinitionen für Microsoft Security Essentials legen Windows XP lahm

Virendefinitionen für Microsoft Security Essentials legen Windows XP lahm Ein Update der Virendefinitionen von Microsoft Security Essentials und verwandten Produkten scheint Windows-XP-Rechner zum Absturz zu bringen oder extrem zu verlangsamen. Das Problem soll mit dem Echtzeit-Scanner zusammenzuhängen. Ein Update für die Virendefinitionen von Microsoft Security Essentials (MSE) und dessen vewandten Produkte für den Business-Einsatz führt nach Nutzerberichten im Netz auf manchen Windows-XP-Rechnern zu Abstürzen. Andere Rechner werden nach dem Update extrem langsam. Auslöser des Problems sollen die Virendefinitionen mit der Versionsnummer 1.171.1.0 gewesen sein. Allerdings scheint es nicht möglich zu sein, diese Definitionen zu deinstallieren, sobald das Problem einmal auftritt. Neuere Definitionen sollen den Bug mittlerweile behoben haben. Als Notlösung soll ein Abschalten des Echtzeit-Scanners von MSE das Problem ebenfalls beseitigen. Falls das nicht praktikabel ist, weil das Programm nicht mehr reagiert, berichten betroffene Nutzer, dass ein Setzen des folgenden Wertes in der Registry Abstürze und den Geschwindigkeitsverlust des Systems verhindert: HKLM\Software\Microsoft\Microsoft Antimalware\Real-Time Protection DisableBehaviorMonitoring = 1 Der Fehler tritt nur knapp eine Woche nach dem Ende der offiziellen Unterstützung von Windows XP durch Microsoft auf. MSE kann mittlerweile auf XP-Rechnern nicht mehr installiert werden, soll aber bis April 2015 noch mir Virendefinitionen versorgt werden. (fab)   Quelle: heise online Viele Grüße Arnd Rößner

German Virtualization Blog: Blog-Serie: PowerShell Deployment Toolkit

Für eine Private Cloud von Microsoft ist neben Hyper-V auch die System Center Suite notwendig. Mittlerweile sind hier einige Produkte und Tools verfügbar bzw. notwendig. Schauen wir uns kurz an, welche das sind:

Wer schon einmal versucht hat, alle Produkte einzeln zu installieren und dann auch noch ineinander zu integrieren, wird festgestellt haben, dass das eine Herausforderung ist. Jedes dieser Produkte verfügt auch wiederum über Installationsvoraussetzungen. Ein paar wenige davon habe ich an dieser Stelle einmal aufgelistet:
 

Und hier kommt das Tool PowerShell Deployment Toolkit ins Spiel oder kurz PDT genannt. Das Tool wurde bzw. wird von Rob Willis entwickelt, welcher bei Microsoft in den USA arbeitet. An dieser Stelle ein ganz dickes "Hut ab" und DANKE für die Arbeit an diesem Tool an Rob und seinen Kollegen.
 
Das PowerShell Deployment Toolkit (PDT) ist aus meiner täglichen Arbeit nicht mehr wegzudenken. Mit dem PDT ist es möglich, die zahlreichen System Center Komponenten unkompliziert und automatisiert zu installieren. Mit ein wenig Vorbereitung schafft man es mit dem PDT sämtliche System Center Komponenten sowie das Windows Azure Pack in weniger als zwei Stunden zu installieren.

Eigentlich schreibe ich gemeinsam mit Alexander Ortha schon gefühlt seit Monaten an diesem Blog-Eintrag, daher nehmen wir das aktuelle Release des PDT zum Anlass einen weiteren Versuch zu wagen und werden die verschiedenen Komponenten und deren Zusammenspiel nun in einer eigenen Blog-Serie vorstellen. Vor wenigen Tagen wurde die Version 2.64.2608 veröffentlicht und zum Download bereitgestellt, welche die Grundlage für diese Blogeinträge ist. Wir stellen jeweils die aktuellen Versionen aller Komponenten mit dem PDT vor. Theoretisch ist es möglich, auch ältere Versionen von Windows Server und System Center mit dem PDT auszurollen, dies wird im Rahmen dieser Blog-Serie jedoch nicht berücksichtigt.
Das PDT ist vollkommen kostenfrei verfügbar und ist eine Sammlung von sehr sehr vielen Zeilen PowerShell. Nach dem Downloaden des Zip-Archivs aus der TechNet Gallery entpacken wir die Scriptsammlung auf einem System mit ca. 35GB Speicherplatz.


 
Das Script selbst benötigt noch relativ wenig Speicherplatz, jedoch führen wir nach dem Entpacken zunächst das Script Downloader.ps1 aus. Dadurch werden alle erforderlichen Komponenten inklusive Betriebssystemen, Datenbanken und Voraussetzungen heruntergeladen und an einer Stelle abgelegt.
Der nächste Schritt ist, das Script VMCreator.pst1 auf einem Hyper-V Host auszuführen. Das Script sorgt dafür, dass das PDT nach vorgegebener Konfiguration alle notwendigen VMs für die System Center Produkte erstellt und ein Betriebssystem automatisiert installiert und anpasst. Dies kann je nach Umgebung auch ein neues AD beinhalten, wobei ich in den allermeisten Fällen eine Konfiguration mit einem bestehenden AD vorfinde.

Der abschließende Schritt und größte noch dazu, ist die Installation und Konfiguration der angegebenen System Center Produkte durch den Start des Scriptes Installer.ps1. Das bedeutet, dass es möglich ist, dem PDT mit zugeben, ob es alle Produkte oder nur einige oder nur eines Installieren soll. Bei der Auswahl von mehreren Produkten erstellt es dann auch automatisch die möglichen Integrationen, also z.B. wird beim SCVMM dieser sofort mit dem SCOM verbunden. Oder SCOM, SCVMM und SCCM werden mittels vorhandener Connectoren in den SCSM eingebunden. Neben der Installation wird also auch ein großer Teil der Initialkonfiguration eingespart. Nach Abschluss des Scriptes steht uns dann eine vollständige System Center Umgebung zur Verfügung. In voller Ausbaustufe können dies, wie in diesem Beispiel, auch schon 21 verschiedene virtuelle Serversysteme sein:
 

Alle diese VMs beherbergen verschiedene System Center Komponenten oder deren Voraussetzungen wie z.B. Datenbankserver. Die Erstellung der virtuellen Maschinen, die Einrichtung der Betriebssysteme, die Installation aller! Systemvoraussetzungen und der System Center Rollen hat in diesem Beispiel eine Stunde und 58 Minuten in Anspruch genommen.

Wie man dazu kommt, was man genau alles anpassen kann und sollte, erklären wir ausführlich in dieser Blog-Serie. Im Einzelnen werden dies die folgenden Inhalte sein:

• Vorstellung PDT Serie (hiermit erledigt)
• PDT Downloader
• PDT VMCreator
• PDT Rollen
• PDT Active Directory und Benutzeraccounts im Detail
• PDT SQL Server im Detail
• PDT SCCM Setup im Detail
• PDT SCOM Setup im Detail
• PDT SCVMM/AC Setup im Detail
• PDT SCSM/SCO Setup im Detail
• PST SCDPM
• PDT Azure Pack im Detail
• PDT Hochverfügbarkeit
• PDT Troubleshooting
• PDT Erweiterte Szenarien

Mit besten Grüßen,
Benedict Berger & Alexander Ortha

German Virtualization Blog: Hyper-V Community Treffen am 08.05.2014 in Stuttgart

Am 08.05.2014 ist es endlich wieder soweit: Die deutsche Hyper-V Community wird sich im Hitachi Office in Stuttgart treffen. Es wird wieder einige Vorträge und auch viel Zeit für Diskussionen geben. Starten wird das Event um 14 Uhr und das Ende liegt gegen 19 Uhr.

Die folgenden Vorträge sind bei dem Event geplant:

  • Hitachi Data Systems und Microsoft – Sascha Kuebart

  • Automatisches System Center Deployment mit dem Powershell Deployment Toolkit – Benedict Berger

  • Hyper-V: Office 365 Light für die Private Cloud – Carsten Rachfahl

  • Virtual Fibre Channel in Hyper-V – Udo Walberer

Anschließend wird es wie üblich eine lockere Diskussionsrunde zum Ausklang geben.

Zur Anmeldung geht es hier.

Mit besten Grüßen,

Benedict Berger

faq-o-matic: vSphere mit SC VMM steuern: Die Ecken und Kanten

Schon seit mehreren Versionen kann Microsofts System Center Virtual Machine Manager (SC VMM) auch “gemischte” Virtualisierungsumgebungen steuern. Dazu bindet er auf Wunsch vSphere- und XenServer-Hosts zur Verwaltung ein. Soweit die kurze Darstellung. Tatsächlich allerdings enthält SC VMM “nur” Schnittstellen zu den Verwaltungsprogrammen von vSphere und XenServer, die damit eine zwingende Voraussetzung darstellen. Was dann tatsächlich die Nutzbarkeit einer solchen Hybridlösung bestimmt, sind dann die vielen kleinen “müsste gehen, geht aber nicht” …

Der MVP- und Hyper-V-Buchautoren-Kollege Nicholas Dille hat in einem Blog-Artikel zusammengetragen, welche Lücken und Fehlstellen er bei der Integration von vSphere (bzw. vCenter) und SC VMM festgestellt hat:

[Pains When Using VMM on Top of vCenter | sepago]
http://www.sepago.de/d/nicholas/2014/04/14/pains-when-using-vmm-on-top-of-vcenter

In einem vorangegangenen Artikel stellt Nicholas dar, wie man einen vCenter-Server überhaupt in VMM integriert:

[How to Manage ESX Hosts with VMM 2012 R2 | sepago]
http://www.sepago.de/d/nicholas/2014/04/11/how-to-manage-esx-hosts-with-vmm-2012-r2

Mark Heitbrink: Der ultimative ADMX Central Store

Client und Server haben unterschiedliche ADMx, man muss sie kombinieren.

Marc Grote: Windows Azure Hyper-V Recovery Manager

Hallo Leutz,

seit einiger Zeit nutze ich Windows Azure u. a. fuer Demonstrationen und Workshops zum Thema System Center 2012 R2 Virtual Machine Manager und der Windows Azure Hyper-V Recovery Manager Integration.
Gestern Abend wollte ich in Windows Azure den Hyper-V-Wiederherstellungs-Manager-Tresor loeschen und fuer eine andere Windows Azure Subscription neu erstellen.
Dazu habe ich den Datentresor in Windows Azure geloescht und fuer die neue Subscription einen neuen Datentresor erstellt.
Anschliessend habe ich auf dem SCVMM 2012 R2 Server ein neues Zertifkat erstellt und dieses in den Windows Azure Datentresor hochgeladen.
Bei dem anschliessenden Versuch den Windows Azure Hyper-V Recovery Manager Provider neu zu registrieren, erschien die Fehlermeldung, dass bereits ein Recovery Manager Tresor existiert und ein Zertifikat ebenfalls vorhanden ist. Angezeigt wurde der Tresor der alten Windows Azure Subscription. Deinstallation und Neuinstallation des Providers half nicht. Die Loesung des Problems war letztlich in der Registry des SCVMM-Server einige Schluessel zu bereinigen.
Die Loesung des Problems steht in folgendem Bilderbuch:
http://www.it-training-grote.de/download/HV-RecoverManager-Azure.pdf

Gruss Marc

 

faq-o-matic: Wer bewacht die Bewacher?

Viele Artikel der letzten Wochen, die sich mit der Spionage durch Geheimdienste beschäftigt haben, enthielten hinweise darauf, dass Geheimdienste in der Lage seien unterschiedliche Verschlüsselungen zu knacken, darunter auch SSL. In den Fachmedien hingegen hieß es, dass die mathematischen Verfahren welche z.B. bei aktuellen SSL Implementierungen zum Einsatz kommen, weiterhin sicher sind und noch nicht geknackt wurden.

Was steckt dahinter? Das beleuchtet mein Beitrag an folgender Adresse:

[Wer bewacht die Bewacher? | consulting lounge]
http://consulting-lounge.de/2013/09/wer-bewacht-die-bewacher/

Hans Brender: I’m speaking at the European SharePoint Conference 2014

The European SharePoint Conference is less than three weeks away and I’m delighted to be part of such an exceptional line up. The conference will take place in Barcelona, Spain from the 5-8th May 2014 and is Europe’s largest SharePoint event bringing you great sessions and the latest innovations from Vegas.

Browse through the superb conference program including 110 sessions, keynotes, and tutorials, including topics covering the latest news from SPC14 including what’s new with SharePoint 2013 SP1 – Office Graph/Oslo – new Office 365 REST APIs – Access Apps – Cloud Business Apps.

I will be conducting a session on “Latest News from OneDrive for Business” aimed at IT Professionals.

“Latest News from OneDrive for Business”

"An Overview about OneDrive for business and the little brother OneDrive, the restriction of files and folders of SharePoint Online and SharePoint on premise, learn about conflicts and how to resolve them, mass import with a powershell script, tips and tricks with OneDrive for business..”

image


Marc Grote: System Center 2012 R2 Configuration Manager – Management Point (MP) Installation schlaegt fehl

Hallo Leutz,

Bei einem Kunden migriere ich zur Zeit eine Forefront Endpoint Protection 2010 Installation mit SCCM 2007 auf SCCM/SCEP 2012 R2. Die SCCM Installation ist erfolgreich, „lediglich“ die Installation des Management Point (MP) meldet im CCM Komponentenstatus den Fehler das der SMS_MP_CONTROL_MANAGER den MP nicht installieren kann (MP.MSI). Durch Analyse der CCM Logdateien MPSETUP.LOG und MPMSI.LOG habe ich festgestellt, dass das CCM Setup Probleme hat, den CCM Namespace im WMI zu registrieren, bzw. vorhandene CCM Eintraege im Repository nicht geloescht werden koennen.
Ursache war, dass auf dem neuen CCM-Server durch die existierende Forefront Endpoint Protection 2010 (SCCM 2007), bereits ein CCM-Client installiert wurde, welcher den CCM-Namespace im WMI angelegt hat.
Wie man den Fehler analysieren und beheben kann, steht in folgendem Bilderbuch:
http://www.it-training-grote.de/download/SCCM2012-R2-MP-Error.pdf

Gruss Marc

Arnd Rößner: Terrabit zum 3. Mal ausgezeichnet

Die hauseigene Cloud-Lösung vCompany des Reutlinger Systemhauses Terrabit GmbH wurde jetzt zum dritten Mal in Folge mit dem renommierten Innovationspreis IT der Initiative Mittelstand ausgezeichnet. Damit setzte sich die Lösung des Unternehmens im Wettbewerb erneut gegen knapp 5000 Bewerbungen aus ganz Deutschland durch, die eine Expertenjury aus Wissenschaftlern, Branchenexperten und Fachjournalisten überzeugen mussten. “Wir sind sehr stolz, erneut mit diesem Preis geehrt zu werden, und werden auch weiterhin die Begeisterung für vCompany an unsere Kunden weitergeben, damit wir dem Vertrauen, das in uns gesetzt wird, gerecht werden”, sagte Terrabit-Geschäftsführer Tobias Hahn. Artikel der Südwestpresse Viele Grüße Arnd Rößner

faq-o-matic: Hyper-V: Reif fürs Unternehmen? Die Folien

imageAm 2. April 2014 habe ich bei michael wessel | it performance die aktuelle Version von Hyper-V vorgestellt. Im Fokus stand die Frage, ob und in welchem Umfang Microsofts Virtualisierungslösung für mittlere und große Unternehmen geeignet ist.

Die Folien meines Vortrags stehen jetzt zum Download bereit:

[Newsroom  - Downloads | michael wessel it performance]
http://www.michael-wessel.de/unternehmen/newsroom/#page-downloads

Arnd Rößner: Was Microsoft aus dem Cloudbusiness mit Azure gelernt hat

Was Microsoft aus dem Cloudbusiness mit Azure gelernt hat – Link Viele Grüße Arnd Rößner

Carsten Rachfahl [Private Cloud]: Microsoft Synopsis 2014 vom 13.-14. Mai 2014 in Darmstadt

imageAuf zur Microsoft Synopsis 2014 vom 13.-14. Mai 2014 in Darmstadt. Zwei Tage lang gibt es geballtes Wissen und Trends rund um die IT-Branche. Neben Microsoft gibt es eine Reihe ausgewählter Referenten, die aus der Praxis berichten. Die Abschluss Keynote für den ersten Tag hält Gerriet Danz, Kommunikationscoach und Bestsellerautor. Doch um welche Themen geht es genau?

  • Business IT: Der neue Innovationsführer
  • Business-Analytics: Vereinfachte Analyse beliebiger Daten
  • Hybrid Cloud: Transformation des Rechenzentrums
  • Moderne Apps: Benutzer-  und kundenorientierte IT
  • Social Enterprise: Die neue Generation der Produktivität

Es wird auch einen Stand der Ask the Expert geben ATE, wo Ihnen kompetenten Ansprechpartner zu den verschiedenen Themen ihre Fragen beantworten. Ich bin mit dabei. Übrigens, die ersten 300 Teilnehmer erhalten einen Sonderrabatt von 100,- Euro auf das Event. Also los anmelden.

Torsten Meringer: Server 2012 R2 Update (April 2014 – kb2919355)

Das Update für Server 2012 R2 kb2919355 kann problemlos für System Center 2012 R2 Umgebungen eingesetzt werden: http://support.microsoft.com/kb/2949669

faq-o-matic: Cindy 1.4: Windows-Rechner dokumentieren

Mein kleines Dokumentationsscript "Cindy" für Windows-Rechner liegt jetzt in Version 1.4 vor. Die neue Fassung behebt ein Problem mit der automatischen Ausführung per Batch auf nicht-deutschen Systemen, und sie ergänzt die Remote-Ausführung.

Näheres zu dem Werkzeug findet sich in diesem Artikel:

[Cindy 1.3: Windows-Rechner dokumentieren | faq-o-matic.net]
http://www.faq-o-matic.net/2012/11/12/cindy-1-3-windows-rechner-dokumentieren/

Der Download ist hier:
Note: There is a file embedded within this post, please visit this post to download the file.

Um schnell Reports zu erzeugen, gehe folgendermaßen vor:

  • Skript in einen beliebigen Ordner auspacken.
  • Doppelklick auf Cindy-LocalReport.bat erzeugt zwei kurze Reports des lokalen Rechners in einem Unterordner, der wie der Rechner heißt.
  • Doppelklick auf Cindy-LocalReport-All.bat erzeugt drei Reports, darunter die "All"-Variante. Diese dauert deutlcih länger und führt in seltenen Fällen zum Skript-Abbruch (verursacht aber keine Schäden).

Reports für andere Rechner gehen so:

  • Hierzu brauchst du Admin-Rechte auf dem Zielrechner! (Das ist eine Beschränkung von WMI.)
  • CMD-Fenster öffnen, in den Skriptordner wechseln.
  • Aufruf mit: Cindy-RemoteReport Rechnername
    dabei ist Rechnername der Name des Zielrechners
  • Auch hier erzeugt die Variante Cindy-RemoteReport-All wieder alle drei Reports, und der letzte dauert lang.

 

TechNet Austria [MS]: Was Microsoft aus dem Cloudbusiness mit Azure gelernt hat #CloudFail #CloudAwesome

Mit der Build in San Francisco gibt es wieder jede Menge Neuigkeiten rund um Azure zu berichten. Einen sehr interessanten Beitrag gab es von Mark Russinovich. Als Technical Fellow im Azure Team hat er dieses Mal eine ganz neue Session gehalten, die abseits von seinen Sysinternals, Malwarehunting und Case of… Vorträgen sehr authentisch gezeigt hat, welche Erfahrungen Microsoft im Dauerbetrieb einer Business Cloud Lösung gesammelt hat und worauf man als Rechenzentrumsbetreiber achten sollte. Bereits letztes Jahr hatte ich einmal die Gelegenheit einer Q&A Session von Mark zu hören, wo er über Clouderfahrungen und zukünftige Entwicklungen berichtet hat.

Eine der wichtigsten Botschaften lautet:

Automatisiere soviel als möglich und setze Dich nicht über diese Automatisierungen hinweg.

Das klingt natürlich ein bisschen nach SkyNet, auch die Tatsache, dass alle diese Fehler, die Mark erzählt hat, vermeidbar gewesen wären. Manche davon sind evident, eines haben alle Fehler gemeinsam, die in einem Public Cloud Umfeld geschehen: sie sind schmerzhaft, fallen auf und sind zum Teil natürlich vermeidbar.

Wichtige Themen rund um einen Rechenzentrumsbetrieb:

  • Automatisiere
  • Skaliere
  • Teste in Produktion (!!!)
  • Frühe Deployments, häufige Deployments

image_thumb

In Azure werden Incidents nach Schweregrad gemessen:

  • Severity 3: nicht dringend, keine Kundenbeeinflussung, kann später einen Einfluss haben.
  • Severity 2: beeinträchtigt manche Kunden und manche Services. Dringend, aber noch keine Katastrophe.
  • Severity 1: globaler Ausfall, der mehrere Services betrifft und mehrere Kunden.
  • Severity 0: sehr großes Problem, Kunden laufen Gefahr, ihre Daten zu verlieren.

In Azure gab es einmal einen Severity 0 Fall.

Beispiele von aufgetretenen Fehlern:

1. Case-Sensitive Check beim Ressourcenprovider. D.h. “mobileservice” <> “MobileService”, RDFE erwartet Case-sensitive.

2. Sauberes Logging

Jeder Developer sollte eine saubere Fehlerprotokollierung implementieren. Fehlermeldungen wie: “Das Abonnement ist nicht für dieses Feature vorgesehen” oder “Der Servicename ist unbekannt” ist schwierig zu finden. Build with /warnaserror. Don’t supress compiler warnings.

image_thumb1

3. Exceptional Coding

Catch-all oder fail fast? Bekommt jemand einen Fehler ist es ganz normal, dass derjenige es noch einmal probiert. Mit catch-all fängt man alle Fehler ab, es kann jedoch trotzdem instabil sein. Ein fail-fast führt aufgrund der wiederholten Versuche eventuell zu einer Denial of Service Attacke. Ein Tipp ist: crash wenn es sich nicht um einen Userfehler handelt, andernfalls logge einen Fehler. Log einmal pro Stunde, damit eine Fehlerlog nicht von ein und derselben Fehlermeldung angefüllt wird.

4. VM werden nicht provisioniert

In diesem Fall wurden neu erzeugte VM’s in Azure nicht provisioniert. Das passierte nur bei 2 aktualisierten, brandneuen Images. Der Vorgang der Provisionierung in Azure ist dabei folgender: monatlich werden OS VHD Images neu erzeugt, die Images werden in ein repository geladen und die Funktionalität wird manuell getestet. Danach werden diese VHD’s vom staging Bereich in den Produktivbereich geladen. Während dieses Vorganges wurden die Images kaputt. Das Learning daraus ist: nicht nur im Staging Bereich testen, sondern auch in der Produktivumgebung, da Daten kaputt gehen können.

image_thumb2

5. VIP swap

Ein VIP Swap ist die Umstellung einer Staging Umgebung in den Produktivbetrieb. Man deployt 2 Versionen seiner Cloud Services – Produktion und Stage. RDFE verwendet dazu Storage Tables um sich die beiden Versionen zu merken. Durch einen Bug in RDFE kam es dazu, dass diese Zeilen falsch überschrieben wurden – beide Zeilen zeigten an, die Stage Version zu sein. Updates erfolgen daher immer nur scheibchenweise.

image_thumb3

6. Löschen von Subscriptions

Interne Azure subscriptions werden von Zeit zu Zeit aufgeräumt. Bei diesen Subscriptions gab es auch welche, die für Kunden in einem Preview Stage erzeugt wurden. Dazu gibt es einen Prozess, mit dem diese aufgeräumt werden. Die damals dafür verantwortliche Personen erzeugten einen Batch und haben mit diesem den dafür vorgesehenen Prozess übersteuert. Folge war, dass viele Subscriptions, auch von Kunden, gelöscht wurden. Alle Daten konnten glücklicherweise wieder hergestellt werden, da Azure Data Retention verwendet und Daten für 90 Tage weiterhin verfügbar sind. Zudem verwendet Azure, wo immer möglich Soft Delete.

image_thumb4

image_thumb5

7. Zertifikat Ablauf

Dies ist einer der Fälle, die weitläufig bekannt wurden. Am 22. Februar 2013 kam es zu einem Zertifikatausfall, der nahezu 11,5 Stunden dauerte, bis die volle Verfügbarkeit wieder hergestellt war. SSL Verbindungen waren plötzlich nicht mehr möglich. In diesem Fall lag es nicht daran, dass Microsoft vergessen hatte, die Zertifikate zu erneuern, bereits 180 Tage vorher werden Warnungen ausgegeben, dass diese zu erneuern sind. Diese werden aktualisiert, in diesem Fall waren es drei Zertifikate, die bereits im Jänner 2013 erneuert wurden. Der Fehler hierbei war, dass vergessen wurde, diese Zertifikate mit einem Update Datum zu versehen. Dadurch passierte, dass andere Updates vorgezogen, bzw. dieses eine Update nach hinten, nach den 22. Februar verschoben wurde.

image_thumb7

Microsoft scannt nun wöchentlich alle Service Endpoints. Microsoft arbeitet hier auch an einer Vollautomatisierung.

8. Schaltjahr in Azure

Zeit ist ein single point of failure.

Das große Learning hieraus ist, dass Menschen Fehler machen, durch Automatisierung können diese vermieden werden. Ein Übersteuern der definierten Prozesse kann einfach schlimme Folgen haben.

Tolle Session von Mark, es war eine Premiere auf der Build, hoffe, viele ergreifen die Gelegenheit und sehen sich diese Session an. Eine offene Kommunikation über gemachte Fehler und was daraus gelernt wurde, hilft uns, diese selbst in Zukunft zu vermeiden und auch mehr Vertrauen in Cloudservices zu bekommen.

TechNet Austria [MS]: Enterprise Mode für den Internet Explorer 11

Vergangene Woche haben wir auf der //b/ Build 2014 Konferenz u.a. auch die überarbeitete Version des Internet Explorer 11 mit dem Enterprise Mode (EMIE) angekündigt und als Teil des Windows 8.1 Updates (für Windows RT 8.1, Windows 8.1 und Windows Server 2012 R2) veröffentlicht (2. April: MSDN/TN Abonnenten, 8. April: WU/MU, WSUS, 14. April: VLSC). Für die Windows 7 SP1 Plattform (und Windows Server 2008 R2 SP1) ist der EMIE im kumulativen Update für den Internet Explorer 11 (KB Artikel 2929437) vom 8. April enthalten.

Zur Verwaltung der Liste von Web Sites, die der Internet Explorer 11 im Enterprise Mode öffnen soll haben wir das Enterprise Mode Site List Manager Tool (KB Artikel 2942883) bereitgestellt, welches diese Einstellungen ohne Editieren der XML Datei ermöglicht.

Informationen zum aktualisierten Internet Explorer 11 im IEBlog: Announcing an updated version of Internet Explorer 11 - available on Windows 8.1, Windows 7, and Windows Phone 8.1, Stay up to date with Enterprise Mode for Internet Explorer 11

Michel Lüscher [MS]: Der neue Microsoft Virtual Machine Converter ist verfügbar

Vor wenigen Tagen wurde die Version 2.0 des Microsoft Virtual Machine Converter (MVMC) veröffentlicht und zum Download bereitgestellt. Auf dieses Update wurde lange gewartet, da bisher die aktuellen VMware Versionen nicht unterstützt wurden, weder von MVMC noch von System Center Virtual Machine Manager. Zu den neuen Funktionen zählt nebst dem Support für VMware 5.1 /

Carsten Rachfahl [Private Cloud]: Update: Ihre Daten in der Microsoft Cloud

imageHier ein Link zu einem neuen Artikel von Brad Smith, General Counsel and Executive Vice President of Legal and Corporate Affairs bei Microsoft. Danke an meine Super-MVP Kollegin, Martina Grom ohne die wir anderen die Hälfte der Entwicklungen im Office 365 Umfeld verpassen würden. Sie ist einfach die beste Suchmaschine der Welt! – Aber jetzt zum Inhalt des Blogposts von Brad Smith.

Microsoft hat mit seinen Services: Microsoft Azure, Office 365, Microsoft Dynamics CRM und Windows Intune, offiziell die Bestätigung erhalten, durch die Artikel 29 Gruppe, dass ihre Services den strengen Anforderungen des EU 28 Datenschutzbestimmungen entsprechen. Damit ist Microsoft derzeit der einzige Anbieter im Cloud Bereich – und ich denke das trifft auch im Vergleich zu rein deutschen Anbietern von solchen Services zu – die dieses erfüllen für ALLE ihre Rechenzentren weltweit. Das letzte Wort hier wirklich nicht verschlucken! Egal ob ihre Daten im europäischen Raum oder außerhalb davon liegen würden, die strengen europäischen Richtlinien für den Datenschutz werden erfüllt. Ob nun die Vereinbarung Save Harbour kippt oder bleibt ist egal, denn selbst beim Bleiben hätte diese Vereinbarung nur Auswirkungen auf Daten die in die USA transferiert würden, aber nicht in andere Staaten. Hier jetzt der Link zu dem Artikel:

Privacy authorities across Europe approve Microsoft´s cloud commitments

Zwei weitere Anmerkungen über die ich in den letzten Tagen gestolpert bin. Heartbleed die Sicherheitslücke bei Open SSL Zertifikaten betrifft keinen Dienst von Microsoft und auch keine On-Premise Software, da Microsoft mit eigenen SSL Zertifikaten arbeitet. Hier eine kurze Stellungnahme von dem Microsoft Security Team.

Microsoft Services unaffected by OpenSSL vulnerability von Tracey Pretorius, Director, Trustworthy Computing.

Als ich vor kurzem las, dass die E-Mail Dienste von deutschen Anbietern ab sofort verschlüsselt arbeiten, musste ich kurz den Kopf schütteln über den Pressewirbel. Das ist etwas, was ich von Anfang an haben wollte und weshalb ich mich in dieser Hinsicht immer auf die Microsoft Lösungen verlassen habe, denn die nehmen IT-Sicherheit sehr ernst. Doch Verschlüsselung allein reicht nicht. Es muss eine End-zu-End Verschlüsselung sein, Passwörter benötigen Komplexität, für unterschiedliche Zugänge von Webseiten müssen auch unterschiedliche Passwörter gewählt werden und nicht zu vergessen auf ihrem Rechner liegen die Informationen im Normalfall unverschlüsselt. Es wird einfach Zeit, dass wir uns bewusst werden, wo die Sicherheitsrisiken liegen und entsprechend im Unternehmen oder Privat umgesetzt werden müssen. Die Benutzer weiterhin dumm halten, das Internet abschotten und für eine Speicherung der Daten plädieren, indem mit der Angst der Menschen gespielt wird, entspricht nicht meinem Bild eines freien, demokratischen Staates. Wer in einem Land lebt wie dem unseren, darf nicht vergessen das Demokratie Arbeit ist, mit der wir nie aufhören dürfen!

Sorry für das kurze abdriften in die Politik. Für alle, die an diesem Thema Interesse haben, die Fachkompetenz besitzen und auf der Suche nach einem neuen Job sind:

image

faq-o-matic: Microsoft Virtual Machine Converter 2.0 erhältlich

Microsoft hat die neue Version 2.0 seines Microsoft Virtual Machine Converter (MVMC) freigegeben. Damit lassen sich virtuelle Maschinen von VMware vSphere nach Hyper-V konvertieren. Neben den aktuellen Windows-Versionen unterstützt das Werkzeug innerhalb der zu konvertierenden VMs auch Linux. Eine PowerShell-Integration sowie die Möglichkeit, die erzeugten VHD(X)-Dateien gleich zu Azure hochzuladen, gehören nun auch dazu.

Der Download mit einem Admin-Handbuch findet sich hier:

[Download Microsoft Virtual Machine Converter 2.0 from Official Microsoft Download Center]
http://www.microsoft.com/en-us/download/details.aspx?id=42497

Arnd Rößner: Windows 7 Desktopverknüpfungen verschwinden

Windows 7-Benutzer melden sich mit dem Hinweis, dass Dekstopverknüpfungen einfach verschwinden. Meistens handelt es sich dabei um Verknüpfungen auf Server außerhalb der Domäne oder auf USB-Geräte. Abschalten der Computerwartung: Key : HKEY_LOCAL_MACHINE\SOFTWARE\Microsoft\Windows\ScheduledDiagnosticsName : EnabledExecutionTyp : REG_DWORDWert : 0 = disable / 1= Enable Viele Grüße Arnd Rößner

Carsten Rachfahl [Hyper-V]: Einen bestehenden Scale-Out Fileserver um SSDs erweitern

imageVorweg das ist ein langer Screencast (ca. 1 Stunde)! Ich habe allen mehr als 25 Stunden in die Aufnahme gesteckt – also Ihr müsst Zeit mitbringen.Was seht ihr dafür? Ich zeige den Abbau und wieder Aufbau eines Scale-Out Fileservers mit Storage Spaces und SSDs.

Warum habe ich das gemacht? Ich wolte mal zeigen wie man einen Scale-Out Fileserver mit HDDs um SSDs erweitert und zwar nicht ein leeres System sondern eines das in Benutzung ist. Der Plan war nicht schlecht aber leider wegen eines Bugs in der SSD Firmware nicht durchführbar (siehe Artikel Windows-Update im Scale-Out Fileserver erzeugt Probleme bei der Arbeit mit Datenträgern im Failover Cluster (Update 1). Also haben wir die VMs die auf unserem Scale-Out Fileserver liegen kurzerhand auf den Scale-Out Fileserver unserer Demo/PowerKurs Umgebung verschoben, den Scale-Out Fileserver abgebaut und wieder neu mit SSDs und

Autotieren aufgebaut. Aber diesmal nicht “Quick and Dirty” sondern so wie er in der Realität momentan in unseren Kundenprojekten auch gebaut wird.

Hierzu verwende ich einige Erkenntnisse die ich in Interaktionen mit der Produktgruppe gewonnen habe und einige sehr hilfreiche Scripts.

Hier sind die Downloads der Verwendeten Scripts:

Completely Clearing an Existing Storage Spaces Configuration von Joshua Adams Microsoft

Storage Spaces Physical Disk Validation Script von Bryan Matthew Microsoft

Create-StoragePools_and_VirtualDisk Script von Carsten Rachfahl und Joshua Adams Microsoft

Ich wünsche euch viel Spaß und viele Erkenntnisse beim anschauen des Videos!

Daniel Melanchthon [MS]: Gibt es zukünftig Server von Microsoft nur noch via Cloud?

Nachdem ich jetzt von mehreren Kunden die folgende Frage bekommen habe, möchte ich die Gelegenheit nutzen, die Antwort darauf auch auf meinem Blog zu geben:

Stimmt es, dass Microsoft nach der kommenden Version des SharePoint Servers diesen nur noch in der Cloud anbieten wird?

Die Antwort kurz und knapp: Das stimmt so nicht!

Jeff Teper, Corporate Vice President von Office Service und Server, hatte dazu schon im letzten Jahr Stellung bezogen:

Jeff_TepperOngoing Server Releases – We are committed to on-premises releases of SharePoint and Exchange on a comparable cadence to past server releases. We are working on the next one and will share more down the road.

Da sich die Gerüchte hartnäckig halten, wurde die Antwort vor kurzem auch auf dem Office Blog veröffentlicht:

We will continue with our on-premises releases of both SharePoint Server and Exchange Server on our traditional 2-3 year release cadence.

Auch das Exchange-Team hat mittlerweile dazu Stellung bezogen:

Microsoft has no plans to stop delivering on-premises releases of Exchange.

Klarer können wir es doch gar nicht sagen, oder?

Aber vielleicht sind wir auch nicht ganz unschuldig an diesen Vermutungen. Nachdem Steve Ballmer letztes Jahr auf der Build angekündigte, dass wir den Release-Zyklus unserer Produkte beschleunigen und neue Software nicht mehr alle zwei bis drei Jahre, sondern jährlich zur Verfügung stellen wollen, ist daraus eventuell eine Erwartungshaltung entstanden, dass neue Versionen von SharePoint Server oder Exchange Server jedes Jahr veröffentlicht werden würden. Dass es 2014 keine neue Versionen von SharePoint oder Exchange geben wird, bedeutet im Umkehrschluss nicht, dass es in der Zukunft gar keine Versionen mehr geben wird.

Have fun!
Daniel

Marc Grote: Exchange 2010 zu Exchange 2013 Migration – Offline Adress Buch (OAB) Probleme

Hallo Leutz,

bei einem Kunden bin ich gerade in der finalen Phase der Migration der Exchange Server 2010 auf Exchange Server 2013. In der letzten Phase muss dass Offline Adressbuch fuer die neuen Exchange 2013 Server zugewiesen werden (bis zu diesem Zeitpunkt wurden die OAB von Exchange 2010 verwendet) und die alten OAB vor der Exchange Server 2010 Dekommissonierung geloescht werden. Da die OAB nicht von Exchange 2010 zu Exchange Server 2013 verschoben werden koennen, muessen neue OAB erstellt werden.
Bei der Erstellung der neuen OAB per Exchange Management Shell (GUI ist nicht mehr moeglich), kam die Fehlermeldung ManagementObjectNotFoundException. Die neuen OAB wurden jedoch in der Active Directory Konfigurations Partition erstellt. Die Anzeige der OAB mit der Exchange Management Shell zeigte nur die Exchange 2010 OAB an. Nach einiger Recherche habe ich festgestellt, dass die Berechtigungen fuer die Exchange Sichereitsgruppen im Container CN=Offline Adress Lists der Active Directory Konfigurations Partition nicht korrekt waren, bzw. die Vererbung der Berechtigungen auf dieser Ebene deaktiviert war. Nach Bereinigung der Berechtigungen liessen sich neue OAB mit der Exchange Management Shell anlegen und den neuen Exchange 2013 Datenbanken zuweisen.
Ein weiteres Problem bestand noch darin, dass das von Exchange Server 2013 angelegte OAB Standard-Offlineadressbuch (Ex2013) ein Problem hatte, weil es noch fuer OABGEN 2 und 4 eingerichtet war. Das Problem konnte geloest werden, indem mit ADSIEDIT in den Eigenschaften des OAB der Wert des Attributs doOABVersion von 6 auf 4 gesetzt wurde.
Weitere Details, Fehlermeldungen und Loesungsansaetze stehen in diesem Bilderbuch:
http://www.it-training-grote.de/download/Mig-2010-2013-OAB-Probleme.pdf

Gruss Marc

Arnd Rößner: Windows 8.1 Update prevents interaction with WSUS 3.2 over SSL

Windows 8.1 Update (KB 2919355) prevents interaction with WSUS 3.2 over SSL – Link Viele Grüße Arnd Rößner

Arnd Rößner: Windows 8.1 Update lässt WSUS klemmen

Windows 8.1 Update lässt WSUS klemmen – Link Viele Grüße Arnd Rößner

Hans Brender: OneDrive for Business | Repair function

OneDrive for Business, Microsoft

"Repair" added to OneDrive for Business

OneDrive for Business, 15.0.4605.1000, Version With the release of the April Product update, build 4605, the OneDrive for Business “Repair” option is now available. Repair will provide the user an option to fix a certain set of client side sync issues thereby increasing user confidence and, enhancing the usability of the OneDrive sync client. This is a first big step in enabling impacted users to get to a good sync state
Repair option in Onedrive for Business, systray context menu The Repair option is available as part of the systray context menu. If you find you are currently in a permanent sync error state, please use Repair.

Things to keep in mind:

1. Repair will stop sync on all your libraries and then re-sync them. How long this takes depends on the number of files and folders you’re syncing.

2. All your files will be archived by default, hence there is a pre-requisite on required disk space.

3. There can be a delay after Repair is complete, for files to appear in your synced folders. This time will vary (take longer), depending on the number of document libraries you have synced.

4. Don’t time a machine-restart while Repair is in progress, as the program currently don’t have support for auto-restart of Repair.

5. Document libraries deleted on the server, will continue to be in error state post Repair.


German Virtualization Blog: Windows Server 2012 R2 Update verfügbar

Die Client-Betriebssysteme beherrschen den heutigen Patchday auf den ersten Blick. Neben den allerletzten Updates für Windows XP ist auch das erste Update-Paket für Windows 8.1 erschienen und bereits über Windows Update verfügbar. Doch auch für das Serversystem steht die entsprechende Aktualisierung - Windows Server 2012 R2 Update - ab sofort über Windows Update zur Verfügung. Nach der Installation wurde die Build-Nummer 6.3.9600.17031 erreicht.

Das besondere an diesem Update-Paket ist alleine der Umfang des Pakets. ALLE regulären Updates, Hotfixe und Sicherheits-Updates, die für Windows Server 2012 R2 existieren, sind in diesem kumulativen Update-Paket enthalten. Dies erklärt die Größe der bis zu 700MB großen Installationsmedien für das Update. Dadurch ist es nun wesentlich einfacher bestehende Installationen von Windows Server 2012 R2 auf den aktuellen Stand zu aktualisieren. Für neue Installationen stehen für die Downloadmöglichkeiten via MSDN bereits aktualisierte Installationsdatenträger zur Verfügung, die das Update-Paket bereits enthalten. Volumenlizenzkunden erhalten über VLSC ab 14.04.14 Zugriff auf aktualisierte Installationsmedien zur Erstinstallation von Windows Server 2012 R2.

Neben den bestehenden Updates wurden weitere Fehlerbeseitigungen und Verbesserungen zur Verfügbarkeit und Performance in das Paket integriert.

Neu hinzugekommen ist außerdem der Enterprise Modus für den Internet Explorer (EMIE). Dieser Modus ermöglicht eine bessere Kompatibilität für ältere Web-Anwendungen, indem die Internet-Explorer 8 Kompatibilität genutzt wird. Genauere Informationen dazu finden sich in diesem Blog-Eintrag.

Verbessert wurde auch das Benutzer-Interface, so gibt es nun auf der Windows Startseite  zusätzliche Buttons mit Shutdown- und Suchoptionen, wodurch die Navigation insbesondere bei der Arbeit mit virtuellen Maschinen vereinfacht wird.

Die Hardware-Anforderungen sowie alle APIs sind gleich geblieben, sodass keine Kompatibilitätsprobleme zu erwarten sind.

Die Installation von Windows Server 2012 R2 Update sollte auf allen Systemen schnell erfolgen, denn Microsoft hat angekündigt, dass alle zukünftig erscheinenden Updates Windows Server 2012 R2 Update als Installationsvoraussetzung benötigen. Weitere Informationen gibt es auf einer speziellen Landing-Page für das Update.

Mit besten Grüßen,
Benedict Berger

German Virtualization Blog: Virtualisieren mit dem Microsoft Virtual Machine Converter 2.0

Microsoft hat heute auf dem internationalen Server & Cloud Blog den Microsoft Virtual Machine Converter 2.0 (MVMC 2.0) angekündigt. Das kostenfreie Werkzeug ist ab sofort verfügbar und konvertiert bestehende virtuelle Maschinen auf VMware Hosts ohne Datenverlust nach HYPER-V. Der Trend zum Einsatz von Hyper-V als Virtualisierungsplattform hält ungebrochen an. Die vielen hilfreichen Funktionen in Windows Server 2012 R2 und Hyper-V Server 2012 R2 ohne zusätzliche Lizenzkosten haben viele Administratoren und IT-Leiter überzeugt Hyper-V einzusetzen oder zu evaluieren. Microsoft erleichtert den Umstieg mit dem Microsoft Virtual Machine Converter.

In der aktuellen Version sind einige neue Features hinzugekommen:

  • Alle aktuellen VMware Plattformen werden nun unterstützt, dies inkludiert auch vCenter und ESX/ESXI Hosts der Versionen 5.1 und 5.5 sowie die virtuelle VMware Hardware der Generationen 4-10.
  • Neben der Migration von VMware VMs mit Windows Server- und Clientbetriebssystemen ist ab sofort auch die Umwandlung von VMs mit Linux Betriebssystemen aller gängigen Distributionen mit MVMC möglich. Dies schließt SuSe Enterprise Linux und Red Hat Enterprise ebenso ein wie Ubuntu, Debian und CentOS.
  • Hyper-V Hosts können weiterhin als Umwandlungs-Ziel angegeben, aber bestehende VMware VMs können auch direkt nach Microsoft Azure migriert werden und dann in einer Hybrid-Cloud Lösung betrieben werden.
  • Außer der grafischen Oberfläche kann der MVMC 2.0 auch komplett via Powershell gesteuert werden und dadurch vollständig automatisiert und orchestriert werden. Dies ermöglicht z.B. eine Einbindung in System Center Orchestrator Runbooks.
  • Anders als z.B. Disk2VHD ist der MVMC vollständig durch Microsoft supported und damit auch für aufwändigere Migrationen bestens geeignet.

MVMC 2.0 ist ab sofort kostenfrei verfügbar, der Download erfolgt hier und ist etwa 2,5MB groß .

Um deutlich zu machen, wie einfach der Umwandlungsprozess funktioniert, habe ich eine beispielhafte Schritt-für-Schritt Anleitung erstellt:

Starten des Setup-Files:

Akzeptieren der Lizenzbedingungen:

Angabe des Zielverzeichnisses:

Start der Installation:

Nach etwa fünf Sekunden ist unser Setup erfolgreich abgeschlossen:

Nach dem Start der Anwendung erwartet uns ein übersichtlicher Wizard:

Neu ist Windows Azure, bzw. nun Microsoft Azure bei der Auswahl des Migrationsziels:

Wir geben einen HYPER-V Host als Ziel an:

Es erfolgt die Angabe der Zielpfade und Optionen der virtuellen Festplatten. Wir entscheiden uns für dynamisch wachsende Festplatten im VHDX-Format:

Anschließend erfolgt die Verbindung zum VMware Host oder vCenter Server:

Wir erhalten eine Auflistung aller virtuellen Maschinen und wählen die gewünschte VM zur Konvertierung aus:

Wir authentisieren uns an der virtuellen Maschine um die automatische Deinstallation der VMware Tools zu ermöglichen. Sind keine VMware Tools installiert, ist dieser Schritt nicht erforderlich.

Für die Umwandlung der virtuellen Festplatte ist ein Ordner mit ausreichend Speicherplatz erforderlich, den wir hier angeben:

Anschließend erhalten wir eine Zusammenfassung unserer Konfiguration und starten die Umwandlung:

Nach etwa 15 Minuten Wartezeit ist die Umwandlung erfolgreich abgeschlossen:

Und schon ist die Umwandlung dieser virtuellen Maschine abgeschlossen. In einem weiteren Post werde ich aufzeigen, wie die Automatisierung mittels Powershell durchgeführt wird.

Für den Herbst diesen Jahres wurde übrigens bereits die nächste Version Virtual Machine Converter 3.0 angekündigt, mit der es möglich sein wird neben VMware VMs auch physikalische Serversysteme zu konvertieren.

Mit besten Grüßen,

Benedict Berger

Hans Brender: OneDrive for business | service description

OneDrive for Business, Microsoft

 

Microsoft has published on Technet the service description for OneDrive for business with Office Online, SharePoint Online plan 1 and SharePoint Online plan 2 :

  • Links to plans of Office 365
  • Links to OneDrive for Business plans
  • System requirements on the client side
  • OneDrive for Business limits

and a table with all features for

  • OneDrive for Business with Office Online
  • SharePoint Online Plan 1
  • SharePoint Online Plan 2

OneDrive for Business with Office Online, service description, SharePoint Online Plan 1, SharePoint Online Plan 2


Hans Brender: OneDrive for Business | Service Beschreibungen

OneDrive for Business, Microsoft

Microsoft hat die Service-Beschreibungen für OneDrive for Business with Office Online auf Technet zur Verfügung gestellt (in englischer Sprache):

  • Links zu Plänen von Office 365
  • Links zu OneDrive for Business Plänen
  • System-Voraussetzungen  auf der Client-Seite
  • Beschränkungen von OneDrive for Business

und dann eine Tabelle mit allen Eigenschaften für

  • OneDrive for Business with Office Online
  • SharePoint Online Plan 1
  • SharePoint Online Plan 2

OneDrive for Business; Service Beschreibung, SharePoint Online Plan 1, SharePoint Plan 2


Arnd Rößner: Letzter Patchday für XP und Office 2003

Letzter Patchday für XP und Office 2003 – heise online Viele Grüsse Arnd Rössner

Michael Greth: SharePoint Kaffeetasse 320

Aktion

Security

SharePoint

Was noch

faq-o-matic: Internet Explorer Content Advisor wird für alle Benutzer übernommen

Wie man am besten den Zugriff auf das Inter- und Intranet beschränkt und welches Fehlverhalten es im Zusammenhang mit dem Internet Explorer-Inhaltsratgeber und
Gruppenrichtlinien gibt, erfahrt ihr in meinem aktuellen Beitrag.

http://matthiaswolf.blogspot.de/2014/03/internet-explorer-content-advisor-wird.html

Carsten Rachfahl [Hyper-V]: Ankündigung einer neuen Artikel-Serie: Unsere Best-Practise Erfahrungen

Vorlage-Button-WinServ2012R2Wir beginnen mit diesem Artikel eine Serie an Artikeln, in der wir unsere Best Practise-Erfahrung teilen möchten. Ziel ist es, unser Wissen und unsere Erfahrung in diesen Artikeln unterzubringen. Wir sind seit einiger Zeit bei den unterschiedlichsten Kunden, die jeweils eine eigene, einzigartige Umgebung haben. Diese Erfahrungen sowie der Betrieb einer eigenen Infrastruktur bei uns im Haus sollen in den kommenden Artikeln einfließen, um Ihnen einen Mehrwert und eine Empfehlung für den Betrieb einer Hyper-V oder Storage-Lösung zu geben. Hauptfokus liegt auf dem hochverfügbaren Betrieb eines SMB3-Speicher in Form eines Scale-Out File Servers, welcher als Ablage von VM-Daten genutzt wird.

Die in der Reihe beschriebenen Konfiguration sind nicht die einzigen nutzbaren und sinnvollen Konfigurationen, wir haben mit dieser Art von Betrieb bisher aber immer gute Erfahrungen gemacht und können sie daher empfehlen.

Wir werden jeweils an einem Freitag einen neuen Artikel veröffentlichen, die Veröffentlichung richtet sich nach den Möglichkeiten der jeweiligen Themen und Hardware-Komponenten sowie unserer Zeit. Aktuell geplant sind die folgenden Beiträge:

Installation und Einrichtung eines Failover Cluster unter Windows Server 2012 R2

In diesem Artikel gehen wir auf die Einrichtung eines Failover Cluster zur Nutzung als Hyper-V Cluster ein. Als Storage kommt ein Scale-Out File Server zum Einsatz, d.h. wir arbeiten mit einem hochverfügbaren Fileshare. Der Hauptaugenmerk bei dieser Konfiguration liegt auf dem SMB3-Protokoll. Neben der reinen Installation werden unter anderem die Themen SMB Multichannel, SMB Multichannel Constraint und Bandbreitenmanagement für SMB3-Traffic behandelt.

Installation und Einrichtung eines Scale-Out File Server unter Windows Server 2012 R2 mit JBODs

Im zweiten Artikel beschreiben wir die Installation, Einrichtung und Administration eines Scale-Out File Server. Als Speicher werden HDDs und SSDs genutzt, die in einem JBOD per SAS an beide Cluster-Knoten angeschlossen sind. Die Themen EnclosureAwareness, Tiering, CSV Block Cache und WriteBack Cache sind nur einige der Themen, die in diesem Artikel behandelt werden.

Installation und Einrichtung eines Scale-Out File Server unter Windows Server 2012 R2 mit BlockStorage

Neben dem Aufbau eines Scale-Out File Server mit JBODs besteht natürlich auch die Möglichkeit, vorhandene SAN-Systeme als Speicher zu nutzen und diesen Speicher über den Scale-Out File Server mit SMB3 zu maskieren. In diesem Beitrag werden wir unsere NetApp FAS6040 nutzen, um den per iSCSI oder Fibre Channel nutzbaren Speicher an die File Server-Knoten anzubinden und nach oben per SMB3 weiter zu reichen.

Installation und Einrichtung eines Scale-Out File Server unter Windows Server 2012 R2 mit zwei LSI Syncro HBAs und JBODs

Wir werden in diesem Beitrag den Aufbau und die Einrichtung von zwei LSI Syncro RAID-Controllern beschreiben. Mit Hilfe des Controller-Pärchen besteht die Möglichkeit, mehrere Datenträger in einem oder mehreren JBODs zu einem RAID-Verbund zusammenzuschließen und an zwei Servern gleichzeitig zu nutzen. Wir gehen detailliert auf die Funktionsweise, die Vor- und Nachteile sowie den Aufbau der Umgebung ein.

Die Nutzung von Cluster Aware Updating (CAU)

In diesem Artikel beschreiben wir, wie wir die Möglichkeiten des Cluster Aware Updating in Zusammenhang mit WSUS und den Gruppenrichtlinien nutzen, um den Ablauf des Update-Vorgangs zu optimieren und teilweise automatisieren.

Torsten Meringer: Die Gefahr lauert in der Task Sequence – Supersedence

Supersedence ist eine neue Funktion von ConfigMgr 2012, die es ermöglicht, eine Application durch eine andere / neuere zu ersetzen. An sich ein sehr brauchbares und praktisches Feature. An einem praktischen Beispiel will ich aber zeigen, dass dies auch mit einer gewissen “Gefahr” verbunden ist.
Gehen wir von einer Application aus – in meinem Beispiel irfanView 4.35. Diese beinhaltet einen einzigen Deployment Type (DT) und ist auf alle meine Win7/8-Testlab-Rechner optional (available) verteilt. Auf manchen Rechnern wurde die Software bereits installiert, auf anderen nicht.

Application in der ConfigMgr Console inkl. Deployment (purpose: available):

Supersedence01

Auf einem Testclient wurde die Application bereits installiert, wie im Software Center zu sehen:

Supersedence02

Bis hier läuft also alles nach Plan.

Mittlerweile ist aber eine neue Version der Application erschienen. irfanView 4.37 in meinem Beispiel.
Diese wird dann in ConfigMgr angelegt (als Beispiel wieder mit einem DT, wobei die Art und Anzahl der DTs keine Rolle spielt) und eine Supersedence-Beziehung eingerichtet.

Supersedence03

Diese Supersedence-Information ist in der Admin Console auch grafisch darstellbar:

Supersedence04

Was passiert jetzt auf dem Client? Erst einmal nichts ungewöhnliches, nämlich nichts. Klar, denn ohne Deployment für irfanView 4.37 “weiß” der Client nicht, dass die Applikation von 4.35 auf 4.37 zu aktualisieren ist. Das macht auch Sinn, denn sonst würde man ja die Application automatisch ausrollen / aktualisieren, ohne dass Tests möglich wären.

Folgendes Szenario: auf 90% aller Clients ist irfanView 4.35 vorhanden, es laufen erste Tests für den Aktualisierung auf irfanView 4.37 (mittels eine Deployments von irfanView 4.37 auf eine Anzahl X von Testrechnern).
Jetzt wird entschieden, dass irfanView 4.37 ab sofort für alle Neuinstallationen verwendet werden soll. Also wird irfanView 4.37 zu einer OSD-Tasksequenz hinzugefügt:

Supersedence05

Diese Task Sequence ist auf “All System” deployed (ich weiß, das sollte man nicht unbedingt tun! Für Testzwecke ist dies aber durchaus ok. Außerdem kann das beschriebene Szenario auch passieren, wenn eine andere Collection als “All Systems” im Spiel ist; nur sind dann halt weniger Rechner betroffen), aber nur für Boot-Medien und PXE verfügbar (d.h. sie wird nicht im laufenden Betriebssystem im Software Center angezeigt):

Supersedence07

Was passiert nun, nachdem ein Client das nächste mal Policies abfragt?

Entering ExecQueryAsync for query “select * from CCM_AppDeliveryType where (AppDeliveryTypeId = “ScopeId_9CF7DEB9-6D21-4D41-B660-CC4E9ED87B1D/DeploymentType_4e6b2c21-dcba-471a-85b7-a49c7737fb5c” AND Revision = 3)” AppDiscovery
Performing detection of app deployment type irfanView 4.35 (exe)(ScopeId_9CF7DEB9-6D21-4D41-B660-CC4E9ED87B1D/DeploymentType_4e6b2c21-dcba-471a-85b7-a49c7737fb5c, revision 3) for system. AppDiscovery
+++ Discovered application [AppDT Id: ScopeId_9CF7DEB9-6D21-4D41-B660-CC4E9ED87B1D/DeploymentType_4e6b2c21-dcba-471a-85b7-a49c7737fb5c, Revision: 3] AppDiscovery
+++ Detected app deployment type irfanView 4.35 (exe)(ScopeId_9CF7DEB9-6D21-4D41-B660-CC4E9ED87B1D/DeploymentType_4e6b2c21-dcba-471a-85b7-a49c7737fb5c, revision 3) for system. AppDiscovery
Entering ExecQueryAsync for query “select * from CCM_AppDeliveryType where (AppDeliveryTypeId = “ScopeId_9CF7DEB9-6D21-4D41-B660-CC4E9ED87B1D/DeploymentType_9a23e8a4-8109-4360-b5d5-4b84a454008f” AND Revision = 9)” AppDiscovery
Performing detection of app deployment type irfanView 4.37(ScopeId_9CF7DEB9-6D21-4D41-B660-CC4E9ED87B1D/DeploymentType_9a23e8a4-8109-4360-b5d5-4b84a454008f, revision 9) for system. AppDiscovery
+++ Application not discovered. [AppDT Id: ScopeId_9CF7DEB9-6D21-4D41-B660-CC4E9ED87B1D/DeploymentType_9a23e8a4-8109-4360-b5d5-4b84a454008f, Revision: 9] AppDiscovery
+++ Did not detect app deployment type irfanView 4.37(ScopeId_9CF7DEB9-6D21-4D41-B660-CC4E9ED87B1D/DeploymentType_9a23e8a4-8109-4360-b5d5-4b84a454008f, revision 9) for system. AppDiscovery

Auf einmal taucht im Logfile irfanView zum ersten Mal irfanView 4.37 auf. Und das ist der Moment, der für die Überraschung sorgt. Denn läuft nun der “Application Deployment Evaluation Cycle” (Evaluationszyklus für die Anwendungsbereitstellung – der per default alle 7 Tage automatisch läuft), dann wird tatsächlich irfanView 4.35 entfernt und durch irfanView 4.37 ersetzt:

+++ Starting Uninstall enforcement for App DT “irfanView 4.35 (exe)” ApplicationDeliveryType – ScopeId_9CF7DEB9-6D21-4D41-B660-CC4E9ED87B1D/DeploymentType_4e6b2c21-dcba-471a-85b7-a49c7737fb5c, Revision – 3, ContentPath – C:\WINDOWS\ccmcache\r, Execution Context – System AppEnforce
A user is logged on to the system. AppEnforce
Performing detection of app deployment type irfanView 4.35 (exe)(ScopeId_9CF7DEB9-6D21-4D41-B660-CC4E9ED87B1D/DeploymentType_4e6b2c21-dcba-471a-85b7-a49c7737fb5c, revision 3) for system. AppEnforce
+++ Discovered application [AppDT Id: ScopeId_9CF7DEB9-6D21-4D41-B660-CC4E9ED87B1D/DeploymentType_4e6b2c21-dcba-471a-85b7-a49c7737fb5c, Revision: 3] AppEnforce
[... hier passiert die Deinstallation von irfanView 4.35 ...]
Performing detection of app deployment type irfanView 4.35 (exe)(ScopeId_9CF7DEB9-6D21-4D41-B660-CC4E9ED87B1D/DeploymentType_4e6b2c21-dcba-471a-85b7-a49c7737fb5c, revision 3) for system. AppEnforce
+++ Application not discovered. [AppDT Id: ScopeId_9CF7DEB9-6D21-4D41-B660-CC4E9ED87B1D/DeploymentType_4e6b2c21-dcba-471a-85b7-a49c7737fb5c, Revision: 3] AppEnforce
++++++ App enforcement completed (0 seconds) for App DT “irfanView 4.35 (exe)” [ScopeId_9CF7DEB9-6D21-4D41-B660-CC4E9ED87B1D/DeploymentType_4e6b2c21-dcba-471a-85b7-a49c7737fb5c], Revision: 3, User SID: ] ++++++ AppEnforce
+++ Starting Install enforcement for App DT “irfanView 4.37″ ApplicationDeliveryType – ScopeId_9CF7DEB9-6D21-4D41-B660-CC4E9ED87B1D/DeploymentType_9a23e8a4-8109-4360-b5d5-4b84a454008f, Revision – 9, ContentPath – C:\WINDOWS\ccmcache\1, Execution Context – System AppEnforce
A user is logged on to the system. AppEnforce
Performing detection of app deployment type irfanView 4.37(ScopeId_9CF7DEB9-6D21-4D41-B660-CC4E9ED87B1D/DeploymentType_9a23e8a4-8109-4360-b5d5-4b84a454008f, revision 9) for system. AppEnforce
+++ Application not discovered. [AppDT Id: ScopeId_9CF7DEB9-6D21-4D41-B660-CC4E9ED87B1D/DeploymentType_9a23e8a4-8109-4360-b5d5-4b84a454008f, Revision: 9] AppEnforce
[... hier passiert die Installation von irfanView 4.37 ...]
Performing detection of app deployment type irfanView 4.37(ScopeId_9CF7DEB9-6D21-4D41-B660-CC4E9ED87B1D/DeploymentType_9a23e8a4-8109-4360-b5d5-4b84a454008f, revision 9) for system. AppEnforce
+++ Discovered application [AppDT Id: ScopeId_9CF7DEB9-6D21-4D41-B660-CC4E9ED87B1D/DeploymentType_9a23e8a4-8109-4360-b5d5-4b84a454008f, Revision: 9] AppEnforce
++++++ App enforcement completed (2 seconds) for App DT “irfanView 4.37″ [ScopeId_9CF7DEB9-6D21-4D41-B660-CC4E9ED87B1D/DeploymentType_9a23e8a4-8109-4360-b5d5-4b84a454008f], Revision: 9, User SID: ] ++++++ AppEnforce

Eigentlich ist dabei alles logisch. Allerdings muss man sich dessen erst einmal bewusst sein. Falls es also zu ungewünschten Effekten bei der Softwareverteilung kommt, so könnte eine OSD Task Sequenz in Verbindung mit Supersedence die Erklärung sein. Die neue Applikation taucht dann übrigens nicht mehr im Software Center auf.

Carsten Rachfahl [Private Cloud]: Die Office App für das iPad

IMG_0019Das ist ein absolutes Freudenfest für mich gewesen, die Ankündigung der neuen Office Apps für das iPad. Gleich als die Ankündigung kam, musste ich mir natürlich sofort die kostenlosen Office Apps für mein iPad mini herunterladen. Übrigens ist es inzwischen das von mir meist genutzte Gerät. Es ist einerseits super handlich von den Maßen und andererseits groß genug, dass ich damit gut Lesen und recherchieren kann. Aber ich wollte ja nicht über das iPad mini schreiben, sondern über die Office Apps. Neben OWA, OneNote, Lync die es ja schon länger gibt nun auch Word, Excel und PowerPoint auf dem Apple Device. Ich wollte erst ein wenig damit spielen, bis ich darüber schreiben, deshalb kommt dieser Blogpost, obwohl es ja vom Hype bereits mit den neuen Meldungen von der Build konkurriert.

Meine Erfahrung:

Also als erstes seht ihr Bilder in der Galerie unten, wie ich die Office Apps aus dem iTunes Store herunterlade und mein Cloud-Konto damit verbinde. Sowohl mein Office 365 E3 Plan, als auch mein Office 365 SMB (Small Business) ließ sich gleichzeitig verbinden. Erstes Fazit daraus, eine App herunterladen, dann aus der App die anderen herunterladen, so werden die Einstellungen sofort übernommen. Ich muss gestehen, dass ich skeptisch war, da ich bisher von der Touch Bedienbarkeit der Office Produkten auf Tablets nicht so begeistert war. Mag sein, dass es daran liegt, das ich im “Touch” von Anfang an, durch die Apple Produkte verwöhnt war und mich schwer tue die etwas andere Art von der Bedienerführung anzunehmen. Das hat bei den Office Apps für das iPad sofort funktioniert. Beim ersten Touch reagieren die Menüs, dass ich einen “Double” Touch in einem Excel-Feld machen muss, damit das Keyboard hochkommt, habe ich selbst herausgefunden. Das Markieren funktioniert total intuitiv. Die Möglichkeit einen Zahlenblock einzublenden – genial, denn das habe ich bisher bei den Anwendungen immer vermisst.

Die PowerPoint kann ich über die Einstellung meines iPads auf AirPlay mit dem Apple TV verbinden. Was noch nicht funktioniert ist, dass ich aus der Anwendung heraus, über den Präsentationsmodus diese Funktion verwenden kann. Der Unterschied liegt in der Darstellung und das ich so z.B. meine Notizen nicht auf meinem iPad habe und gleichzeitig den Inhalt der Präsentation auf dem Fernseher. Ich denke hier haben die Entwickler noch gar nicht soweit gedacht, weil im Business Umfeld ein Apple TV ja nicht unbedingt vorhanden ist. Klasse auch, wie man mit dem Streichen von rechts und links sich vorwärts und rückwärts in der Präsentation bewegt. Vor allem bei einem Effekt, wie das Zusammenknüllen einer Folie.

Auch der Abstand von den Icons bei z.B. der Auswahl der Funktionen in der entsprechenden Registerkarte, ist so gewählt, dass ich sie ohne Probleme mit dem Finger anwählen konnte und sie sofort reagieren. Das kann natürlich auch an dem Touch sensitivem Bildschirm meines iPad minis liegen, aber es ist mir sofort positiv aufgefallen. Die Auswahl der Funktionen gefällt mir sogar besser, als bei dem vollen Client. Die Farben brilliant und obwohl mein Bildschirm im mini ja begrenzt ist, kam ich super gut klar mit der Bedienung. Mit anderen Worten – ihr merkt es vielleicht. -ich bin völlig begeistert. Endlich habe ich nicht nur mein OneNote ständig und überall dabei, sondern auch meine andere Arbeit – hmh dass könnte allerdings auf Dauer auch ein Nachteil sein.

Insgesamt würde ich sagen, dass das Entwicklerteam für die iPad Apps hier einen tollen Job hingelegt haben und die Messlatte für die anderen Teams echt hochliegt. Aber vielleicht bin ich ja auch hoffnungslos subjektiv, wenn es um mein, süßes, schnuckeliges, multifunktionales iPad mini geht.

Hier jetzt die Bildergalerie:

Anfang1AnmeldungAnmeldung2Anmeldung3Anmeldung4Anmeldung5Excel1Excel2PowerPointPowerPoint1PowerPoint2PowerPoint3PowerPoint4PowerPoint5Word1word2word3word4

TechNet Austria [MS]: Windows Phone 8.1 - Neuigkeiten von der Build 2014

Auf der //build/ (Build 2014) Konferenz, die vergangene Woche in San Francisco stattgefunden hat, wurde u.a. auch die neue Version Windows Phone 8.1 offiziell vorgestellt. Windows Phone 8.1 besteht primär aus 3 Säulen, an denen massive Veränderungen gegenüber Windows Phone 8 vorgenommen worden sind.

  • Personalisierte Benutzerführung: Start/Lock Screens, Action Center, Kalender, Word Flow Tastatur, Skype Integration in Telefon, Kamera/Fotos, Musik/Video/Podcasts, Data/Wi-Fi/Storage Sense und Battery Saver, Sprachassistent Cortana…
  • Granulare Einstellungsmöglichkeiten für Unternehmenskunden (bisher als Windows Phone 8 Enterprise Feature Pack bezeichnet): Profile für Rollout (Zertifikate, Enterprise Wi-Fi, E-Mail Zugang, Unternehmensanwendungen…), App White/Blacklists, VPN, Ortung/Kamera/Bluetooth/NFC, Mobiles Breitband/Roaming, S/MIME…
  • Universelle Anwendungen: WinRT Umgebung unterstützt ca. 90 % der APIs von Tablets/PCs, AppX Format parallel zu Silverlight, gemeinsame Entwicklungsumgebung im Visual Studio 2013…

Zum Testen/Evaluieren von Windows Phone 8.1 stehen ab sofort die Windows Phone 8.1 Development Tools mit den Windows Phone 8.1 Emulatoren als Downloads über die Windows Phone SDK Seite zur Verfügung. Minimal ist Visual Studio 2013 Update 2 Express für Windows und Client Hyper-V erforderlich. Genau in dieseer Konfiguration läuft das auf meinem Windows 8.1 Update 1 Rechner.

Die Vorträge der Build 2014 wurden aufgezeichnet und können über unser Channel 9 Portal abgerufen werden.

Besuchen Sie und morgen am Microsoft Day 2014 und erfahren Sie die Neuigkeiten zum Windows Phone 8.1 in einer der Sessions oder den speziellen Roundtables zu den Neuigkeiten der Build 2014 Konferenz direkt von unseren Spezialisten!

Links zu aktuellen Windows Phone Blog Posting und die Windows Phone Homepage.

Hans Brender: Windows 8.1 Update | renaming: SkyDrive to OneDrive

OneDrive SkyDrive

if expected, Microsoft has made changes in Windows 8.1 Update ( April 2014) in OS, but also has renamed SkyDrive to OneDrive.

 

Windows 8.1 Update: Explorer and the remaned SkyDrive

First changes you see in the Windows Explorer… 

 

Windows 8.1 Update: OneDrive and synchronisation Stop OneDrive Synchronisation to the Cloud is stopped

in the context menu you are now allowed to interrupt the synchronization with OneDrive  to the cloud. Later on you may continue…

Windows 8.1 Update: Renamed modern App OneDrive

Also the modern app is renamed to OneDrive

 

if your OneDrive synchronisation is stopped, you will be remembered

If you have made your synchronization Off and start your modern app, you will be remembered…

 

 

OneDrive modern App: Options: new switch

in the option section within you OneDrive modern app there is a new switch to interrupt the synchronization or you may continue…


Hans Brender: Windows 8.1 Update | aus SkyDrive wird OneDrive

OneDrive SkyDrive

wie schon vermutet, hat Microsoft im Windows 8.1 Update (April 2014) Änderungen am Betriebssystem vollzogen, und die betreffen auch SkyDrive. Denn jetzt wurden konsequent die Namensänderungen vollzogen.

nach Windows 8.1. Update: OneDrive

Im Windows Explorer wurde der Name geändert: Aus SkyDrive wird jetzt auch unter Windows 8.1 OneDrive

OneDrive: Synchronisierung anhalten OneDrive: Synchronisierungs-Status

Im Kontext-Menü gibt es jetzt (endlich) die Möglichkeit, die Synchronisierung von OneDrive Dateien mit der Wolke zu unterbrechen bzw. fortzusetzen.

mit Windows 8.1 Update: Namensänderung an Modern App OneDrive

auch die “modern App” wurde auf den Namen OneDrive umgestellt.

 

Windows 8.1 Update: Hinweis, Synchronisierung abgeschaltet

Hat man die Synchronisierung ausgeschaltet und startet erneut die Modern App, wird man gleich darauf hingewiesen…

 

Ausschalten der Synchronisierung in der Modern App OneDrive

Die Optionen innerhalb der Modern App enthalten jetzt zusätzlich einen Punkt, um auch hier die Synchronisierung anhalten und fortsetzen zu können


Don't contact us via this (fleischfalle@alphasierrapapa.com) email address.