TechNet · Englische TechNet Blogs · TechNet Deutschland · itproblogs.de · .NET Blogs

Carsten Rachfahl [Hyper-V]: Hyper-V Amigos Showcast 15 – VMFleet explained

Finally, they Hyper-V Amigos are online again! Didier and Carsten found the time to do a 2-hour Showcast about VMFleet. They explain what VMFleet is, do a lot of benchmarking of a Hyper-converged S2D Cluster, and finally show the complete installation of VMFeet from scratch.

If you do Storage Spaces Direct installations you should watch this episode.

Please let us know what you think of the episode? Do you like it? Do you have questions? Please leave a comment below!

Michael Greth: Einfach Workflow mit WEBCON BPS für SharePoint – Benutzerunterstützung

Einfach Workflow mit WEBCON BPS für SharePoint – Benutzerunterstützung

Geschäftsprozesse sind immer noch eines der Top-Themen im SharePoint/Office365 Umfeld. WEBCON bietet mit Ihrem WEBCON BPS eine Plattform, die es dem Poweruser ermöglicht, ohne Entwicklungskenntnisse schnell, einfach und nahe am Standard seine Prozesse auf SharePoint abzubilden.

Wie das geht?

Dafür haben wir diese Videoserie aufgenommen. SharePoint …

Weiter lesen »

Michael Greth: Exchange Online von verwaisten Kalendereinträgen befreien

Kennen Sie das? Ein Mitarbeiter hat das Unternehmen verlassen und Sie wollen sein Exchange-Postfach in Office 365 löschen. Doch dann bemerken Sie, dass der Kalender der Users noch etliche kommende Meetings enthält, zu denen auch andere Kollegen eingeladen und Räume oder andere Ressourcen reserviert wurden.

Gastbeitrag von Thomas Drömer

Originalbeitrag auf ops365.de

Thomas ist seit …

Weiter lesen »

Hans Brender: Podcast | MVPKaffeeklatsch – Review – Episode 18

36 Promo

die letzte Folge im Jahr 2017 und…

Torben und ich haben ein Review über alle Folgen vorgenommen, Altes und Neues gemischt und uns eineinhalb Stunden darüber unterhalten.

viel Spaß mit der 18. deutschsprachigen Ausgabe

alte Ausgaben:

Episode 17 Siiiiisiii und Franzerl
Episode 16 Ratatuille in der Bio Tonne
Episode 15 Updates, Upgrades und die Zahl PI
Episode 14 Social, Trump & Hillary
Episode 13 Ein MVP auf Reisen
Episode 12 Sommerpause
Episode 11 Max und Nora
Episode 10 Community for Live
Episode 09 Feedback
Episode 08 Office365 Konferenz
Episode 07 SchmuttiMutti
Episode 06 Gregor zu Besuch mit der Software von Steven Hawking
Episode 05 Alles Gamer
Episode 04 Eiskaffee bei 32 Grad
Episode 03 Irish-Coffee für Peter
Episode 02 Old Shatterhand
Episode 01 MVP Kaffeklatsch


faq-o-matic: Neue lustige Namen für AD-Demo- und Testdomänen

Wir haben unsere beliebte Sammlung von AD-Testbenutzerkonten mit lustigen Namen erweitert. In der jüngsten Fassung sind über 330 Namen enthalten, das sind über 40 neue Benutzerkonten seit dem letzten Update.

Alles Weitere zur Sammlung findet sich hier, auch eine geordnete Liste:

[AD-Testuser mit Details und lustigen Namen (reloaded) | faq-o-matic.net]
https://www.faq-o-matic.net/2014/02/17/ad-testuser-mit-details-und-lustigen-namen-reloaded/

Den Download könnt ihr auch gleich hier vornehmen – aber Vorsicht: Wie immer legt das Skript nach einer kurzen Warnung sofort los und erzeugt über 330 Konten in der aktuellen Domäne.

Note: There is a file embedded within this post, please visit this post to download the file.

Auch unsere Extra-Seite mit den Namen als Einzelportionen hat die neue Lieferung als Datenbestand:

[Lustige Namen]
https://www.faq-o-matic.net/namen/

Hans Brender: Files on Demand | der Umgang mit den drei Status

OneDrive for Business, Microsoft OneDrive, Microsoft

Es erreichen mich immer mehr Anfragen, die die Unterscheidungsmerkmale der drei Status von „Files on Demand“ nicht korrekt unterscheiden können. (Es klingt und schreibt sich wirklich so. Die Pluralform von “Status” lautet “Status”)

Mit dem Windows Fall Creators Update wurden Sie eingeführt, lang erwartet, fast wie die Smart Files unter Windows 8.1, (mit SkyDrive). Wenn man die richtige Version des Next Generation Sync Client hatte, dann konnte man Sie sofort benutzen.

Warum mussten wir so lange warten?

Der NGSC, welcher im Kontext des Benutzers gestartet wird, wird selbstständig auf die neuste Version gebracht. Dabei nimmt er einmal pro Tag Kontakt mit Microsoft auf, und nach ganz bestimmten Vorgaben bekommt man die nächste Version, die sich selbst herunterladet, installiert und dann neu startet. Bei einem schnellen Rechner dauert das nur ein paar Minuten und fällt kaum auf. Mit dem Windows Fall Creators Update ist jetzt die Verzahnung mit dem Betriebssystem vorgenommen worden. Genau genommen mit dem Dateisystem (NTFS) und dem Windows Explorer. (auch die Smart Files unter Windows 8.1 und der SkyDrive.exe sind mit dem Betriebssystem gekoppelt und die Ursache dafür, dass der NGSC unter Windows 8.1 nicht mit OneDrive Personal zum Einsatz kommt.)

Was hat sich beim File-System NTFS geändert?

Der Zustand einer Datei wird mit 2 Attributen erzeugt. Die Zustände sind folgende:

Files on-demand All

Die Datei ist nur in der Cloud gespeichert und ist auf diesem Gerät nicht synchronisiert. Wenn Sie eine Internetverbindung haben und mit der Maus einen Doppelklick auf die Datei erzeugen, wird die Datei heruntergeladen (bei großen Video-Dateien wird gefragt, ob Sie die Datei streamen wollen, oder tatsächlich das Video auf das Gerät herunterladen wollen), je nach Dateityp wird die dazu gehörige Applikation gestartet. Als Beispiel mit einer Word-Datei: Nach dem Herunterladen können Sie loslegen mit dem Bearbeiten. Der Status wird geändert in „lokal verfügbare Datei“, im Explorer wird aus dem Cloud-Symbol ein Kreis mit einem Haken

Aber es gibt ja noch einen Status

Richtig, “immer verfügbare Datei”. Das Symbol ist ein gefüllter Kreis mit dem Häkchen. Diesen Zustand können Sie manuell mit Klick der rechten Maus erreichen.

Und wo liegt jetzt der Unterschied?

In den verschiedenen Szenarien. Microsoft hat den Geräten Rechnung getragen, die über sehr wenig Speicher verfügen. Da die unterschiedlichen Status in den Attributen einer Datei im Files System NTFS untergebracht sind, lässt sich der Status nicht nur im Windows Explorer mit der Maus ändern, ich kann auch mehrere Dateien zusammen in einen anderen Modus bringen. Und für PowerShell oder Batch Experten unter uns: Das lässt sich auch mit einem Script bewerkstelligen. Weitere Informationen finden Sie in englischer Spreche hier oder da.

Szenario:

Mitarbeiter in meiner Organisation schicken mir Links zur Kollaboration. Da ich mit den nativen Programmen auf dem Gerät arbeiten möchte, bringe ich diese Dateien zur Synchronisation auf meinem Gerät. Änderungen werden automatisch vollzogen und die Dateien sind immer synchron (wenn Internet vorhanden ist). Um Speicherplatz freizugeben entscheide ich mich am Wochenende , genau diese Dateien wieder in den “Nur Online Verfübar” Zustand zu versetzen. Und genau hier brauche ich einen Unterschied zu den Dateien, welche ich permanent auf diesem Gerät synchronisiere.

Icon

Beschreibung

Files on-demand Online-Only files

Nur Online Verfügbar

Datei ist nur in der Cloud. Datei wird über ein Icon und mit dem Namen angezeigt, nimmt aber auf dem Gerät kein Platz weg.

Files on-demand Syncing

Ich habe einen Doppelklick auf die Datei ausgeführt. Die Datei wird, wenn Internet vorhanden ist, auf dieses Gerät synchronisiert.

Ausnahme: große Video Dateien.

Files on-demand Locally available files

Lokal verfügbare Datei
Nachdem die Datei synchronisiert wurde, wechselt das Icon. Das zur Datei gehörigen Programm wird gestartet. Werden Änderungen an der Datei vollzogen werden diese in die Cloud synchronisiert, wenn Internet vorhanden ist. Dabei wechselt das Icon kurz in den Transfer-Modus und nach erfolgter Synchronisation wieder in den Modus „Lokal verfügbar“ zurück zu wechseln

   

Option 1

Immer verfügbare Datei

Datei dauerhaft auf dem Gerät behalten und immer synchronisieren

Files on-demand Always available files

Kann im Windows Explorer mit einem rechten Mausklick herbeigeführt werden.

   

Option 2

Speicherplatz freigeben

Files on-demand Online-Only files

Datei wird auf dem Gerät gelöscht. Aber nur auf dem Gerät. Die Datei wird nicht in den Papierkorb verschoben. Im Prinzip ist es ein SHIFT-Taste +Delete, ohne aber die Information in die Cloud zu übertragen und dort ebenfalls zu löschen Das Icon wechselt zu „Nur Online Verfügbar“.

Anmerkungen:

Neue online oder auf einem anderen Gerät erstellte Dateien werden als "Nur online verfügbar" angezeigt, um Speicherplatz einzusparen. Wenn Sie einen Ordner jedoch als "Immer auf diesem Gerät speichern" kennzeichnen, werden neue Dateien in diesem Ordner, sobald sie verfügbar sind auf Ihr Gerät heruntergeladen.

Wenn ein Ordner nur online verfügbar ist, können Sie einzelne Dateien in diesem Ordner trotzdem als "immer verfügbar" markieren.

Sowohl Option 1 als auch 2 kann ich mit mehreren Dateien im Windows Explorer durchführen. Eine Batch-Verarbeitung bietet sich immer dann an, wenn ich an unterschiedlichen Verzeichnissen und Unterverzeichnissen einzelne Dateien bearbeitet habe. Das nachfolgende Script durchläuft alle Verzeichnisse und gibt den Speicherplatz frei. Sie sollten das Script aber erst starten, wenn Sie eine Internet-Verbindung haben und alle Dateien synchronisiert wurden.

 

Wunsch für 2018

kurz vor Weihnachten darf man ja Wünsche äußern. Auch wenn das Paket nicht unterm Christbaum liegt, kann man bei meinen Wünschen der vergangenen Jahre erkennen, dass sich die meisten erfüllt haben. Also einen Wunsch zu OneDrive Files on Demand will ich hier loswerden:

Nachdem die Windows 10 Benutzer mit dem Windows Creators Fall Update Files on Demand die wesentlich verbesserte Ausführung der Smart Files erhalten haben, muss / kann ich mit einem einfachen Batch Kommando oder per Powershell Befehl aufräumen und Platz auf meinem Gerät schaffen. Noch muss ich das aber selbst anstoßen. Ich wünsche mir für 2018, dass beim Hinzufügen (Speichern) einer neuen Datei in OneDrive ein interner Prozess gestartet wird. Genauer spezifiziert: Vorher soll überprüft werden, ob eine Schwelle unterschritten wird (z.B. freier Festplattenplatz < 10%) und dann die erste (zeitlich) lokal verfügbare Datei in den Zustand  “nur Online verfügbar” versetzt wird. Also ein Automatismus und kein manuelles Aufräumen. Denn dann machen die 3 verschiedenen Status auch wirklich Sinn.


Carsten Rachfahl [Hyper-V]: SCVMM 2016 – Probleme beim Erstellen eines Switch Embedded Teams

​In eine Kundenprojekt sollte ich mit dem SCVMM 2016 ein SET Team an den Hyper-V Hosts eines Failover Clusters erstellen. Eigentlich eine einfache Sache - doch dann waren im SCVMM 2016 plötzlich die NICs die zum SET Team gehör​ten ​verschwunden........

​​Für das SET Team habe ich folgenden Uplink Port im SCVMM 2016 konfiguriert.

​.... und im Anschluß daran ​den logischen Switch mit den folgenden Einstellungen.

​In nächsten Schritt, habe ich das Uplink Portprofil für das SET Team ausgewählt und die in unserer Umgebung erforderlichen vNICs erstellt.

​unser Hyper-V Failover Cluster ist bereits im SCVMM 2016 importiert und so können wir direkt über die Eigenschaften des Hyper-V Hosts unter "Virtual Switches" das SET Team mit den vNICs anlegen.

​das hat auch alles ohne Fehlermeldung geklappt, doch sobald der SCVMM 2016 die Konfiguration der Hyper-V Hosts neu einliest, fehlen pötzlich die Netzwerkkarten im SET Team.

​beim Blick auf den Hyper-V Host ist alles okay, dort sind die NICs dem SET Team zugewiesen. Warum also hat der SCVMM 2016 in seiner Konfiguration keine Netzwerkkarten mehr?

​Es hat mich einige Zeit gekostet bis ich es gesehen habe, dass die Netzwerkkarten die der Powershell Befehl

"Get-VMSwitchTeam"

anzeigt, ​nicht den gleichen Namen haben, wie ​in der Netzwerk Umgebung der "Device Name" der Netzwerkkarten. Das genau ist das Probelm, denn der SCVMM 2016 arbeitet mit dem "Device Name" und verliert so die Netzwerkkarten nach der Aktualisierung, da er diese über den "Device Name" nicht mehr findet​. Dieses Problem ist mir bei den HP Servern ​aufgetreten und es gibt hierzu auch von HP einen Hinweis unter folgenden Link. Wir haben in unserem Projekt die Netzwerkkarten in Mellanox Karten getauscht, bei denen trat das Problem nicht auf.

Vielleicht hilft ja Betroffenen mit Qlogic Netzerkkarten der folgende ​Link weiter. Ich habe die Empfehlungen dort allerdings nicht getestet und kann nur hoffen, dass die Treiber das Probelm beheben.

​dann viel Erfolg und bis bald wieder

Petra

[…]

Michael Greth: Office 365 – Vergleich der Authentifizierungsoptionen

Immer wieder stellt sich bei der Nutzung von Office-365-Diensten die Frage: „Welche Kontenoptionen ist für mich die optimale Wahl?“ ADFS, Password Sync, Azure AD-Passthrough-Authentifizierung oder Cloud Only? Auch die Kombination verschiedener Optionen ist möglich.

Gastbeitrag von Malte Pabst (http://www.itacs.de) 

Der Mitgründer der itacs GmbH, bekannt als „Exchange Pabst“, löst auch knifflige Probleme in heterogenen Messaging-Umgebungen im Handumdrehen.

Weiter lesen »

Michael Greth: Metadaten sind tot. Lang leben die Ordner.

Inhaltstypen, Websitespalten, Dokumentenmappen, InfoPath, Dokumenteninformationsleiste, Metadatennavigation und so weiter und so weiter. Lange haben sich technische Neuerungen rund um SharePoint damit befasst, das Metadatenmanagement für Dokumente zu verbessern. Auf jeder Veranstaltung gab es unzählige Beiträge mit dem Grundtenor „nutzt Metadaten, vergesst Ordner“. Ein damals berechtigter Ansatz. Meiner Meinung nach aber komplett falsch umgesetzt bzw. vermarktet, …

Weiter lesen »

Carsten Rachfahl [Hyper-V]: Massive Probleme mit Broadcom (LSI) 9300-8e SAS HBA beim Aufbau eines Scale-Out File Server

Beim Aufbau von einem Scale-Out File Server Cluster mit Shared JBODs haben wir festgestellt, dass es beim Betrieb massive Probleme gibt. Das Failover Cluster besteht aus zwei Server-Systemen, die jeweils drei von den 9300-8e SAS HBAs verbaut haben. Über insgesamt zwölf Kabel sind drei JBODs angeschlossen, die jeweils bis zu 70 Datenträger aufnehmen können. In jedem JBOD stecken SSDs und HDDs, die zu einem gemeinsamen Pool zusammengefasst werden. Basierend auf diesem Pool habe ich mehrere virtuelle Datenträger erzeugt, die im Failover Cluster als Cluster Shared Volumes zur Verfügung stehen.

Der Aufbau und Test der Systeme verlief problemlos, die abgefragte und gezeigte Leistung war wie erwartet, ein Test der Hardware brachte keine Auffälligkeiten. Angefangen haben die Probleme, als ein Datenträger mit einem vermeintlichen Defekt angemerkt wurde und in einer geplanten Wartung ausgetauscht werden sollte. Während dem Austausch kam es zu massiven Störungen mit einem kompletten Ausfall des Storage, multiple Festplatten wurden als fehlerhaft markiert.

Das Problem konnte temporär gelöst werden, indem ein IO-Controller in einem der JBODs (welches auch die defekten Festplatten zeigte) ausgeschaltet wurde. Der Controller wurde getauscht, weil scheinbar ein fehlerhaftes Modul vorhanden war. Nach dem Tausch zeigten sich leider weiterhin die gleichen Fehler, es wurden sporadisch Datenträger als defekt markiert, dieses Mal über mehrere JBODs hinweg. Ein geplantes Entfernen von Disks endete in minutenlangen Timeout und IO-Freezes, das ungeplante Entfernen sorgte neben Timeouts auch zu Ausfällen des gesamten Systems. Im Eventlog traten diverse Fehler auf, es wurden unter anderem MPIO-, Disk- und PersistantReservation-Fehler angemerkt.

Bei einer Überprüfung aller Treiber- und Firmware-Versionen ist aufgefallen, dass der Hersteller die Karten mit der Version 14.00.00.00 ausgeliefert hat. Die Karten selbst hatten auch einen eigenen Aufkleber vom Distributor, dass die Karten geupdatet und erfolgreich getestet wurden. Die Herstellerseite zeigte als aktuelle Version die Nummer 15.00.02.00, also eine komplette Version höher als die momentan genutzte.

Nachdem alle Karten auf den aktuellen Stand geflasht wurden und die aktuellsten Treiber eingespielt wurden, gab es ab diesem Zeitpunkt keine Probleme mehr. Sämtliche Tests zeigten keinerlei Probleme mehr: Datenträger konnten problemlos entfernt und wieder hinzugefügt werden, ein SAS-Kabel konnte ohne Probleme gezogen werden, ein ganzes IO-Modul im JBOD sowie ein komplettes JBOD konnten im laufenden Betrieb ausgeschaltet werden, ohne das es zu Problemen im Scale-Out File Server Cluster gekommen ist. Die Reparatur-Vorgänge der virtuellen Datenträger liefen immer fehlerfrei und zeitnah durch, die Test-VMs auf diesen Datenträgern zeigten keinerlei Ausfälle oder Anfälligkeiten.

Ich habe im Bereich SAS HBAs bisher noch nie erlebt, dass eine Firmware zu solch krassen Fehlern und Problemen führt. Diese Erfahrung führt wieder einmal mehr dazu, dass die Firmware sämtlicher Komponenten beachtet werden sollte.

Wichtige Info

"Latest and greatest" ist hier übrigens nicht immer die Devise, bei Gesprächen mit anderen MVPs nach einer Ursache für diese Probleme kam teilweise auch die Information, dass manchmal ein Downgrade der Firmware notwendig ist, um mögliche Fehler in der aktuellsten Version auszuschließen.

Carsten Rachfahl [Hyper-V]: DPC Watchdog Violation und Windows Bluescreen beim LSI SAS Adapter Firmware Upgrade

Ich hatte heute beim Einspielen von einem Firmware-Update von einem LSI 9300-8e SAS HBA Adapter das Problem, dass nach dem Einspielen und dem Reset der Karte der Server in einen Bluescreen gelaufen ist mit dem Hinweis auf eine DPC Watchdog Violation. Der Fehler trat auf einem HP Server DL380 der Generation 8 auf.

Durchgeführt wurde der Befehl mit dem folgenden Parameter:

sas3flash.exe -c 0 -f SAS9300_8e_IT.bin

Das Problem lässt sich beheben, wenn hinter dem Vorgang ein weiterer (eher nicht dokumentierter) Parameter angehangen wird, der einen Reset der Karte verhindert. Dies verhindert den Bluescreen, der Server muss dann nach dem Flash-Vorgang per Hand neu gestartet werden.

sas3flash.exe -c 0 -f SAS9300_8e_IT.bin -noreset

Gefunden habe ich den Parameter in dem folgenden Artikel:

Servethehome.com: How to flash a LSI SAS 3008 HBA (e.g. IBM M1215) to IT mode

Thanks for this :)

Hans Brender: Next Generation Sync Client–Version 17.3.7131.1115 released

NGSC Version 17.3.7131.1115

So it’s done again. Microsoft released an 11/21/17 the newest version of the next generation sync client with the version number 17.3.7131.1115. There is only a small text on the Microsoft change log. So they make changes and we do not see anything. But wait. You see some changes on the UX with the cloud symbols in the notification area. I have to think a little bit, why Microsoft is doing such an UX change. Now it’s easier for the apple user, to reach these menu entries, Windows User are clicking with the right mouse. Remember for the windows user, that the apple mouse do not have a right mouse button.

picture description
NGSC version before version 17.3.7131.1115 Click with the left button of the mouse on the cloud symbol in the notification area. so it looks, if you use it with an version before 17.3.7131.1115
NGSC version after update to version 17.3.7131.1115 Click with the left button of the mouse on the cloud symbol in the notification area. so it looks, if you use it with an version after the Update to the version 17.3.7131.1115
menue entries with the right mouse button Click with the right mouse button on the cloud symbol in the notification area
image3[1] Click on the new symbol with the new version 17.3.7131.1115.

So you may these menu entries with two left clicks or a right click

So I do not have seen other changes, and we cannot read anything from change log. You will receive this version of the NGSC automatically. You do not have to install it manually.

Overview about all versions


faq-o-matic: SQL Server: Das Copy-Only Backup

Wer sich mit dem Thema Backup im Microsoft SQL Server beschäftigt, ist mit ziemlicher Sicherheit schon über das Copy-Only Backup (zu Deutsch: Kopie Sicherung) gestoßen. Was dieser Backup-Typ bedeutet und wo man ihn einsetzten kann/sollte, dazu gehen die Meinungen auseinander. Aus diesem Grund möchte ich den technischen Hintergrund und die Unterschiede zwischen „normalen“ Backups und den Copy-Only Backups vorstellen und anschließend zeigen wann man diese sinnvoll einsetzen kann.

Das „normale“ Backup

Der SQL Server unterscheidet zunächst einmal die Backups nach Vollbackup, Differenzbackup und Transaktionslogbackup. 

Vollbackup

Ein Vollbackup enthält immer alle (nicht leeren) Datenseiten, sogenannte “Pages”, der Datenbank und den aktiven Teil des Transaktionslogs. Nur beide Teile zusammen ergeben einen konsistenten Datenbestand für die Rücksicherung.

Differenzbackup

Ein Differenzbackup beinhaltet alle Pages, welche sich seit dem letzten Vollbackup geändert haben. Hierfür führt der SQL Server in jeder Datenbank eine Historie für Änderungen an den Pages (die Differential Changed Map Page – DCM).

https://technet.microsoft.com/en-us/library/ms345448%28v=sql.105%29.aspx?f=255&MSPPError=-2147217396

Den Inhalt dieser Page kann man sich z.B. für die master-Datenbank über diese TSQL-Befehle anzeigen lassen:

dbcc traceon(3604)
dbcc page(0,1,6,3)  

image

https://blogs.msdn.microsoft.com/sqlserverstorageengine/2006/06/10/how-to-use-dbcc-page/

Bei einem Differenzbackup werden nun nur die Pages gesichert, welche einen entsprechenden Eintrag in der DCM-Page haben.

Transaktionslogbackup

Bei dem Transaktionslogbackup wird lediglich der noch nicht gesicherte Inhalt des Transaktionslogs gesichert. Der Inhalt hängt ausschließlich vom letzten Transaktionslogbackup ab, das den Ausgangspunkt bildet.

Unterschied Voll- und Copy-Only Backup

Tatsächlich besteht der Unterschied zwischen einem regulären Vollbackup und einem Copy-Only Backup einzig in der Tatsache, dass ein Copy-Only Backup die Differential Changed Map Page nicht leert. Eine Differenzsicherung nach einem Copy-Only-Backup würde immer noch alle Pages enthalten, welche sich nach dem letzten regulären Vollbackup geändert haben.

Auf das Transaktionslogbackup hat die Copy-Only-Sicherung keinen Einfluss. 

Die weit verbreitete Aussage, dass ein Copy-Only-Backup nicht als Basis für die Transaktionslogbackups dient, stimmt natürlich! Aber die selbe Aussage gilt auch für die normalen Vollbackups. Solange man eine ununterbrochene Kette an Transaktionslogs hat, spielt es keine Rolle, ob man das letzte Vollbackup als Basis nimmt oder irgendein Vorgängerbackup.

Einzig das Differenzbackup benötigt ein reguläres Vollbackup als Basis für die Wiederherstellung.

Nutzen / Anwendungsfall

Heute ist der größte Nutzen für ein Copy-Only Backup bei den AlwaysOn-Verfügbarkeitsgruppen in der Enterprise Edition zu finden. Hier hat man die Möglichkeit, die Vollbackups und Transaktionslogbackups auf einem sekundären Server zu machen, wodurch die Nutzer keine Performanceeinbußen durch das Backup haben. Da aber sekundäre Replikate keinen Schreibzugriff erlauben, kann die DCM Page nicht zurückgesetzt werden. Daher kommt in diesem Szenario nur das Copy-Only Backup infrage. Gleichzeigt bedeutet dies aber, dass man auf Differenzbackups verzichten muss, da diese auf einem veralteten Änderungsstand basieren würden.

Michael Greth: Weck’ den Projektmanager in dir – neue Features in Microsoft Project

Neue Funktionen in Microsoft Project und die Integration in Planner ermöglichen mehr Flexibilität bei agilen Projekten. Thomas Roth, Senior Product Marketing Manager Collaboration & Project Management bei Microsoft Deutschland, gibt in seinem Artikel einen Einblick in die neuen Features von Project und Planner.

Das Problem: Verschiedene Plattformen für ein Projekt

Damit ein Projektteam heute erfolgreich ist, muss es sich seinem …

Weiter lesen »

Carsten Rachfahl [Hyper-V]: Shared Storage Spaces mit Windows Server 2016: Datenträger können nicht aus dem Storage Pool entfernt werden

Bei einem Scale-Out File Server Failover Cluster mit drei SAS JBODs unter Windows Server 2016 ist aufgefallen, dass sich Datenträger, die durch einen Defekt ausgetauscht werden mussten, nicht aus dem Storage Pool entfernen.

In einem Storage Pool mit 84 Datenträgern (sowohl SSDs als auch HDDs) sollten mehrere Datenträger, die defekt waren und ausgetauscht werden sollen, aus dem Pool entfernt werden. Grundlage für das Entfernen ist (weiterhin, auch wenn es primär um Server 2012 R2 geht) der folgende Artikel:
Replace Failed Disks and Repair JBODs for Storage Spaces in Windows Server

Die Datenträger wurden nun eingelesen, gespeichert und versucht, aus dem Pool zu entfernen.

$FailedDisk = Get-PhysicalDisk | Where-Object –Property HealthStatus –ne Healthy
$FailedDisk | Set-PhysicalDisk –Usage Retired
$Pool = $FailedDisk | Get-StoragePool
Remove-PhysicalDisk –StoragePool $Pool -PhysicalDisks $FailedDisk

Unter Windows Server 2012 R2 führten die Befehle dazu, dass die als "Retired" markierten Datenträger aus dem Pool entfernt wurden. Unter Windows Server 2016 kam allerdings sofort eine Fehlermeldung und die Datenträger wurden nicht aus dem Pool entfernt.

PS C:\> Remove-PhysicalDisk -PhysicalDisks $FailedDisk -StoragePoolFriendlyName <Name> -Confirm:$false -Verbose
VERBOSE: Removing a physical disk will cause problems with the fault tolerance capabilities of the following storage pool: <Name>.
Remove-PhysicalDisk : Failed
At line:1 char:1
+ Remove-PhysicalDisk -PhysicalDisks $FailedDisk -StoragePoolFriendlyNa …
+ ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
+ CategoryInfo : NotSpecified: (StorageWMI:ROOT/Microsoft/…_StorageCmdlets) [Remove-PhysicalDisk], CimException
+ FullyQualifiedErrorId : StorageWMI 4,Remove-PhysicalDisk

Die Lösung in diesem Fall ist die folgende:

Ein Windows Server 2016 Failover Cluster in einem Shared JBOD Design hat standardmäßig keinen "Health Service" aktiv. Wegen dieser fehlenden Ressource kann die Disk nicht entfernt werden. Im Failover Cluster muss nun dieser "Health Service" aktiviert werden, dann kann der Datenträger entfernt werden und danach kann der "Health Service" wieder entfernt werden. Dies geschieht am einfachsten per Windows PowerShell:

$Clustername = “<Clustername>”
Get-CimInstance -Namespace root\mscluster -ComputerName $ClusterName -ClassName MScluster_ClusterService | Invoke-CimMethod -Name EnableHealth
Remove-PhysicalDisk -PhysicalDisks (Get-PhysicalDisk | ? OperationalStatus -eq ‘Lost Communication’) -StoragePoolFriendlyName Pool1
Get-CimInstance -Namespace root\mscluster -ComputerName $ClusterName -ClassName MScluster_ClusterService | Invoke-CimMethod -Name DisableHealth

Michael Greth: Jahresendspurt Office365/SharePoint Veranstaltungen

Kurz und knapp – unser Terminkalender für den Dezember ist gut gefüllt und bietet neben Webinaren, Partrnerevents und Seminaren auch noch diverse User Group Treffen in der DACH Region, wo vor Ort zum Jahresausklang nochmals über Office365/SharePoint bei Gebäck und Kaffee gefachsimpelt wird.

User Groups/Meetups
  • Office 365 Graz goes international: Tome Tomovski on large …

    Weiter lesen »

Arnd Rößner: Microsoft und SAP unterstützen Kunden bei der digitalen Transformation in der Cloud

 Microsoft und SAP haben heute integrierte Angebote vorgestellt, die Unternehmenskunden eine effizientere und sichere Migration in die Cloud ermöglichen, sodass sie sich auf die digitale Transformation ihres Geschäfts fokussieren können. Als Zeichen ihrer intensiveren Zusammenarbeit haben die beiden Unternehmen außerdem bekanntgegeben, künftig intern die Cloud-Lösungen des Partners nutzen zu wollen. Im Rahmen dieser besonderen Partnerschaft […]

faq-o-matic: Citrix NetScaler und RNAT

Nutzt man einen Citrix Netscaler für externes NAT-ing und hat zusätzlich noch weitere interne Netze über statische Routen definiert, so wird man sehr schnell feststellen, dass sich der NetScaler hier untypisch verhält. Herkömmliche Routing- und Firewalling-Appliances benötigen extra ACLs für das NAT-ing von privaten IP Adressen, da diese normalerweise standardmäßig ausgeschlossen sind.

Der NetScaler arbeitet hier aber genau umgedreht und wendet NAT erst mal auf alle IP Adressen an, die nicht per ACL ausgeschlossen wurden.

Kurz zur Demotopologie:

 image001

Die bisherige RNAT Config des NetScalers beinhaltet lediglich:

set rnat 10.0.0.0 255.255.255.0 -natip 88.99.88.99

Versucht man also vom Client, einen externen Service zu erreichen, greift die RNAT Config wie gewollt und maskiert den Client hinter der IP des externen NetScaler Interfaces (88.99.88.99).

Möchte man allerdings vom Client 1 einen Gerät im Netzwerk 10.11.1.0/24 erreichen, wird man schnell feststellen, dass die RNAT-Config hier zu einem ungewollten Nebeneffekt führt. Ein Auszug der Firewall Logs macht den Administrator sehr schnell darauf aufmerksam:

 image002

Der NetScaler nutzt – da nicht anders definiert – auch bei der Verbindung zwischen Client 1 und Client 2 NAT Masquerading. Um dieses Verhalten der Topologie anzupassen und NAT für das Netz 10.11.1.0/24 abzuschalten, kann man mit der folgenden ACL das Netz ausschließen:

add ns acl ACL_RNAT ALLOW -srcIP = 10.0.0.0-10.0.0.254 -destIP "!=" 10.11.1.0-10.11.1.254
apply ns acls
set rnat ACL_RNAT -natIP 88.99.88.99

Sobald diese Policy aktiviert und die vorher angelegte RNAT Rule gelöscht wurde, wird NAT Masquerading für dieses Netz deaktiviert.

Thorsten Christoffers: Vortrag Datenschutz-Grundverordnung (DSGVO) für IT-Administratoren

...

Carsten Rachfahl [Hyper-V]: Webinar Hyper-V Deep Dive – Networking (English)


On Monday the 4th of December at 5pm UTC+1 we will continue our "Hyper-V Deep Dive" Webinar series with Networking.

Networking is a very impotent part in every successful Hyper-V Implementation. No learn in this Webinar about:

  • Hyper-V Cluster and Networking ​​​​
  • S2D Networking 
  • SMB3 and SMB Direct 
  • VMQ and RSS 
  • Q&A 

To sign-up just click on the picture or here! Don't worry that you maybee have no time you will get a link to the recording afterwards.

Carsten Rachfahl [Hyper-V]: Webinar Managing Windows Server 2016 mit Projekt Honolulu


Am 11. Dezember beschäftigen wir uns im Webinar "Managing Windows Server mit Projekt Honolulu" mit der neuen, modernen Management Plattform für Windows Server.

Diesmal wird's viele Demos geben.

Auszug aus dem Inhalte:

  • Grundlagen Projekt Honolulu
  • Management von Hyper-converged S2D
  • Management von Window Server 2016
  • Management von Window Server 2012 R2
  • Demo
  • eure Fragen

Zum Anmelden klickt Ihr auf das Bild oder hier! Wenn Ihr keine Zeit habt meldet euch trotzdem an dann bekommt Ihr nach dem Webinar eine Mail mit dem Link zur Aufzeichnung!

Hans Brender: Next Generation Sync Client–Version 17.3.7131.1115 verfügbar

08 NGSC

es ist wieder soweit (gewesen). Am 21.11.2017 wurde die neue Version 17.3.7131.1115 den Anwendern zur Verfügung gestellt. Natürlich gibt es noch keine Beschreibung auf der Change-Log Webseite. Auch nicht auf der US-Seite. *)Aber es hat sich was auf getan mit der Anzeige der Wolken in der Benachrichtigungszeile. Ich habe lange darüber nachgedacht, warum Microsoft diesen Schritt getan hat, und es ist jetzt für die Apfel-Gemeinde einfacher, die Menüeinträge, die der Windows Benutzer mit der rechten Maustaste aufrufen kann, zu erreichen. Denn eigentlich hat die Apfel-Maus keine rechte Maustaste.

*) [Update] inzwischen wurde der Standardtext veröffentlicht.

Abbildung Erklärung
NGSC: vor Version 17.3.7131.1115 Klick mit der linken Maustaste auf das Wolkensymbol in der Benachrichtigungszeile vor der Version 17.3.7131.1115
NGSC: nach Installation Version 17.3.7131.1115 Klick mit der linken Maustaste auf das Wolkensymbol in der Benachrichtigungszeile nach dem Update auf die  Version 17.3.7131.1115
NGSC: Menü mit der rechten Maustaste Klick mit der rechten Maustaste auf das Wolkensymbol in der Benachrichtigungszeile
NGSC: Version 17.3.7131.1115 eingeblendete Menü Klick mit der linken Maustaste auf das neue Symbol, welches mit der Version 17.3.7131.1115 erscheint.

Wir können also entweder auf das neue Symbol klicken (linke Maustaste), dann wird uns die Menüeinträge angezeigt, die wir erhalten, wenn wir mit der rechten Maustaste…

Was sich sonst noch geändert hat wird uns irgendwann das Change-Log sagen. Und wie immer an dieser Stelle der Hinweis, der Sync-Client muss nicht manuell auf den neusten Stand gebracht werden, das geschieht automatisch.

 

Überblick über alle NGSC Versionen


faq-o-matic: Woher kennt mich die Cloud? Die Folien

imageHier sind die Folien zu meinem Vortrag “Woher kennt mich die Cloud? Authentifizierung in Web-Umgebungen” auf der Imagine Cloud Conference 2017 bei Microsoft in München. Inhalt der Session war ein Überblick über SAML, OAuth und ADFS.

Note: There is a file embedded within this post, please visit this post to download the file.

Marc Grote: Artikel fuer die Printausgabe des IT Administrator (www.it-administrator.de) – “Praxis Einrichtung Storage Spaces Direct”

Hallo Leutz,

fuer die November/Dezember 2017 Ausgabe der Print Ausgabe des IT Administrator haben Jan Kappen und ich eine zweiteilige Artikelserie zum Thema “Praxis Einrichtung von Storages Spaces Direct” geschrieben.
Teil 1 (November Ausgabe) beschreibt die Systemanforderungen und Best Practices fuer die Implementierung von S2D, Teil 2 (Dezember Ausgabe) beschreibt die Einrichtung und Konfiguration von S2D
Weitere Informationen findet man hier: http://www.it-administrator.de

Gruss Marc

faq-o-matic: ADFS Rapid Restore Tool

Vor einigen Wochen hat Microsoft ein Toolset veröffentlicht, mit dem sich vollständige ADFS-Konfigurationen sichern und wiederherstellen lassen. Neben Wiederherstellungs-Szenarien will Microsoft damit auch einen Ersatz für Kunden bieten, die keine volle Hochverfügbarkeit für ihre ADFS-Umgebung einrichten wollen oder können.

Das Werkzeug ist eine Erweiterung der PowerShell und wird auch über die PowerShell gesteuert. Im Backup-Modus exportiert es alle relevanten Konfigurationsparameter einschließlich der Zertifikate und deren privaten Schlüsseln. Der Restore-Modus soll es ermöglichen, eine identische Konfiguration schnell wieder einzurichten, wobei das Tool die nötigen Windows-Komponenten größtenteils mit installiert.

Den Kommentaren zur Veröffentlichung lässt sich entnehmen, dass die Software noch nicht ganz fehlerfrei ist. Wer darauf baut, sollte also alle nötigen Prozeduren gründlich testen und verifizieren, um sicherzugehen, dass keiner der Fehlerfälle vorliegt.

[AD FS Rapid Restore Tool | Microsoft Docs]
https://docs.microsoft.com/en-us/windows-server/identity/ad-fs/operations/ad-fs-rapid-restore-tool

Carsten Rachfahl [Hyper-V]: Video interview with Aidan Finn about Azure IaaS News from Microsoft Ignite 2017

At Microsoft Ignite 2017 In Orlando I had the chance to interview my buddy Aidan Finn. Aidan is a fellow MVP for Cloud and Datacenter Management and MVP for Azure.

I have done some interviews with Aidan in the past about Hyper-V so, this time we wanted to talk about Azure.  The cool thing with an MVP in two areas is that he can be like a bridge between the technologies. So I ask him about Azure IaaS news from Ignite and he shared his favorites.

I hope you enjoy the video.

P.S.: Aidan is in May 2018 one of the featured speakers of the Cloud & Datacenter Conference 2018 and we agreed that he will talk about Azure for on-Premises folks.

I have one question for you: do you agree with his Azure IaaS features or do you have other ones?

Michael Greth: SharePointSendung 18 Praxis Tipps zu Video und Audio

Zum Abschluss des Jahres 2017 greifen wir heute ein Thema auf, das wir das ganze Jahr über vor uns hergeschoben haben. Wir werfen einen Blick hinter die Kulissen der SharePointSendung und zeigen Euch anhand einiger praktischer Beispiele, wie wir Bild und Ton aufzeichnen, um damit diese Sendung zu gestalten. Viele Tipps zu Hardware und Aufnahme-Szenarien …

Weiter lesen »

Carsten Rachfahl [Hyper-V]: Failover Cluster Validation Test deaktiviert lokale Storage Spaces temporär

Ich habe in den beiden Hyper-V Powerkursen im Oktober und November festgestellt, dass sich das Standard-Verhalten bei einer Hyper-V Failover Cluster Validierung geändert hat. Das Verhalten bisher war wie folgt:

Die Teilnehmer konfigurieren ihren persönlichen Hyper-V Host so, dass er für eine Konfiguration als Hyper-V Cluster Knoten genutzt werden kann. Vor der Erstellung wird eine Validierung der beiden Knoten gemacht um sicher zu gehen, dass die Konfiguration keine Fehler enthält und alles wie gewünscht funktioniert. Alle verfügbaren und von Microsoft empfohlenen Tests wurden durchgeführt und hatten in der Vergangenheit (zumindest nicht offensichtlich) keinen Einfluss auf die VMs, die auf den lokalen Laufwerken liegen. Das lokale Laufwerk, auf dem die VMs bis zu diesem Zeitpunkt betrieben werden, wird über die Storage Spaces Technik bereitgestellt.

Eine Änderung an dem Verhalten ist aufgefallen im Oktober-Kurs. Hier wurden bei dem Test der Cluster-Konfiguration auf allen Systemen die Laufwerke, die lokal per Storage Spaces bereitgestellt wurden (zwei SSDs in einem Pool und einem Simple-Volume), abgehängt. Dies führte dazu, dass alle VMs abgestürzt sind, da sie nicht mehr an ihre Daten kamen und somit nicht mehr lauffähig waren. Die Kurs-Systeme werden immer mit den aktuellsten Windows Updates ausgestattet, daher war der Patchstand beim Oktober-Kurs inkl. dem CU für Oktober (10-2017).

Abhilfe schafft hier die Deaktivierung der Storage-Tests bei einer Cluster-Validierung, in diesem Fall passiert nichts weiter und die Datenträger und VMs verbleiben alle online. Ob dieses Verhalten erst ab Oktober besteht oder es vorher niemanden aufgefallen ist weiß ich nicht genau, ich werde allerdings nun verstärkt darauf achten bzw. prüfen, ob das Verhalten weiterhin so ist. Vielleicht hilft diese Info dem einen oder anderen, der (bisher unerklärliche) Ausfälle bei einer Cluster Validierung hatte.

faq-o-matic: S/MIME- und PGP-Zertifikate zentral überprüfen

Wer verschlüsselte oder signierte E-Mails nutzen möchte, ist darauf angewiesen, die Mail-Zertifikate seiner Kommunikationspartner zu erhalten und zu überprüfen. Vor Kurzem wiesen wir auf den neuen Dienst “OpenKeys” der deutschen Firma NetAtWork hin, der über ein zentrales Repository solche Zertifikate zugänglich macht.

Bereits seit Längerem bietet auch die deutsche Firma Zertificon einen solchen Dienst an. Er ist zu erreichen unter www.globaltrustpoint.com:

[X.509 SMIME Zertifikate & PGP Schlüssel]
https://www.globaltrustpoint.com/index.jsp

SharePointPodcast: SPPD383 Office365 Update und GDPR/DSGVO Roadshow


In dieser Folge arbeite ich mich mal wieder durch meine OneNote-Notizen zu Office365 und SharePoint, stelle euch ein paar nützliche Tools vor und lasse mir von Alexander Weitzel von der pmOne erklären, welche GDPR/DSGVO – Themen auf der Art of Data Management Roadshow in der nächsten 3 Wochen besprochen werden.

Themen

Tipps

Tools

GDPR – DSGVO Roadshow

 

Flattr this!

faq-o-matic: Azure Meetup Hannover am 7. 12. 2017

imageDas Azure Meetup Hannover, eine Usergroup aus der Community, trifft sich das nächste Mal am 7. Dezember 2017. Das Meeting beginnt um 18:30 Uhr, die Teilnahme ist kostenlos.

Die Organisatoren haben als Location-Sponsor diesmal die Michael Wessel Informationstechnologie gewonnen, in deren Räumen das Treffen stattfindet. Der Themenfokus im Dezember liegt auf “IT Audit, Azure Stack und Serverless Compute”. Als Sprecher haben sich Christian Konrad, Markus Klein, Mohammed El-Nabulsi und Jan-Henrik Damaschke angekündigt.

[IT Audit, Azure Stack und Serverless Compute]
https://www.meetup.com/de-DE/Suedniedersachsen-Azure-Meetup/events/244131538/

Arnd Rößner: Surface Book 2

Surface Book 2 ist ab sofort auf dem deutschen Markt vorbestellbar. Interessierte Kunden erhalten den leistungsstärksten Laptop von Microsoft im Microsoft Store oder über die Surface-Fachhändler. Geschäftskunden wenden sich an einen der autorisierten Surface-Reseller. Ausgeliefert wird Surface Book 2 ab dem 16. November 2017. Zeitgleich mit Surface Book 2 werden auch zwei neue USB-C Adapter […]

Carsten Rachfahl [Hyper-V]: Installing Azure Stack Development Kit in a Hyper-V Nested VM

The goal of this post

In this Post I want to give you a step by step guide how you can install the Azure Stack Development Kit in a Hyper-V Nested virtual machine. The deployment is tested with the Version of Azure Stack Development Kit that was available in October 2017 (Release Build Version 20170928.3), in November 2017 (Release Build Version 20171020.1) and in December (Release Build Version 20171122.1).

Don't​ get me wrong! I think the best way to experience the Azure Stack Development Kit is by installing it on a decent hardware box but maybe you don't have one handy or don't have the budget for a new one. In ​this case this is a solution for you. 

Get​ the Azure Stack Development Kit

Download the Azure Stack Development Kit

You will find the download link for the Azure Stack Development Kit (at least the time of writing of this post) at: https://azure.microsoft.com/en-us/overview/azure-stack/development-kit/

After downloading and starting the AzureStackDownloader.exe ​and ​filling in the mask below the Download starts​.

https://azure.microsoft.com/en-us/overview/azure-stack/development-kit/

​When the download has finished you find approximately 11 GB of files in the specified Download Directory or 18 GB depending if you selected to also downloaded the Windows Server 2016 evaluation version (ISO file)

Double click on AzureStackDevelopmentKit.exe to extract the Azure Stack Development Kit from the highly compressed archive. Click through the Wizard and after the extraction process finished you get the "CloudBuilder.vhdx" virtual disk to work with.

Modify CloudBuilder.vhdx for Nested Hyper-V

To deploy the Azure Stack Development Kit in a Nested Hyper-V VM we ​must make some changes to the Build system in it. To do that we right-click on the VHDX and choose "Mount".

Find the Drive where it is mounted​ and navigate to the Directory <MountDrive>:/CloudDeployment/NuGetStore​.

​Here you find the file Microsoft.AzureStack.Solution.Deploy.CloudDeployment.1.0.598.8.nupkg which we have to modify. To do that copy it to a folder, rename the extension from ".nupkg" to ".zip" and then extract it.

Now we ​must change ​two files:

  • ​X:/content/Roles/PhysicalMachines/Tests/BareMetal.Tests.ps1
  • ​X:/content/Configuration/Roles/Infrastructure/BareMetal/OneNodeRole.xml

In the BareMetal.Test.ps1 we ​must disable the check if the Azure Stack Host is a Virtual Machine. The easiest way to do that is by changing ​the tree places in the script where the check is done.​ So replace the line:

  • ​if (-not ​$isVirtualizedDeployment)

​with the line 

  • ​​if ($isVirtualizedDeployment)

tree times!

The next step is only ​requiredif you are low on diskspace. Then we ​should modify the file "OneNodeRole.xml" to lower the disk ​requirements of the ​deployment.​

​Open "OneNodeRole.xml" and find the following entries

      <MinimumSizeOfDataDisksGB>135</MinimumSizeOfDataDisksGB>
      <MinimumSizeOfSystemDiskGB>180</MinimumSizeOfSystemDiskGB>

​and change them to

      <MinimumSizeOfDataDisksGB>120</MinimumSizeOfDataDisksGB>
      <MinimumSizeOfSystemDiskGB>120</MinimumSizeOfSystemDiskGB>

​. By setting them to a smaler size ​you will ​be able to deploy to smaller disk​.

After editing the two files, copy them back into the "Microsoft.AzureStack.Solution.Deploy.CloudDeployment.​1.0.598.8.zip"​ archive.​ Rename the extension form ".zip" back to ".nupkg"​ and copy the file back into the "CloudBuilder.vhdx". In the last step you unmount ​the "CloudBuilder.vhdx" by right clicking on the Drive letter where the VHDX is mounted and then select "Eject".

if (-not $isVirtualizedDeployment)

​Prepare the Hyper-V Host

Creating a NAT Switch

The best way to connect your Azure Stack virtual machine with the outside world is to create a NAT Switch on the Hyper-V Host. You do that by executing the following PowerShell script in an PowerShell or PowerShell ISE with Administrative Rights:

$SwitchTest = Get-VMSwitch -Name "NATSwitch" -ErrorAction SilentlyContinue

if($SwitchTest -eq $null) {
    New-VMSwitch -Name "NATSwitch" -SwitchType Internal -Verbose
   
    $NIC = Get-NetAdapter  | where Name -like "vEthernet*(NATSwitch)"
   
    New-NetIPAddress -IPAddress 172.16.0.1 -PrefixLength 24 -InterfaceIndex $NIC.ifIndex

    New-NetNat -Name "NatSwitch" -InternalIPInterfaceAddressPrefix "172.16.0.0/24" -Verbose
}

​The Script will create an Internal Switch, give the Internal Adapter "vEthernet (NATSwitch)" the IPv4 Address "172.16.0.1" and change the Switch to an NAT Switch​.

​​Prepare the AzureStack VM

​Create the AzureStack VM

​Now it is time to create our VM. If ​you have ​modified the "OneNodeRole.xml" as ​su​​​​​ggested you need a VM with 12 Cores, 96GB of RAM, one OS Disk with 120GB and four Data Disks with 120 GB each. To create such a VM you open "Hyper-V Manager" on your Hyper-V Host and start the ​Virtual Machine Wizard ​by clicking on "New ->" and then "Virtual Machine...".

​Specify a Name for the VM (I choose in this ​example "AzureStackDevKit") and check the "Store the virtual machine in a different location" checkbox

​choose VM Generation 2

​specify at least ​96 GB of RAM (I use in the example 100 GB)

​connect the NIC to the "NATSwitch"

​choose "Attach a virtual hard disk later"

​and press "Finish".

​Add CloudBuilder.vhdx Bootdisk

​Now open an Windows Explorer and navigate to the VM Directory (in my example C:/ClusterStorage/DaONS2D2/AzureStackDevKit) and create a "Virtual Hard Disks" Directory. ​Copy the modified "CloudBuild.vhdx" into the ​"Virtual Hard Disks" Directory​.

​Open the "VM settings" in "Hyper-V Manager" and add the "CloudBuilder.vhdx" Disk ​to the VM. To do so choose "SCSI Controller", "Hard Disk" and press the "Add" button.

Choose "Browse..." and navigate to the folder where you copied the "CloudBuilder.vhdx". Select it and then click the "Apply" button.

Modify Processor Count

​Now we modify the ​Processor count. To do ​so click in the still open VM Settings Windows on "Processor" and enter 12 in the "Number of virtual processors:" field. Then​ click the "​Apply" Button.

Add four Data VHDX

In the next step we add four Data Disks to the VM. To do so click in the VM Settings on the "SCSI Controller" and choose "Hard Disk". Create a new Disk by clicking on the "New" Button.

​In the "New Virtual Hard Disk Wizard" click next to the "Choose Disk Type" dialog and​ go with "Dynamically expanding".

​In the "Specify Name and Location" Dialog press "Browse..." and navigate to the "Virtual Hard Disks" directory of your VM. Then change the Name of the Disk to "Data1.vhdx".

​In the "Configure Disk" dialog specify the size of the new disk. The Disk must have ​at least ​​120 GB but I ​recommend ​200 GB.

​Now click "Finish" and your first disk is created.

​To create all four ​necessary data disks you ​must ​repeat the disk creation steps tree more times ​for the Disk "Data2.vhdx", "Data3.vhdx" and "Data4.vhdx". Finally your "VM Settings" should look similar to the following screenshot:

​Disabling Time Syncronisation

We will configure our own Time Server in the Azure Stack VM so we should turn of time ​synchronization in the Virtual Machine Integration Services.

​Open the "VM Settings", click on "Integration Services" and uncheck "Time ​synchronization".

Change Automatic Stop Action (optional)

If you don't have a lot of free disk space on the host you may want to chance the "Automatic Stop Action" for the Azure Stack VM from the default behavior "Save" to "Shutdown". If you do that Hyper-V will not reserve the size of the VMs memory in the ".BIN" configuration file.

​Enable​ Nested Virtualization

To deploy Azure Stack in a virtual machine we ​must enable Nested Virtualization for that virtual machine. To do that execute the following PowerShell CmdLet on the Hyper-V Hosts:


Set-VMProcessor -VMName AzureStackDevKit -ExposeVirtualizationExtensions $true -Verbose

Set-VMProcessor -VMName AzureStackDevKit -ExposeVirtualizationExtensions $true -Verbose

​Enable Mac Address Spoofing

Because our Azure Stack VMs in the Nested VM ​must communicate with the outside world we enable MAC Address Spoofing. If you can't do that ​there is a way to configure an ​additional NAT Switch for the ​Azure Stack BGPNAT VM. To do so I ​encourage you to look at ​Daniel Neumann's Blog ​Running the Azure Stack Development Kit on Azure blog post.

​In this post I configure ​MAC Address Spoofing. To do so we open again the VM Settings of your Azure Stack VM. Click on the small '+'-Symbol next to Network Adapter. Then click on "Advanced Features" and ​in the ​right windows ​click in ​the checkbox next to "Enable MAC address spoofing".​

​Close the VM Settings dialog by clicking on the "OK" button.

​Change VM Boot Order

​Open the VM Settings ​click on "Firmware" and move the "CloudBuilder.vhdx" entry to the first position by clicking on "Move Up". ​

​Then click the "OK" button.

​Change Settings in the AzureStack VM

​Now we ​continue the configuration inside the VM. ​Open a connection to the VM by clicking on the AzureStackDevKit VM in "Hyper-V Manager". Start the VM and go ​through the Setup process (choosing ​the Language, enter a Product key or skip this by pressing the "Do this later" link, Accept the EULA, choosing a password and ​finally login-in).

Change the Network Settings

​​In the VM we ​must configure the network, so that it works with the NAT Switch. To do so ​open the "Network Settings" by right click on the Network symbol in the taskbar and clicking on "Open Network and Sharing Center".

​Click on the "Ethernet" Connections, click on the "Properties" button and navigate to the "Internet Protocol Version 4 (TCP/IPv4) Properties" dialog (like you see in the screenshot below) and configure the IP settings to:​

IP address: 172.16.0.2
Subnet mask : 255.255.0.0
Default gateway: 172.16.0.1
Prefered DNS server: 8.8.8.8
​Alternate DNS server: 8.8.4.4

​Test the IP Configuration (DNS and conectivity) by opening a PowerShell and ping www.microsoft.com.

Modify the VM Name (optional)

​If you like you can change the Name of the Azure Stack VM. To do so you open the "Server Manager" and switch to "Local Server". ​Then click on the actual Name right to "Computer name". ​In the "System Properties" dialog click on "Change...". ​Enter a Name in the ​"Computer name:" text field that describe the Computer better than the ​self-generated name.​

Modify the IE Security Settings

To change the IE Security setting open "Server ​Manager" and switch to "Local Server". Then click on "IE Enhanced Security Configuration". In the "Internet Explorer ​Enhanced Security Configuration" and change the "Administrators:" and "Users:" Settings to "Off"

Installing Azure Stack

​Collect ​Deployment Parameter

​We are nearly ready to kick of the Azure Stack installation with the following PowerShell script.


./InstallAzureStackPOC.ps1 -InfraAzureDirectoryTenantName 
xxx.onmicrosoft.com -NATIPv4Subnet 172.16.0.0/24 -NATIPv4Address 172.16.0.3 -NATIPv4DefaultGateway 172.16.0.1 -TimeServer xxx.xxx.xxx.xxx -Verbose

​But first we need to ​substitute the "xxx" placeholders with our deployment values.

​Azure Active Directory Tenant Name

​You can deploy Azure Stack in two different scenarios: the Connected one and the ​Disconnected one. ​The ​Connected scenario offers ​more ​possibility so we use this one. ​Therefor we need ​an Azure Subscription and an Azure Active Directory account. If you don't have an Azure Subscription you can get a free Test ​Subscription here: https://azure.microsoft.com/en-us/free/

​In the PowerShell Script that we will use we need the Azure ​Directory Tenant Name. I use in the Installation my admin@RitsASTPoC.onmicrosoft.com Account. Here ​the Azure Directory Tenant Name is ​everything behind the @. So in my example it is RitsASTPoC.onmicrosoft.com.​​​​

https://azure.microsoft.com/en-us/free/

Time Server IP Address

​To install Azure Stack with PowerShell we ​also must specify an Time Server. To get one you have many ​possibilities. I like the Ntp ​Pool Project.  Choose one that is near your deployment for example if you are in Germany you ​use ​an IP of ​​de.pool.ntp.org or if you are in the US you ​use ​an IP of us.pool.ntp.org. ​ ​I use "nslookup de.pool.ntp.org" and take the first IP Address ​that is returned (in this example it was 213.209.209.45).

Deploy with the PowerShell Script

Now we are ready to kick off the ​deployment. To do so open PowerShell and change the Working directory to C:/CloudDeployment/Setup.

Start the Installation with the following PowerShell Script (change your Azure Directory ​Tenant Name and your Time Server)


./InstallAzureStackPOC.ps1 -InfraAzureDirectoryTenantName 
​RitsASTPoC.onmicrosoft.com -NATIPv4Subnet 172.16.0.0/24 -NATIPv4Address 172.16.0.3 -NATIPv4DefaultGateway 172.16.0.1 -TimeServer 213.209.209.45 -Verbose

Enter the Local Admin Password of your Azure Stack virtual machine.


​The Installation starts and after some tests you ​must enter a AAD Account for the Installation as you see in the Screenshot below (In my case it would be admin@RitsASTPoC.onmicrosoft.com).

​Now the installation process will run for 4 to 5 hours. After that you should see an output like the screenshot below.

​In Case of Errors

​If something went wrong and the installation stops with some errors you can restart the installation with the following PowerShell Command:


./InstallAzureStackPOC.ps1 -rerun

​Check Installation​

​To check if the installation was ​successful start the Azure Stack Admin Portal. You can do that by open the Internet Explorer and ​browse to the "https://adminportal.local.azurestack.external" ​URL​.

​If the Browers open the portal everything should work as ​planned.

Have fun playing with Azure Stack.

​What do you think about the Article? Do you have questions? Please leave a comment below.

Arnd Rößner: Microsoft Entwicklerkonferenz Connect – 2017 setzt Fokus auf Open Source, Entwickler-Produktivität und künstliche Intelligenz

Auf der virtuellen Entwicklerkonferenz Connect 2017 hat Microsoft eine Reihe neuer Produkte und Partnerschaften rund um die Cloud-Plattform Azure und die Cross-Plattform-Entwicklerwerkzeuge des Unternehmens angekündigt. Die jährliche Konferenz findet vom 15. bis 17. November 2017 unter dem Motto „Build apps of the future today“ statt und kann via Livestream sowie auf Twitter unter #MSFTConnect verfolgt […]

Scolab: Die Disruption schlägt zurück – SharePocalypse 47

Die USA beschweren sich über einen Hack, den sie beim hacken gefunden haben. CIA tarnt Spionage-Software mit gefälschten Kapersky-Zertifikaten. Google scannt doch alles was über ihre Server geht! Kaspersky gehackt: Israelische Agenten sollen russischen NSA-Hack entdeckt haben Als russische Hacker … Weiterlesen

Der Beitrag Die Disruption schlägt zurück – SharePocalypse 47 erschien zuerst auf Scolab.

Hans Brender: Vier Monate Bright Skies

4 Monate bei Bright Skies

im 7.Teil meiner Serie habe ich über den Wechsel zur Bright Skies GmbH berichtet. Inzwischen sind vier Monate vergangen und hier die damals versprochene Fortsetzung:

Die Tage vergehen wie im Flug. Es kommt keine Langeweile auf. Es gibt auch jede Menge zu tun. Denn mein Aufgabenbereich bei Bright Skies ist wesentlich umfangreicher. Im Juli habe ich mich mit der Webseite beschäftigt und meinen ersten Blog Post dort veröffentlicht. Das Marketing-Team bei Bright Skies ist wesentlich kleiner, das erleichtert die anstehenden Prozesse. Vorlagen wurden für die kurz- und mittelfristige Marketingkampagne auf den sozialen Medien erstellt. Grundlage sind auch hier die Bilder und die dazugehörigen Texte. Im August dann mit Jan-Henrik Damaschke den ersten Podcast aufgezeichnet und veröffentlicht. Im Unterschied zu den doch eher lustigen Aufzeichnungen des MVP Kaffeeklatsch sind wir hier doch eher auf der Business Ebene. Nach der Veröffentlichung auf Voice Republic sehr gute Abrufzahlen. Daneben Video Intro und Extro „gebaut“. Die Basis ist geschaffen. Jeder Mitarbeiter muss ran. Etwas abliefern. Das ist gar nicht so einfach, einen technischen Artikel zu schreiben, der „Personality“ enthält und sich von den Tausenden abgrenzt, die im Internet abzurufen sind. Aber auch der zeitliche Einsatz. Es ist gar nicht so einfach, von den Consultants einen Aufzeichnungstermin für einen Podcast zu bekommen. Aber mittlerweile sind schon ein paar Aufzeichnungen im Internet. Zwischendurch dann mal für eine Woche in USA gewesen, genauer gesagt, Microsoft hat mich eingeladen, zum Thema „OneDrive“ zwei Vorträge zu halten. In Florida war es heiß, und auf den allabendlichen „Parties“, die alle eine exakte Länge haben, haben mich viele Menschen um ein Selfy mit sich gebeten. Meine Person scheinen eine Menge Leute zu kennen. Und anscheinend eilt mir mein Ruf voraus. Das wird auch Konsequenzen haben. Positive. Für mein Engagement als MVP im Jahr 2018. Denn auch im Jahr 2018 wird es im ersten Quartal ein paar „OneDrive Deep Dive“ Veranstaltungen geben. Und dazu bringe ich dann … mit. Lasst Euch überraschen. Dazu stehen die ersten Termine schon fest. Mein Rechner beherbergt jetzt auch Video Schnittsoftware. Im August wurde mit Robert Lehmann das erste Webinar produziert. Im September habe ich Video-Sequenzen im Hamburger Office aufgezeichnet. Hier wartet noch jede Menge Arbeit auf mich. Autor, Regisseur, Kameramann, Tonmensch, Cutter. Alles vereinigt in einer Person. Die Mischung, zwischen Business-Software, Abläufen, Teamarbeit auf der einen, Kreativität beim Bild und Ton auf der anderen Seite bestimmen meinen Lebensalltag. Neuheiten bei OneDrive münden auch in zweisprachigen Blog Posts. Leider hat der Tag nur 25 Stunden, wenn man die Mittagspause durcharbeitet. Ideen habe ich für 48. Da muss ich Prioritäten setzen. Und Bright Skies? Die Firma wächst und gedeiht. Wir sind jetzt schon über 30 Mitarbeiter. Ich komme mit allen gut aus. Manchmal ist es auch notwendig, sich in die Augen zu schauen. Deshalb verbringe ich dann auch öfters ein paar Tage in Hamburg in unserem Office. Damit die Anderen feststellen, dass ich der größere Nerd bin. Der CEO Kim Nis Neuhauss ist ja selbst MVP und hat sehr viel Verständnis für den Bereich der Community-Arbeit. Jetzt noch die Europäische Konferenz zu SharePoint, Office 365 und Azure in Dublin (Irland) und dann noch ein Community Event in Aachen. Dann sind meine öffentlichen Auftritte im Jahr 2017 gezählt. Den ein oder anderen Vortrag musste ich auch schon absagen. Jetzt stehen außerdem ein paar Implementierungen von OneDrive bei Firmen an. Und dann ist das Jahr 2017 auch schon zu Ende.

Das sind nur ein paar Zeilen, geschrieben im Flugzeug, die die positive Hektik und den Spaß, den ich habe, beschreiben soll. Ich habe Spaß und der Wechsel zu den „kühlen“ Hamburgern war genau die richtige Entscheidung. So kühl sind sie nämlich nicht. In diesem Sinne. Bis demnächst.


Teil 1: Mein erster Arbeitstag
Teil 2: Meine erste Arbeitswoche
Teil 3: nach drei Wochen
Teil 4: Nach neun Monaten
Teil 5: Ich bin zurück
Teil 6: Vorbei
Teil 7: Vorbei? Noch nicht ganz | Cloud Productivity Evangelist


Hans Brender: Events November 2017 – Februar 2018

MrOneDriveOnTour

Zuerst einmal: Danke. Danke für die Teilnahme an den letzten Events, ob Online oder live in den verschiedenen Städten, welche im November 2017 stattgefunden haben. Da war zuerst der weltweite, 24 Stunden Global Conference mit über 5000 Teilnehmern am 1. November 2017, danach habe ich am 9.1.17 über 100 Brasilianische Freunde Remote via Skype for Business die Architektur des Next Generation Sync Clients erklärt, der erste SharePoint Saturday in Wien fand am 11.11.17 statt und dann folgte die European SharePoint, Office 365 & Azure Conference in Dublin.

Hier findet ihr eine Übersicht der neuen Termine bis in den Februar 2018. Der letzte Event in diesem Jahr findet in Aachen statt, Im Januar starte ich dann meine 2018 Tour in Berlin und Bremen und dann Anfang Februar in Hamburg.

Nochmals Danke und viel Spaß auf meiner Tour 2018. Dafür habe ich dann auch vor Ort eine Überraschung….


faq-o-matic: PowerShell-Alternative: Die OU eines AD-Users in ein Attribut kopieren

Zu dem Artikel “Die OU eines AD-Users in ein Attribut kopieren” gibt es ein alternatives Verfahren, das die Eigenheiten der PowerShell besser ausnutzt. Wenig bekannt ist, dass die Pipeline-Technik der PowerShell meist viel schneller ist. Die folgende Code-Variante dürfte daher in großen Umgebungen schneller fertig sein.

[regex]$regex = "(?:,)(?'name'((CN|OU=).*))"

Get-ADUser -Filter * -SearchBase "OU=Benutzer,DC=ad2016,DC=faq-o-matic,DC=net" | ForEach-Object {
    $ou = $regex.Match($_.DistinguishedName).Groups['name']

    Write-Host($_.Name + ": $ou")
    $_ | Set-ADUser -Add @{info=$ou}
}

Der Code findet sich auch auf GitHub.

Dieter Rauscher: Microsoft Intune und WPA2 WiFi Konfiguration

Mit Microsoft Intune können ja unter anderem WiFi-Konfigurationen auf die entsprechenden iOS Endgeräte verteilt werden, damit eine automatische Konfiguration ermöglicht wird.

Leider hat Microsoft bislang für die gängige WPA/WPA2-Personal-Verschlüsselung nicht vorgesehen, den Key auch mitzuliefern…

Um ein vollständiges WPA2-Profil auf ein iPhone zu verteilen, musste bislang ein Custom Configuration Profile erstellt werden und mit entsprechendem Code versehen werden:

IntuneWiFi

Erfreulicherweise gibt es für die Erstellung des XML-Files Unterstützung, die hier beschrieben wird:

Dennoch eine Fummelei und unnötiger Aufwand.

Es gab dazu sogar ein UserVoice-Feedback aus 2015: No option to enter a WiFi password when creating a WiFi profile with wpa or wep security

Das hat sich nun erfreulicherweise geändert! Seit vergangener Woche können vollständige WPA2-Profile über das Azure-Portal erstellt und auf die Endgeräte ausgerollt werden:

IntuneWPA

Endlich!

Viele Grüße
Dieter


Dieter Rauscher
MVP Enterprise Mobility

Dieter Rauscher: Wechsel von Spotify zu Apple Music

Ich bin seit Spotify in Deutschland verfügbar ist bezahlender Premium Kunde. 2015 erwägte ich schon mal, Spotify den Rücken zuzukehren, weil deren damalige Windows Mobile App so bescheiden war, dass sie für mich praktisch nicht zu gebrauchen war. Seit Anfang 2017 benutze ich wieder ein iPhone, so dass dieser Mangel nun nicht mehr erheblich ist. Zumal ich von niemandem mehr erwarte, dass für Windows Mobile noch etwas (weiter)entwickelt wird.

Dennoch geht mir Spotify derzeit wieder ziemlich auf die Nerven, weil andauernd Songs aus meinen Playlisten verschwinden oder durch sehr komische Versionen ersetzt werden. So macht das keinen Spaß.

Alternativen gibt es nicht viele. Für mich kamen daher entweder Amazon Music oder Apple Music in Frage. Amazon wäre praktisch gewesen, weil ich ja eh Amazon Prime Kunde und prinzipiell sehr zufrieden mit Amazon bin. Doch Amazon Music hat (mindestens) einen entscheidenden Nachteil: CarPlay wird (noch) nicht unterstützt. Habe mich daher für Apple Music entschieden. Fairerweise muss ich ergänzen, dass ich seit zig Jahren schon Apple Music Match nutze. Zwar nicht aktiv, aber ich habe alle meine Musik in der Apple Cloud. Warum auch immer ich das mal gemacht habe. Jetzt scheint es einen Vorteil zu sein.

Doch das weitaus größere Problem war: wie bekomme ich meine rund 50 Spotify Playlists umgezogen/migriert? Ich sah mich schon alles händisch umtragen….. ein riesen Aufwand! Erfreulicherweise hat sich schon jemand anders wohl dieselbe Frage gestellt und daher eine App dafür entwickelt:

jMusic – von Joao Pedro Melo

Die Bedienung der App ist so simpel, wie es in der Beschreibung im AppStore erklärt wird. Konnte damit innerhalb einer guten Stunde meine Playlists auslesen und in Apple Music neu erstellen lassen. Nur knapp 30 Songs (gefühlt/geschätzt <5%) wurden nicht erkannt. Das ist nicht schlimm. Großer Vorteil von Apple Music ist ja, dass ich Musik, die sich in meinem Besitzt befindet (ich sie also als mp3/aac habe) ebenfalls einbinden und in die Playlists aufnehmen kann – inklusive Download auf mein iPhone. Das ist auch ein großer Vorteil von Apple Music im Vergleich mit Spotify.

Update 16.11.: Danke an Axel für den Hinweis, dass Amazon Music inzwischen CarPlay unterstützt. Ich hatte es vor einiger Zeit probiert und auch bei Amazon nachgefragt. Dann aber nicht mehr ausprobiert.

Viele Grüße
Dieter


Dieter Rauscher
MVP Enterprise Mobility

faq-o-matic: Backups von AlwaysOn-Verfügbarkeitsgruppen in MS SQL Server

Wer die inzwischen nicht mehr ganz so neuen AlwaysOn-Verfügbarkeitsgruppen im SQL Server nutzen möchte, sollte sich schon frühzeitig über eine geeignete Sicherungsstrategie Gedanken machen. Denn schon bei der Einrichtung einer neuen Verfügbarkeitsgruppe erwartet der Assistent eine Entscheidung über die Sicherungskonfiguration. Genauer gesagt, geht es darum, von welchem (Replikat-)Server die Sicherung durchgeführt werden soll.

Sicherungseinstellungen

Bei der Einrichtung der neuen Verfügbarkeitsgruppe zeigt einem der Assistent die folgende Auswahl für die Sicherung an.

clip_image002

Hier spielen neben der verwendeten Edition auch Lizenzierungs- und Performance-Überlegungen eine Rolle. Nur in der Enterprise Edition sind alle Möglichkeiten verfügbar. Aus Lizenzgründen dürfen Sicherungen nur auf einem voll lizenzierten Replikatserver erfolgen.

Hintergrundwissen

Damit die Sicherung der Datenbanken in einer Hochverfügbarkeitsumgebung sichergestellt ist, muss immer klar sein welcher Server für die Sicherung verantwortlich ist. Innerhalb einer AlwaysOn-Verfügbarkeitsgruppe handeln die beteiligten Server dies untereinander aus nach der Maßgabe der Sicherungseinstellungen. Hierbei wird ein Server als bevorzugtes Replikat bestimmt. Nur auf diesem bevorzugten Replikat würde per Sicherungsauftrag auch tatsächlich eine Sicherung ausgeführt werden. Auf allen anderen Replikaten endet der Auftrag zwar auch erfolgreich, aber hier wird keine Sicherung erstellt.

 

aktives/primäres Replikat

Der Server, der lesend und schreibend auf die Datenbank zugreifen kann.

Sekundäres Replikat

Einer oder mehrere Server, die maximal lesend auf die Datenbank zugreifen können.

Auswahlmöglichkeiten

Betrachten wir die vier Auswahlmöglichkeiten aus Abbildung 1 nun etwas genauer und welche Konsequenzen sich daraus ergeben:

Sekundäres Replikat bevorzugen

Bei dieser Option werden die SQL Server versuchen, die Sicherungsaufträge auf einem der sekundären Replikate durchzuführen. Wenn kein sekundäres Replikat zur Verfügung steht, erfolgt die Sicherung auf dem primären Replikat.

Sofern die lizenzrechtlichen Voraussetzungen gegeben sind, bietet diese Lösung die meisten Vorteile. Im normalen Betrieb wird die Sicherung auf einem sekundären Replikat durchgeführt, wodurch das primäre Replikat entlastet wird. Steht kein sekundäres Replikat bereit, kann dennoch eine Sicherung auf dem primären Replikat erfolgen.

Nur sekundäres Replikat

Bei dieser Option wird der SQL Server die Sicherungsaufträge ausschließlich auf einem sekundären Replikat durchführen. Wenn es kein nutzbares sekundäres Replikat gibt, erfolgt auch keine Sicherung der Datenbanken! Dies wäre der Fall, wenn man einen 2-Knoten-Cluster hat und ein Server wegen Wartung oder Störung nicht verfügbar ist.

Primär

Bei dieser Einstellung werden die Sicherungen immer auf dem primären Replikat durchgeführt. Da es immer ein primäres Replikat gibt, wird auch immer eine Sicherung erfolgen. Dafür hat man die Last für das Backup aber immer auf dem Replikat, wo auch die Nutzer arbeiten.

beliebiges Replikat

Wie der Name schon sagt, findet die Sicherung auf irgendeinem der Replikate statt. Diese Variante bietet meiner Meinung nach keine Vorteile gegenüber den anderen Varianten. Einen wirklichen Nutzen hierfür habe ich bisher nicht erkennen können.

Meine Empfehlung

Ich würde für die Sicherung immer die Variante „sekundäres Replikat bevorzugen“ wählen, weil man hiermit flexibel auf wahrscheinlichsten Fälle reagieren kann. Sollte diese Lösung aus z.B. Editions- oder Lizenzgründen nicht möglich sein, bleibt nur noch die Variante „Primär“ übrig.

Des Weiteren würde ich auf die Wartungspläne des SQL Server ganz verzichten. Eine sehr gute Alternative bieten die Wartungsskripte von Ola Hallengren an. Die Skripte können kostenlos über seine Webseite www.hallengren.com heruntergeladen werden. Sie sind einfach zu installieren und bieten deutlich mehr Funktionalität als die eingebauten Wartungspläne des SQL Server.

Hinweise

Der (identische) Sicherungsjob muss auf allen SQL Servern der Verfügbarkeitsgruppe zur gleichen Zeit ausgeführt werden. Sonst besteht die Gefahr, dass die Sicherungen entweder doppelt oder gar nicht laufen, da der Status „bevorzugtes Replikat“ auf einen anderen Server gewechselt haben könnte, der aber zu dem Zeitpunkt keine Sicherung durchführen soll.

Wer seine Vollsicherungen auf einem sekundären Replikat durchführen will, muss die Sicherung als Kopie-Sicherung durchführen. Dies schränkt die Sicherungsmöglichkeiten dahingehend ein, dass man keine Differenzsicherungen machen sollte. Rein technisch wären sie erfolgreich, hätten aber nicht den erwarteten Inhalt.

Mark Heitbrink: Datenschutz: gp-pack PaT - Privacy and Telemetry

complete GP Ruleset, additional Scripts and ADM Template

Mark Heitbrink: Dieser PC - Die Ordner Bilder, Desktop, Dokumente, Downloads, Musik und Videos entfernen

Oldschool "Arbeitsplatz" ...

Mark Heitbrink: Bitlocker mit TPM einrichten - Speicherung des Wiederherstellungsschlüssel im Active Directory

Geht auch nur mit PIN ohne TPM, Hauptsache Ablage an zentraler Stelle.

Carsten Rachfahl [Hyper-V]: Webinar Storage Spaces Direct Deep Dive – S2D in Windows Server Preview

Am 13​. November ist es um 11 Uhr wieder soweit. Wir haben ein weiteres Webinar in unserer Storage Spaces Direct Deep Dive Serie. Diesmal geht es um die Neuerungen die ​das Windows Server Insider Preview für S2D mitbringt​.​

Inhalte:

  • ​Storage Class Memory
  • ReFS Verbesserung
  • Mirror-Accelerated Parity Volumes
  • Honolulu
  • Demo
  • eure Fragen

Zum Anmelden klickt Ihr auf das Bild oder hier! Wenn Ihr keine Zeit habt meldet euch trotzdem an dann bekommt Ihr nach dem Webinar eine Mail mit dem Link zur Aufzeichnung!

Michael Greth: Veranstaltung GDPR und das neue Recht auf „Vergessen werden“ *

THE ART OF DATA MANAGEMENT – BEREIT FÜR GDPR/DSGVO? DAS MÜSSEN SIE WISSEN

Eine pmOne Roadshow @Microsoft

Die neuen Richtlinien kommen – und zwar in nur 6 Monaten. Haben Sie Ihre Datenschutzmaßnahmen im Griff? Wie GDPR-konform sind Ihre analytischen Systeme? Sind Sie auf Knopfdruck aussagefähig? Ist Ihr Data Warehouse bereit, Daten auch wieder zu vergessen?

Weiter lesen »

faq-o-matic: E-Book: Hyper-V-Fehler vermeiden

Der Softwarehersteller Altaro bietet ein kurzes, kostenloses E-Book an, das Hinweise zu typischen Fehlkonfigurationen in Hyper-V beschreibt. Die Autoren stellen kurz und bündig dar, wie man es besser macht.

[Altaro eBook: 6 Common Hyper-V Configuration Mistakes to Avoid]
https://www.altaro.com/hyper-v-backup/ebook/6-hyper-v-configuration-mistakes.php

SharePointPodcast: SPPD382 Interviewserie DPK17 zum Modern Workplace


Auf der Microsoft Partner Konferenz in Leipzig habe ich im Community Talk mit 5 Gästen über die verschiedenen Aspekte der Digitalen Transformation gesprochen, der Link in Klammern führt zur Videoversion dieses Talks.

Talk

02:48 Katharina Brogsitter – netmedia (Video)
11:45 Marco Breier – KOM4TEC (Video)
24:20 Michael Vietzke – Microsoft (Video)
32:06 Ragnar Heil – Metalogix (Video)
40:30 Sandra Brückner – SmarterPath (Video)

Flattr this!

Michael Greth: Infografik Development Poster für Microsoft Teams

Carsten Büttemeier gibt in seiner Infografik „Development Poster für Microsoft Teams“ einen Überblick über die verschiedenen Möglichkeiten, Microsoft Teams an die eigenen Bedürfnisse anzupassen.

„Mit der Einführung von Microsoft Teams hat die Produktgruppe schon sehr früh Konzepte und Methoden für Entwickler herausgegeben, wie der Client mit eigenen Versatzstücken erweitert werden kann. Dieser Artikel fasst die derzeitigen Möglichkeiten …

Weiter lesen »

Michael Greth: DPK17 Community Talk Praxis der Digitalen Transformation mit Katharina Brogsitter

Katharina Brogsitter ist Lead Consultant Digital Work bei netmedianer GmbH und teilt im Community Talk der SharePointSendung mit Michael Greth ihre praktischen Erfahrungen mit der Digitalen Transformation aus diversen Kundenprojekten.

 

Alle Community Talks auf der DPK17 in unserer Playlist.

 

Don't contact us via this (fleischfalle@alphasierrapapa.com) email address.