TechNet · Englische TechNet Blogs · TechNet Deutschland · itproblogs.de · .NET Blogs

SharePointPodcast: SPPD409 Das prall gefüllte Osternest

Es ist mal wieder an der Zeit, die wichtigsten Ereignisse, Artikel und Ankündigungen der letzten Wochen zu sortieren und euch zu Gehör zu bringen.

Ich habe spannende Artikel und Anleitungen herausgesucht, die etwas umfangreicher sind, aber auch tiefer in die jeweiligen Themen einführen. Und ich gebe Euch Feedback zu verschiedenen Veranstaltungen, die ich in den letzten Wochen besuchen konnte.

Termine

Themen

  • SharePoint Roadmap Pitstop: March 2019 in der INTRAZONE
    • Organization news
    • Organize news in a custom order (pinning)
    • Make a site an “Authoritative news site”
    • Share and coauthor documents with LinkedIn connections
    • Page templates
    • Sticky headers for lists and libraries
    • Updated sharing page for the SharePoint admin center in Office 365
    • Yammer tab in Microsoft Teams
    • Planner updates-Copy a plan
    • Microsoft 365 “Live Events” [GA]
    • The new Microsoft 365 admin center
  • SharePoint, Yammer und Stream – zusammen sind wir stark!

Trends

Tipps

Tricks

Talk

faq-o-matic: AD-Dokumentation: José in Version 3.12

Nach längerer Zeit gibt es endlich mal wieder ein Update von José, unserem Dokumentationstool für Active Directory. Die neuen Version 3.12 umfasst:

  • CSS-Dateien nach UTF-8 konvertiert, um Firefox-/Chrome-kompatibel zu sein
  • Neuer Batch-Aufruf für reine Metadaten
  • AD-Schema 88 (Windows Server 2019) und Exchange-Schema 2016 CU6-12, 2019
  • bei GPO-Links: das GPO-Icon verlinkt auf einen GPMC-Report. Wenn dieser im Unterordner „GPMC-Reports“ liegt und den DisplayName als Dateinamen trägt, wird er geöffnet. Ergänzend gibt es ein PowerShell-Skript, das die Reports erzeugt.
  • Standard-Reports und zugehörige Definitionen angepasst

Wie immer finden sich der Download und weitere Informationen auf der José-Seite:

https://www.faq-o-matic.net/jose/

Michael Greth: Webinar Der Weg zum Microsoft Modern Secure Workplace*

Es ist der Alptraum eines jeden Systemadministrators. Die Systeme wurden gehackt, der Hoster meldet ein Datenleck oder man steht selbst in der Pflicht, Datenschutz nachzuweisen.

Termin Webinar 9.5.2019 14 Uhr

Die Szenarien sind vielfältig. Gemeinsam haben sie jedoch, dass der Systemadministrator deutlich ruhiger schlafen kann, wenn er weiß, …

Continue reading

SharePointPodcast: SPPD408 Der gute Ton

Das Ostern 2019 Special kommt diesmal mit zwei Interviews von der Deutschen Podcaster Konferenz Subscribe10.

Rund 250 Podcastende, Medienschaffende und sonstige Teilnehmenden trafen sich Ende  März in Köln beim Deutschlandfunk zu einem spannenden Wochenende und Erfahrungsaustausch.

Ich habe zwei Interviews mit Georg Holzmann (oben links) von auphonic und Sebastian Reimers von Studio-Link mitgebracht, um euch ein paar nützliche Tools für besseren Ton vorzustellen.

Angebote der Community

Die Links

 

 

 

 

Hans Brender: aOS Session: Intelligent acceleration of daily work with OneDrive

aOS Luxemburg 2019

Want to meet me? I’m speaking on 05/16/2019 in Luxembourg about OneDrive. The exact session title is

Intelligent acceleration of daily work with OneDrive

You may join the event and register here.

Cu there ?

faq-o-matic: CDC Germany 2019: Die Agenda ist online

imageIn wenigen Wochen findet die vierte Cloud & Datacenter Conference Germany statt: Am 21. und 22. Mai bietet die Konferenz IT-Technik und IT-Strategie auf höchstem Niveau.

Jetzt hat das Organisationsteam die Agenda auf der Webseite veröffentlicht. Mehr als 50 Vorträge in sechs parallelen Tracks bieten Know-how von den besten Speakern der IT-Community.

[Cloud & Datacenter Conference Germany – Die Zukunft Ihrer IT gestalten]
https://www.cdc-germany.de/#agenda

faq-o-matic: Windows 10 1809: Fehlender Doppelpunkt verhindert Anmeldung

Wir haben gerade das 1809 LTSC beim Testen und sind dabei auf ein sehr merkwürdiges Fehlverhalten gestoßen. Beim Anmelden eines Benutzers kommt die Meldung “Windows konnte keine Verbindung mit dem Dienst Benutzerprofildienst herstellen”.

Das ganze Problem wird von einem Doppelpunkt ausgelöst, der nicht vorhanden ist. Es geht dabei um das Home-Verzeichnis im AD:

clip_image001

Trage ich hier einen Doppelpunkt ein, so ist das Anmelden ohne Problem möglich.

clip_image002

Hier gab es den entscheidenden Hinweis:

https://social.technet.microsoft.com/Forums/en-US/855b1a3f-80dd-463d-8005-5935bf7da36e/some-domain-users-get-quotuser-profile-service-failedquot-when-trying-to-login-after-october?forum=win10itprogeneral

faq-o-matic: Active Directory wird 20: Herzlichen Glückwunsch!

Vor genau 20 Jahren, am 9. April 1999, hat Microsoft seine eigene produktive Windows-Domäne mit gut 27.000 Benutzerkonten nach Active Directory migriert. Dies war die erste ernsthafte Installation des damals neuen Windows-Verzeichnisdienstes. Damit dürfen wir den 9. April 1999 wohl als den “Geburtstag” des Active Directorys ansehen – und wir gratulieren herzlich zum Jubiläum!

Auf dem Blog des hannoverschen IT-Beratungshauses michael wessel gibt es mehr zum AD-Geburtstag:

https://blog.michael-wessel.de/2019/04/09/active-directory-wird-20-herzlichen-glckwunsch/

Michael Greth: Whitepaper How to minimize the impact of cloud outages on your business with real-time monitoring

In Ergänzung zu unserem Webinar „Kurzschluss, Cloudausfall – Mal wieder kalt erwischt? “ hat Panagenda ein Whitepaper zusammengestellt, in dem anhand von aktuellen Beispielen von Cloud-Ausfällen ein Überblick über deren mögliche Auswirkungen gegeben wird. Zusätzlich gibt es wertvolle Tipps, mit welchen Maßnahmen man das Risiko für das Unternehmen minimieren kann.

Download Whitepaper  How to minimize …

Continue reading

Carsten Rachfahl [Hyper-V]: Aus der Praxis: Austausch einer defekten NVMe in einem S2D Cluster

​Bei einem Kunden von uns hat eine NVMe einen IO Error angezeigt und musste daraufhin ​ausgetauscht werden. Die NVMe war als Caching Device in einen 4 Knoten S2D Cluster verbaut. Ich möchte euch hier kurz schildern, wie wir auf den Fehler aufmerksam wurden und welche Schritte notwendig waren, um die NVMe ​zu ersetzen.

​Kurz zur Hardware, es sind 4 Fujitsu Server mit je 4 x Intel P3700 800GB NVMe's und 20 Seagate 2TB HDDs für den Storage Spaces Direct Pool.

Fehlersuche:

​Als ersten Indiz haben wir festgestellt, dass Repairjobs laufen, ohne dass einer der Server neu gestartet wurde. Daraufhin habe ich ​mit  "​Get-PhysicalDisk" die Festplatten überprüft und musste feststellen, dass ein Caching Device und wechselnde Festplatten IO Errors anzeigen. ​​​​Unten ein kurzes Beispiel der Ausgabe.

​Anhand der Seriennummern konnten alle fehlerhaften Festplatten ​einem Host ​zugeordnet werden. Die NVMe zeigte dauerhaft den I​O Error an, bei den HDDs  ​tauchte der Fehler sporadisch auf. Aber ich konnte die IO Errors auf den HDDs auf 5 Stück eingrenzen und damit war mir klar, dass diese Festplatten alle der defekten NVMe zugeordnet waren. ​Auf der Suche nach weiteren Infos zur Usache, ​​bin ich auch noch auf folgende Eventlog Einträge ge​stoßen.

Austausch der NVMe:

Vor dem Austauch, wurden alle Rollen ​von dem betroffenen Host verschoben und der Host auf "Pause" gesetzt und heruntergefahren.

Der Fujitsu Support hat sich entschlossen, den Controller für die NVMe's und die fehlerhafte NVMe auszutauschen. ​Nachdem der Server wieder hochgefahren war, ergab ein weiterer  "​Get-PhysicalDisk" Befehl dass nun 2 NVMe und 10 HDDs auf "Lost Communication" standen. Die neue NVMe war nicht zu sehen.  Alle Festplatten befinden sich in dem Server, bei dem gerade die Komponenten ​getauscht wurden.

​Was war die Ursache für die fehlen der Festplatten? Es musste ja etwas mit dem Tausch der Komponenten zu tun haben. Letztlich hat sich herausgestellt, dass zwei der vier NVMe's nicht richtig gesteckt waren. Als dieser Mangel beseitigt war, wurden alle NVMe (die alte und auch die neue) korrekt angezeigt. Bei den HDDs waren nach wie vor 5 Festplatten auf "Lost Communication"

​Wir sehen, die defekte NVMe wird mit "Lost Communication" angezeigt und die neue NVMe ist noch nicht im Storagepool. An dieser Stelle ein dickes Danke schön für den sehr hilfreichen Blogpost von Jan-Tore Pedersen der genau beschreibt, welche weiteren Schritte nun zu tun sind. 

​Als nächster Schritt muss die ​defekte NVMe auf "retired" gesetzt werden.

​Jan-Tore Pedersen beschreibt ​in seinem Blogpost, dass die neue NVMe nun per PowerShell Befehl zum StoragePool hinzugefügt werden muss. Das habe ich versucht, doch ich bekam daraufhin folgenden Fehler angezeigt.

​Die neue NVMe war bereits als Caching Device im Storagepool. Das erfolgte wohl automatisch nachdem ich die d​efekte NVMe auf "retired" gesetzt hatte.

​Eine weitere Überprüfung der Festplatten mit "​Get-PhysicalDisk"  zeigt, dass die 5 HDDs, die der ​defekten NVMe zugeordnet waren, ​immer noch mit "Lost Communication anzeigten werden. ​Die HDDs müssen in einem weiteren Schritt der neuen NVMe zugeordnet werden.

​Es dauerte ein paar Minuten, bis alle Festplatten wieder mit "OK" und "Healthy" angezeigt werden. Jetzt muss nur noch die ​defekte NVMe aus dem StoragePool entfernt werden.

​Zum Abschluss überprüfen wir mit "Get-StorageJob" , ​ob die Repair Jobs angelaufen sind. Es kann einige Zeit dauern, bis alle Repair Jobs abgearbeitet wurden, aber das soll uns nicht daran hintern, den Knoten wieder aus dem Pause Modus ​zu nehmen und ihm seine Rollen ​zu übertragen.

So, ich hoffe, ich konnte euch mit dieses Blogpost zeigen, wie eine NVMe aus einem S2D Cluster getauscht werden kann und welche Probleme dabei auftreten können. Bedenkt immer, dass all diese Befehle mit Vorsicht und Bedacht ausgeführt werden müssen, da ja meist ein Produktivsystem davon betroffen ist.

Viel Erfolg bei eurer Arbeit und bis zum nächsten Mal

Petra

Der Beitrag Aus der Praxis: Austausch einer defekten NVMe in einem S2D Cluster erschien zuerst auf Hyper-V Server Blog.

Michael Greth: Was tun wenn die Cloud ausfällt?

Eigentlich sollte die „Cloud“ ja immer verfügbar sein, die Praxis aber zeigt, dass es immer wieder zu Ausfällen kommt. Ob und wie man sich davor schützen kann, worauf man achten sollte und welche präventiven Maßnahmen sinnvoll sind, besprechen Michael Greth (SharePointCommunity MVP) und Stefan Fried (panagenda) im Video „Kurzschluss, Cloudausfall – Mal wieder kalt erwischt?“ …

Continue reading

Hans Brender: Cloud & Datacenter Conference Germany–21. & 22.5. 2019 Hanau

Mr. OneDrive auf der CDC 2019 in Hanau

es ist demnächst wieder soweit. Am 21. & 22. Mai 2019 trifft man sich in Hanau auf der Cloud & Datacenter Conference Germany. Der Veranstaltungsort ist genau der gleiche wie im letzten Jahr. Und Carsten Rachfahl hat wieder viele bekannte Sprecher eingeladen und die Veranstaltung wird, so glaube ich, auch in diesem Jahr ein Erfolg werden. Ein bisschen darf auch ich beitragen mit einem Slot zu, na klar, richtig, zu OneDrive.

OneDrive beschleunigt mit Intelligenz die tägliche Arbeit

so lautet der Titel. Diesen Vortrag habe ich zum ersten Mal auf der Microsoft IgniteTheTour in Hongkong in englischer Sprache gehalten. Hier also die deutsche Premiere.

Wer mich also sehen möchte und dazu noch jede Menge andere MVPs, der muss sich ein jetzt hier anmelden.

Man sieht sich…

Hans Brender: OneDrive | Update for GPO team site libraries to sync automatically

Group Policy: Configure team site libraries to sync automatically

I have written an article about “OneDrive GPO: Configure team site libraries to sync automatically” and I must update this article.

First, and that is important: If we are looking inside the OneDrive Group Policies, you will see, there is a Group Policy in both parts (Machine and User) with the same name

Configure team site libraries to sync automatically

I have described the GPO, which is a Machine policy. But there are other Scenario’s with more than one user and Microsoft has decided, to have the same Group Policy also in the Users Section.

Local Group Policy Editor: Computer

Local Group Policy Editor: User

The name is the same. The group Policy looks like the same. The Functionality is the same. Only the Key in the Regedit is different

Machine

[HKLM\SOFTWARE\Policies\Microsoft\OneDrive\TenantAutoMount] "LibraryName"="LibraryID"

User

[HKCU\Software\Policies\Microsoft\OneDrive\TenantAutoMount]"LibraryName"="LibraryID"

 

Why Microsoft decided to have the same Group Policy in the Users section?

Its very easy, because if you look for devices, where different people from different departments will login, then there is the answer. If you have a machine policy, you are only may connect to team sites, where all possible users have the rights. Changing that to a User Policy, you may have to rollout several different GPOs, that will only work with this subset of AD.

Other questions received me, thank you, and I try to give you the right answer:

Why do we have the limit of 1000 devices?

We have to know, how OneDrive is working. Microsoft uses Windows Push Notification Services (WNS) to sync files in real time. The main important part is: WNS informs the sync client whenever a change actually happens, eliminating redundant polling and saving on unnecessary computing power. So on the Server side:

  • A change occurs in Office 365.
  • WNS alerts the OneDrive sync client of the change.
  • OneDrive adds it to the Internal Server Changes Queue.
  • – Any metadata changes happen immediately, like renaming or deleting files.
  • – Downloading content also starts a specific session with the client.
  • Office 365 has metadata pointers directing it through Microsoft Azure.
  • The changes are processed in the order they are received.

The previous OneDrive for Business sync client (Groove.exe) used a polling service to check for changes on a predetermined schedule. Polling can lead to system lag and slowness because it requires a lot of computing power. Using WNS is a significant enhancement.

Now back to our question: WNS has one limit: 1000.

This is the current limit of devices that can subscribe through the WNS pipeline to get notifications from the service about file changes. After that limit is reached, the remaining clients will go into polling mode, which means they will poll the service every few minutes to see if there are any changes.

Why does take up to 8 hours, until the client machine receives the files?

This is because of the potential spike of requests of mounting a team site both on the customer’s network as well as on the backend service.

This Group Policy is in Preview. Microsoft will see on telemetry data, how this Group policy will be used. In other words. It could be change in the future

Michael Greth: SharePoint, Yammer und Stream – zusammen sind wir stark!

SharePoint, Yammer und Stream – zusammen sind wir stark!

Wie das geht und wie insbesondere auch Live-Events mit Microsoft Stream Führungskräfte im Unternehmen in die Lage versetzen, mit den Mitarbeitern in Kontakt zu kommen, hat Dan Holme in seiner Session auf der Microsoft IGNITE The Tour sehr eindrucksvoll dargestellt. Die Aufzeichnung des Vortrag ist jetzt …

Continue reading

faq-o-matic: Powershell: Dynamische Logikabfragen

Bei einem aktuellen Projekt benötigte ich die Möglichkeit, mehrere Werte aus einer XML-Datei mit einem ebenfalls darin definierten Logikoperator zu vergleichen. Das Szenario dazu: In dem Projekt ist eine leichtgewichtige Softwareverteilung auf Skriptbasis im Einsatz, die beim Systemstart verschiedene Applikationen aktualisiert. Hier war noch etwas mehr Logik erwünscht, um Aktivitäten nur dann auszuführen, wenn bestimmte Bedingungen erfüllt sind.

Da der Code möglichst dynamisch und gut erweiterbar sein sollte, stellte sich heraus, dass der Logikoperator durch einen Scriptblock dynamisch in den Code eingefügt werden musste. Um dies zu ermöglichen, habe ich die Funktion Apply-CustomLogic() entworfen, welche aktuell die Operatoren „like“, „is“, „isnot“, „startswith“, „notstartswith“, „endswith“ und „notendswith“ unterstützt.

Drei kurze Cmdlet Beispiele dazu, die mit einer Funktion auf dieser Basis arbeiten:

Apply-CustomLogic(„startswith“,“faq-o-matic.de“,“faq“)  <- Ergebnis: $true

Apply-CustomLogic(„endswith“,“faq-o-matic.de“,“.de“)  <- Ergebnis: $true

Apply-CustomLogic(„notendswith“,“faq-o-matic.de“,“.de“) <- Ergebnis: $false

Ein typisches Code-Szenario dafür wäre: Mehrere Konditionen sowie Referenzwerte müssen aus einer XML-Datei ausgelesen und dann in Powershell interpretiert werden.

Die XML Datei beinhaltet dann folgendes:

<check type="RegistryValue" logic="StartsWith">
   <path>Registry::HKEY_LOCAL_MACHINE\SOFTWARE\Wow6432Node\TeamViewer\</path>
   <key>Version</key>
   <value>14</value>
</check>
<check type="RegistryPathPresent" logic="Is">
   <path>Registry::HKEY_LOCAL_MACHINE\SOFTWARE\TeamViewer\</path>
</check>

Der Script-Part dazu sähe wie folgt aus:

[..]
#Check if a registry path is present
if($checkType -eq "RegistryPathPresent"){
   if(
	   !(Apply-CustomLogic -condition $check.Logic -V1 $true -V2 (Get-ItemProperty -Path $Check.Path -ErrorAction SilentlyContinue))
	 ){
	   Write-CustomWarning("Check $checkType for $($Check.Path)$($check.Key) is $IgnoreSoftware, supposed value is $($Check.Value), current value is $($Path.$($Check.Key))")
   }else{
	   Write-CustomLog("Check $checkType for $($Check.Path)$($check.Key) is $IgnoreSoftware, supposed value is $($Check.Value), current value is $($Path.$($Check.Key))")                
   }
}

#Check for a specific registry value
if($checkType -eq "RegistryValue"){
   if(
	   !($Path = Get-ItemProperty -Path $Check.Path -ErrorAction SilentlyContinue) -or
	   !(Apply-CustomLogic -condition $check.Logic -V1 $Path.$($Check.Key) -V2 $Check.Value)
   ){
	   Write-CustomWarning("Check $checkType for $($Check.Path)$($check.Key) is $IgnoreSoftware, supposed value is $($Check.Value), current value is $($Path.$($Check.Key))")
   }else{
		Write-CustomLog("Check $checkType for $($Check.Path)$($check.Key) is $IgnoreSoftware, supposed value is $($Check.Value), current value is $($Path.$($Check.Key))")
	}
}
[..]

Hierbei werden nun die Konditionen und Referenzwerte aus der XML-Datei gegen reale, per Powershell abrufbare Funktion oder Variablen geprüft. Um den Code dynamisch zu generieren, nutzt die Funktion die Funktion Create([string]) auf der Klasse [Scriptblock], um aus einem vorher zusammengesetzten String einen ausführbaren Code zu generieren. Dieser Code wird im Anschluss durch $scriptblock.Invoke() ausgeführt und wendet den vorher generierten Logikcode aus.

Zu finden ist diese Funktion hier:

https://github.com/RobinBeismann/PowerShell-Scripts/blob/master/Scripts/Snippets/Apply-CustomLogic.ps1

Michael Greth: Webinar Einladung 4.4. Kurzschluss, Cloudausfall – Mal wieder kalt erwischt?

Die Endanwender Ihrer Organisation sind ein sensibler Gradmesser für die Service Qualität der in der Cloud und lokal betriebenen Office 365 Anwendungen. Je besser die Service Qualität, desto zufriedener und produktiver sind Ihre Endanwender, oder eben auch andersherum.

Aber wie läßt sich die Höhe der effektiven Service Qualität messen? panagenda hat ein innovatives Simulationsverfahren entwickelt, das Anwender …

Continue reading

Carsten Rachfahl [Hyper-V]: Monitoring eines S2D Clusters mit Grafana, InfluxDB und PowerShell (Teil 1)

Hallo, Jan hier. Da ich in letzter Zeit einiges in Richtung Monitoring gemacht habe, führe ich diese Erkenntnisse hier mal auf und zeige euch, wie man ein Monitoring-System mit Hilfe von InfluxDB und Grafana aufbaut, um sein S2D-Cluster zu monitoren und die Performance-Werte grafisch dazustellen. Grundsätzlich ist mit dieser Lösung ein Monitoring aller möglichen Dinge machbar, ich z.B. habe die Installation im ersten Schritt dazu genutzt, die Windows 10-Verteilung in der Firma visuell darzustellen.

Die Grundvoraussetzung

Der Aufbau beschränkt sich in meinem Fall auf eine VM mit einem aktuellen Debian 9.8. Keine Angst, die Installation ist schnell gemacht und alle Schritte werden hier zum einfachen kopieren beschrieben.

Die Debian Grundinstallation

Die VM bekommt von mir 2 vCPUs, 4 GB RAM und eine 80 GB große VHDX zugewiesen. Ich nutze eine Generation 2-VM, bei der allerdings das Secure-Boot deaktiviert wurde, da Debian hier noch keine passenden Zertifikate vorhanden sind. Weiterhin sollten Sie darauf achten, dass die virtuelle Netzwerkkarte eine statische MAC-Adresse hat, da Debian es nicht so gerne hat, wenn sich die MAC-Adresse ändert. Falls es zu einer Änderung der MAC-Adresse kommt, kann es hier sein das diese dann als eth1 erkannt wird, eth1 hat keine Konfiguration usw...

Die eigentliche Installation

Hier gibt es eigentlich nicht viel zu beschreiben, es handelt sich um eine gewöhnliche Installation von Debian. Falls dies vollkommen unbekannt ist, gibt es haufenweise Anleitungen im Internet, z.B. von DigitalOcean oder anderen Howto-Seiten.
- Ich bevorzuge die "Install"-Variante ohne die grafische GUI, diese geht schneller von der Hand.
- Die Sprache bleibt bei mir auf Englisch, lediglich die Tastatur wird auf Deutsch gestellt.
- Die komplette Platte wird verwendet, kein Volume Manager, alles auf eine Partition
- Bei der Auswahl der Software wähle ich nichts aus außer SSH und die Standard-Systemtools (d.h. Desktop weg und Print Server weg)

Nach der Grundinstallation beginnen wir mit dem Download und der Installation der benötigten Pakete. Vorab aktualisieren wir die Paketquellen und das gesamte System, so das alles auf dem aktuellen Stand ist.

# Aktualisierung auf den neuesten Stand, Installation von ein paar benötigten Tools und Paketen
apt update && apt install mc htop nano -y && apt upgrade -y && apt dist-upgrade -y
apt-get install -y adduser libfontconfig

# Download der Setup-Dateien
cd /usr/src
wget wget https://dl.influxdata.com/influxdb/releases/influxdb_1.7.4_amd64.deb
wget https://dl.grafana.com/oss/release/grafana_6.0.2_amd64.deb

# Installation
dpkg -i influxdb_1.7.4_amd64.deb
dpkg -i grafana_6.0.2_amd64.deb

# Automatischer Start von Grafana zum Systemstart
/bin/systemctl daemon-reload
/bin/systemctl enable grafana-server

Nun haben wir die reine Grundinstallation abgeschlossen und kommen zur Konfiguration der beiden Applikationen. Dazu editieren wir zuerst die config-Datei der InfluxDB-Datenbank.

nano /etc/influxdb/influxdb.conf

In dieser Datei müssen wir nun den Bereich "HTTP" anpassen. Wir setzen "enabled" auf "true" und aktivieren den port "8086". Das Ergebnis sieht wie folgt aus:

Danach müssen wir den Influx-Dienst einmal durchtreten

service influxd restart

Nun wechseln wir in die Influx-Datenbank und legen einen neuen Benutzer sowie eine neue Datenbank an. "username" muss ersetzt werden durch einen beliebigen Username, ebenso "password" mit einem starken Passwort. Danach verlassen wir influxDB wieder.

influx
CREATE USER "username" WITH PASSWORD 'password' WITH ALL PRIVILEGES
CREATE DATABASE "Datenbankname"
exit

Eine manuelle Test-Verbindung zur Datenbank können wir auch herstellen, hierzu kann der influx-Befehl mit Parametern genutzt werden. Klappt dies, steht einer Nutzung eigentlich nichts mehr im Weg.

influx -username "username" -password "password"

Die Einrichtung von Grafana

Nachdem wir nun die Installation von Grafana und der Datenbank abschlossen haben, können wir mit der Einrichtung starten. Durch die Installation im vorherigen Schritt steht Grafana schon zur Verfügung und lauscht standardmäßig auf Port 3000. Schauen Sie kurz nach, mit welcher IP-Adresse ihr Linux-System online ist:

ip a s

Danach können Sie die Weboberfläche auf Port 3000 aufrufen und sich mit admin und admin anmelden. Sie werden direkt nach der ersten Anmeldung dazu aufgefordert, das Standard-Kennwort zu ändern. Tun Sie dies!

Anbindung der Datenbank-Quelle

Wir müssen nun die vorab installierte InfluxDB als Datenbankquelle hinzufügen, damit die Daten zur Visualisierung genutzt werden können. Direkt nach der ersten Anmeldung können wir die Option "Datenquelle hinzufügen" benutzen, alternativ geht es über das Menü auf der linken Seite.

In den Einstellungen müssen wir die folgenden Optionen angeben:

- Name: Hier geben wir der DB-Quelle einen Namen. z.B. InfluxDB

- URL: Hier tragen wir die lokale Adresse mit dem Port 8086 ein, den wir zuvor aktiviert haben in der Konfiguration: http://localhost:8086

- Auth: Hier wählen wir "with credentials" aus, damit wir eine Anmeldung an der Datenbank machen können.

- InfluxDB Details: Hier tragen wir den Namen der Datenbank, den Benutzernamen und das Kennwort ein, was wir im Vorfeld in der Influx-Datenbank angelegt haben.

Alle weiteren Optionen können wir leer lassen, diese werden an dieser Stelle nicht benötigt.

Nun haben wir eine Datenbank hinzugefügt. Diese Datenbank dient später als Quelle für die Performance-Daten, die wir visualisieren möchten. Zum aktuellen Zeitpunkt befinden sich allerdings noch keine Daten in dieser Datenbank, daher werden wir nun im nächsten Schritt dafür sorgen, dass Daten in die Datenbank gelangen.

Einen oder mehrere Server als Datenquelle hinzufügen

Um nun an die Daten der Windows S2D-Server zu kommen, nutzen wir ein PowerShell-Modul, welches die gewünschten Daten in die vorab eingerichtete Datenbank speichert. Ich beginne in meinem Fall mit dem ersten der beiden Knoten und richte ein kleines Test-Skript ein, welches ein paar Demo-Daten ausliest und speichert. Die Installation erfolgt in einer PowerShell:

Install-Module Influx

Nach der Installation benötigen wir ein kleines Skript, welches die Daten per Perfmon ausliest und in die entsprechende Datenbank schreibt. Anbei eine kleine txt-Datei mit dem Skript.

Die paar Zeilen PowerShell machen die folgenden Dinge:

- Zeile 1 definiert den Datenbank-Server
- Zeile 2 und 3 sind Benutzername und Kennwort der Datenbank (dies könnte auch manuell eingegeben werden, damit die Daten nicht im Plaintext im Skript stehen)
- Zeile 4 baut die Credentials so zusammen, dass sie in dem Skript nutzbar sind
- Zeile 6 holt sich die Werte für die CPU-Auslastung und den verwendeten Speicher
- Zeile 7 und 8 speichern den reinen Wert (z.B. 41,52 für die prozentuale CPU-Auslastung)
- Zeile 10 bis 13 schreibt diese Werte in ein Array und definiert dafür den Namen, der später in Grafana als Datenquellwert angewählt werden kann (z.B. cpu active).
- Zeile 15 schreibt die beiden Werte in die InfluxDB

Sind alle Daten korrekt eingetragen, wird ein ersten Datenwert in die Datenbank geschrieben. Diesen Wert önnen wir uns nun in einem neuen Dashboard anzeigen lassen. Final wird es dann so sein, dass über einen geplanten Task kontinuierlich Daten in die Datenbank geschrieben werden, mit Hilfe dieser Punkte können wir uns dann einen Graph erzeugen.

Das erste Dashboard erzeugen

Wir wechseln nun zurück in die Grafana-Oberfläche und erzeugen ein neues Dashboard. Als erstes geben wir die Query-Daten ein, damit das Dashboard weiß, von wo und welche Daten es sich holen soll. Sobald die Daten korrekt eingetragen sind, können wir den einen erzeugten Punkt sehen.

Nachdem nun die korrekte Datenquelle angegeben wurde, können wir nun mit der Formatierung der Anzeige beginnen. Dazu wechseln wir in der linken Seitenleiste auf die Visualisierung.

Hier können wir allerlei Einstellungen vornehmen, die unsere Anzeige verändert und so anpasst, dass wir die Daten optimal sehen können. Ich stelle fast immer unter "Stacking & Null value" die Option "Connected" ein, damit die Punkte untereinander verbunden werden und es keine Null-Werte gibt (die kann es natürlich geben, aber wenn man die RAM-Größe beobachtet, wird diese ja nicht auf Null fallen, nur weil gerade in diesem Moment nichts gemessen wurde :) )

An dieser Stelle sind wir am Ende von Teil 1 angekommen, die Grund-Infrastruktur steht soweit. Im zweiten Teil werden wir uns anschauen, welche relevanten Perfmon-Werte wir uns anschauen und protokollieren sollten. Mit diesen Werten werden wir dann ein Dashboard bauen, welches uns die Latenzen und IOPS-Werte der Volumes anzeigt. Danke fürs Lesen und bis zum nächsten Mal :)

Der Beitrag Monitoring eines S2D Clusters mit Grafana, InfluxDB und PowerShell (Teil 1) erschien zuerst auf Hyper-V Server Blog.

Michael Greth: Meine TOP 5 KI-Features auf Office365

Frage: vorbereitet auf die Künstliche Intelligenz am Arbeitsplatz?

Künstliche Intelligenz ist eines der Top Themen in 2019 und wird schneller als wir denken Einzug in den digitalen Arbeitsplatz finden. Bild- und Texterkennung, automatische Übersetzungen, Datenanalyse, Bots und auf unser persönliches Verhalten angepasste Assistenten sind nur einige Aspekte dieser Entwicklung. Die Tools sind heute schon …

Continue reading

Hans Brender: Websitebibliotheken für die automat. Synchronisierung konfigurieren

OneDrive Gruppenrichtlinie: Konfigurieren von Team-Websitebibliotheken für die automatische Synchronisierung

Für den Next Generation Sync Client (OneDrive.exe) hat Microsoft verschiedene Gruppenrichtlinien veröffentlicht. Eine davon ist für Firmen, bei dem automatisch eine oder mehrere Dokumentenbibliotheken von verschieden Seiten automatisch verbunden und der Inhalt synchronisiert werden soll.

Das kling nicht nur interessant, es eröffnet auch neue Möglichkeiten. Aber was im nachstehenden Artikel beschrieben wird, zeigt auch die derzeitigen Limitierungen auf.

Zuerst sollten Sie die sich die Gruppenrichtlinie Konfigurieren von Team-Websitebibliotheken für die automatische Synchronisierung genau ansehen. Oder aber die englische Version davon. Diesen Artikel gibt es auch in englischer Sprache.

Vorraussetzungen

  • Windows 10
  • Windows Insider auf dem Gerät oder Office Insider
  • Gruppenrichtlinie OneDrive Files on Demand aktiviert
  • OneDrive adml and admx files installiert.

Einschränkungen

Zur Zeit kann diese Gruppenrichtlinie nur benutzt werden, wenn Sie auf diesem gerät auch eine Windows Insider installiert haben oder Office Insider sind. Dies hat nichts damit zu tun, dass Sie auf der Maschine die OneDrive.exe aus dem Insiders Ring installiert ist.

Um Die SharePoint Online Library ID zu bekommen, wird bei mir das Pop-Up unter Edge nicht immer angezeigt. Ich bin dann auf Chrome ausgewichen.

In ihrem Artikel schreibt Microsoft zur Gruppenrichtlinie Konfigurieren von Team-Websitebibliotheken für die automatische Synchronisierung, dass nicht mehr als 1000 Geräte hinzugefügt werden können. Ich denke, für manche Szenarien ist dieses Limit viel zu gering.

   

Warum?    

Ich denke an Mittelstands- oder Enterprise Kunden, die mehr als 1000 Mitarbeiter (Geräte) haben. Hier fällt mir spontan ein Onboarding Szenario ein, bei der die Personal-Abteilung auf Ihrer Website alle wesentlichen internen Formulare und weitere Dokumente bereitstellt. Für dieses Szenario, neuer Mitarbeiter erhält neues Gerät, wird dann automatisch mit dieser Teamseite verbunden und die Dokumente synchronisiert, ohne Platz auf dem Rechner zu beanspruchen. Aber das Limit von 1000 Geräten verhindert das.

Ein anderer Punkt ist die lange Zeit. Es kann bis zu 8 Stunden dauern, nachdem der Benutzer sich eingeloggt hat, bis diese Gruppenrichtlinie wirkt. Dann macht obiges Szenario auch keinen Sinn.

Bitte Microsoft, hebt diese Einschränkung auf.

Damit diese Gruppenrichtlinie läuft, sind nachstehende Schritte auszuführen:  

Abbildung Beschreibung
ADML und ADMX Dateien

Installation von adml und admx Dateien

Wenn Sie SCCM (System Center Configuration Manager) oder ein anders Management Tool benutzen, wissen Sie, was zu tun ist. Ich zeige hier die Schritte für den Editor für Gruppenrichtlinien

Microsoft hat sehr viele OneDrive Gruppenrichtlinien umbenannt und neue hinzugefügt, diese sollten also aufgefrischt werden

Hier finden Sie die 2 OneDrive Dateien:

C:\Users\[USER]\AppData\Local\Microsoft\OneDrive\19.043.0304.0004\adm\

Dort sind nicht nur die zwei Dateien (Onedrive.adml und OneDrive.admx) in englischer Sprache enthalten, auch andere 16 Sprachen sind dort enthalten.

Kopieren Sie OneDrive.admx in den Ordner %systemroot%\PolicyDefinitions
Kopieren Sie OneDrive.adml in den  entsprechenden Sprache Ordner

Abbildung Beschreibung
Editor für lokale Gruppenrichtlinien

Starten Sie den Editor für lokale Gruppenrichtlinien

Navigieren Sie innerhalb der Computer Konfiguration zu
Administrative Templates, OneDrive

Editor für lokale Gruppenrichtlinien: Konfigurieren von Team-Websitebibliotheken für die automatische Synchronisierung

Aktivieren Sie die Benutzung “OneDrive-Dateien bei Bedarf verwenden”

(“Use OneDrive Files On-Demand”)

 Web site mit document Bibliothek

Aktivieren von “Teamwebsitebibliotheken für die Automatische Synchronisierung konfigurieren”

Für diese Gruppenrichtlinie benötigen wir die komplette Library ID. Dazu wechseln wir als SharePoint Administrator (oder höher) in den Browser zur Dokumentenbibliothek und klicken Sie auf Synchronisierung

Pop up Fenster zum Kopieren der Library ID

Klick auf Copy library ID

Anmerkung:

nach mehreren Versuchen mit Edge, bei der ich das Pop-UP Fenster nicht immer bekommen habe, habe ich mal den Browser gewechselt: Chrom

Dann auf den Link geklickt. Nichts passiert. Aber trotzdem ist die komplette Library in die Zwischenablage kopiert worden.

Sie sieht folgendermaßen aus…

tenantId=2ac472%2D29bf%2D4d2a%2Dbe89%2D7b69e0524eb4&siteId=%7Bc561681c%
2Dbed8%2D4f3a%2Db111%2D923ahbc6e3ce%7D&webId=%7Be5ee028a%2Dff81
2D452c%2Da882%2D61e470496100%7D&listId=%7BC40DF92C%2DC130%2D4210
2D91D9%2DF46193060F8F%7D&webUrl=https%3A%2F%2Fmvphs%2Esharepoint
2Ecom%2Fsites%2FDirectConnect&version=1

und wir sehen, es sind mehrere Teil-IDs vorhanden: TenantiD, siteId, WebId, ListID und die webURL.

Wir wechseln wieder in den Editor für lokale Gruppenrichtlinien

Abbildung Beschreibung
Teamwebsitebibliotheken für die Automatische Synchronisierung konfigurieren

Teamwebsitebibliotheken für die Automatische Synchronisierung konfigurieren” auswählen, aktivieren und dann auf Anzeigen klicken.

Teamwebsitebibliotheken für die Automatische Synchronisierung konfigurieren

Es gibt 2 Felder: Wert Name and Wert

Wert Name: Hier muss eine für Sie erkennbarer Name eingetragen werden, damit Sie die Library identifizieren können, denn hier können auch mehrere Werte stehen.

Wert: Hier wird der in der Zwischenablage gespeicherte Library ID eingetragen.

Danach zweimal auf OK drücken um die Gruppenrichtlinie zu aktivieren.

Starten Sie den Registrierung-Editor und navigieren Sie zu:

Computer\HKEY_LOCAL_MACHINE\SOFTWARE\Policies\Microsoft\OneDrive\TenantAutoMount

Registrierungs-Editor

Starten Sie Ihr Gerät neu und waren sie bis zu 8 Stunden. Bei mir hatte die Wartezeit nach knappen 2 Stunden ein Ende und automatisch habe ich eine neue  Synchronisierte Bibliothek vorgefunden. Alle Dateien waren im Zustand nur in der Cloud verfügbar gekennzeichnet

Microsoft Quelle

Michael Greth: Free Whitepapers

Es gibt mal wieder ein paar interessante Whitepaper zum kostenfreien Download. Weitere Whitepaper und Ebooks haben wir auf unser Übersichtsseite Whitepaper zum Download zusammengestellt.

BeetRoot Office 365

4-stufiger Leitfaden  für die Einführung von  Office 365 und zur Sicherstellung einer  hohen Nutzungsrate.

Download: https://beetroot.ag/wp-content/uploads/2019/03/Whitepaper-Office-365-Adoption.pdf

Wie wird Ihr Unternehmen rundum sicher?

Sicherheit muss nicht nur eng mit allen IT-Prozessen verwoben werden, sondern eine …

Continue reading

Carsten Rachfahl [Hyper-V]: Webinar What’s new in Hyper-V 2019 am 29. März um 11 Uhr (Deutsch) and 5 pm (Englisch)

  • ​Deutsch Sprachiges Webinar
  • ​Englisch sprachiges Webinar

​At the 29th of March 5 pm CET+1, our next Webinar is about What's new in Hyper-V 2019. First I thought this would be a short Webinar, but after collecting the slides, it is much more as I thought.


Here is the Agenda:

  • Hyper-V in Server
  • Hyper-V in Client
  • Hyper-V in Azure
  • check
    Demo
  • Q&A

To sign-up click on the picture or here! Don't worry that you maybe have no time to attend this Webinar if you sign-up you will get a link to the recording afterward.

Carsten


Der Beitrag Webinar What’s new in Hyper-V 2019 am 29. März um 11 Uhr (Deutsch) and 5 pm (Englisch) erschien zuerst auf Hyper-V Server Blog.

Hans Brender: OneDrive | GPO: Configure team site libraries to sync automatically

Group Policy: Configure team site libraries to sync automatically

For the Next Generation Sync Client (OneDrive.exe) Microsoft has created several group policies. One of them is for companies, so we may automatically connect with a document library. This can be interesting, but people asked me, they have no success with this group policy.

First, you must read the policy Configure team site libraries to sync automatically carefully

Prerequisites

  • Windows 10
  • Windows Insider on the machine or Office Insider
  • Enabled group Policy OneDrive Files on Demand
  • OneDrive adml and admx files installed

Limitations
This time, the group policy works only, if you are a Windows insider or an Office Insider, that means it runs only on a machine where f.e. Windows Insider is running. This has nothing to do with the OneDrive Insider Ring

To get the SharePoint Online Library ID, the pop-Up window only shows me, if I use chrome or a private window in Edge

In the article Microsoft says, you should not apply to the GPO “Configure team site libraries to sync automatically”, if there are not more than 1000 devices. I think, that is a bad limit:

Why?

Thinking for Midsize or Enterprise Organizations: The Onboarding process could be more easily, if we connect the sync client automatically with let’s say HR team site. So here is a good starting point for “all employees”, where all important documents a reside. The new Employee have nothing to do. It’s on his machine, takes no space (Files on demand), and if documents are updated form HR people, all employees will sync the docs automatically, but only if there are not more then 1000 devices, connect to this document libraries of other Sites automatically.

Another issue is the time. It may up to 8 hours, after a user signs in, before the library begins to sync. That means, my example above also will not work

Please Microsoft, unlock this limit

To make this group policy run, please do the following steps:

Picture Description
ADML and ADMX files

Installing the adml and admx files

If you have SCCM (System Center Configuration Manager) or any other management Software, you know, what you must do. I show here the installation with a local group Policy Editor. Microsoft has renamed many Group Policies, therefore it is recommended, that you refresh the files

You find the 2 OneDrive files here:

C:\Users\[USER]\AppData\Local\Microsoft\OneDrive\19.043.0304.0004\adm\

Here you have the Onedrive.adml and OneDrive.admx in English language version plus 16 additional languages:

Copy the OneDrive.admx into the folder %systemroot%\PolicyDefinitions
Copy the OneDrive.adml into the corresponding language folder

Picture Description
Local Group Policy Editor

Start your local Group Policy Editor

Navigate inside the Computer Configuration to
Administrative Templates, OneDrive

Local Group Policy Editor: Enable OneDrive Files on Demand

Enable “Use OneDrive Files On-Demand”

 Web site with document libary

Enable “Configure team site libraries to sync automatically”   

For this group policy we need the entire library ID. We have to move to the Team site in a Web-Browser, where we want to connect later automatically as a SharePoint Admin (or higher)

Here we have to klick on Sync

Pop Up for Copying Library ID

Klick on Copy library ID

Note: I have several issues using edge, also in a private session. I always get the pop up window with the Chrome Browser and see the “Copy library ID” link

Nothing happened. Well there is no response, but the complete Library ID is copied to the clipboard and looks like…

tenantId=2ac472%2D29bf%2D4d2a%2Dbe89%2D7b69e0524eb4&siteId=%7Bc561681c%
2Dbed8%2D4f3a%2Db111%2D923ahbc6e3ce%7D&webId=%7Be5ee028a%2Dff81
2D452c%2Da882%2D61e470496100%7D&listId=%7BC40DF92C%2DC130%2D4210
2D91D9%2DF46193060F8F%7D&webUrl=https%3A%2F%2Fmvphs%2Esharepoint
2Ecom%2Fsites%2FDirectConnect&version=1

you see, there is the TenantiD, siteId, WebId, ListID and webURL.

Now switch back to Local Group Policy Editor

Picture Description
Configure team site libraries to sync automatically

“Configure team site libraries to sync automatically” and press Show

Configure team site libraries to sync automatically

There are 2 fields: Value name and Value

Value name: Here you must enter a friendly name, that you are able to identify the library, because here you may insert more document libraries in other sites, and you must identify them.

Value: That’s the complete library ID, you have in the clipboard

Press two times OK to enable the GPO.

Start Regedit.exe and go to:

Computer\HKEY_LOCAL_MACHINE\SOFTWARE\Policies\Microsoft\OneDrive\TenantAutoMount

Registry Editor

Reboot your machine and wait up to 8 hours. I have waited 2 hours and then automatically I found a new library and all files are displayed as Cloud Only.

04/04/19 additional Blog post with changes

Microsoft Source

Hans Brender: OneDrive | Installieren des Clients auf Computer-Basis (Vorschau)

neuer Sil der OneDrive Versionshinweise

In den letzten Tagen hat Microsoft wieder eine neue Version des Next Generation Sync Clients veröffentlicht. Dieser Sync-Client trägt die Versions-Nummer 19.043.0304.0004 und ist eine Insider Version.  Aber mit dieser Version (oder einer höheren) ist die Basis für Neuerungen gelegt worden:

Neuer Style der Versionshinweise

 

Abbildung Beschreibung
alter Sil der OneDrive Versionshinweise Diese Abbildung zeigt noch die alte Version.  Wir hatten nur Versionen von Windows und Mac
neuer Sil der OneDrive Versionshinweise Dies ist die neue Abbildung der Versionshinweise:

Wir haben jetzt 4 Kategorien: Windows, Mac, Android und iOS

 

 

Installieren des Synch-Clients auf Computer-Basis (Vorschau)

Darauf haben viele Administratoren gewartet. Endlich kann der Sync Client ab der Version 19.043.0304.0003 oder höher auch auf Computer-Basis installiert werden.

Normalerweise, und das war bei der Neuentwicklung bewusst angestrebt worden, wird der Synchronisierungsclient im Benutzerverzeichnis abgelegt. Komplett, mit all seinen verschiedenen Sprachen.

C:\Users\[USER]\AppData\Local\Microsoft\OneDrive

Alle 24 Stunden schaut der Next Generation Sync Client nach, ob es für den Ring (Insider, Produktion oder Enterprise) eine neue Version gibt. Damit dies überhaupt funktioniert, benötigt der Client Zugriff auf die Domänen oneclient.sfx.ms“ and „g.live.com“.

Der Sync-Client für die Installation (Setup) ist jetzt auch auf die Größe von 30 MB gewachsen.
Findet der Sync-Client also eine neue Version, wird dieses Setup heruntergeladen und gestartet.

Das komplette Setup, mit allen Programmen, Abbildungen und den 107 Sprachen ist 197 MB groß, verteilt über 520 Dateien in 154 Ordnern.

Runden wir das ganze auf ist der Datei-Download also 200 MB groß. Und genau dies kann bei mehreren Benutzern zum Problem werden.  Denn der Download wird bei jedem Benutzer separat herunter geladen.

Microsoft hat zu dieser Methode gegriffen, damit Sie für die Synchronisierung nicht nur auf der Server Seite von Office 365, sondern auch auf der Client-Seite die Kontrolle haben. Und diese NICHT an die Administratoren abgeben müssen.

Aber das Ganze hat auch einen Haken:
wenn nämlich mehrere Benutzer auf dem Computer arbeiten. Als Beispiel sei ein Krankenhaus genannt, wo sich mehrere Krankenschwestern einen PC teilen. Dann würde bei einer neuen Version bei jeder Krankenschwester, wenn diese sich anmeldet, eine neue Version installiert werden. Was ja nicht unbedingt Sinn macht.

Wie schon oben geschrieben, steht mit der neuen Version auch die Möglichkeit offen, die OneDrive Installation auf Computer-Basis zu installieren.

Voraussetzungen:

  • Windows 7 oder später
  • Synchronisierungs-Client Version 19.043.0304.0003 oder höher
  1. Laden Sie OneDriveSetup. exe herunter.
  2. Führen Sie „OneDriveSetup. exe/ALLUSERS“ aus einem Eingabeaufforderungsfenster aus (führt zu einer UAC-Eingabeaufforderung) oder mithilfe von SCCM. Dadurch wird der Synchronisierungsclient unter dem Verzeichnis „Program Files (x86) \Microsoft OneDrive“ installiert. Nach Abschluss des Setups wird OneDrive gestartet. Wenn auf dem Computerkonten hinzugefügt wurden, werden Sie automatisch migriert.

Bis auf die Änderung des Speicherorts der der OneDrive.exe Binärdatei bleibt das Verhalten gleich. (dies ist im nachstehenden Artikel bei der Übersetzung noch falsch)

Hier finden sie weitere Informationen in deutsch oder englischer Sprache.

Hans Brender: OneDrive | Install the sync client per machine (Preview)

New style of OneDrive Release Notes

So these days, Microsoft released a new version 19.043.0304.0004. It is an Insider Version. But with release we saw some interesting news:

Style Change of OneDrive Release Notes

Picture description
OneDrive Released Notes old Version

This picture shows the old style of Release notes:

We have here versions for Windows and Mac

OneDrive Released Notes new Version

And this is a pic with the new style of Release Notes:

We have now 4 versions: Windows, Mac, Android and iOS

Install the Sync Client per machine (Preview)

Yes, Version 19.043.0304.0003 is an Insider Version. But there are some interesting things with it:

Normally, The Next Generation sync client will be installed in the users directory like

C:\Users\[USER]\AppData\Local\Microsoft\OneDrive

And all 24h the Next Generation Sync Client looks by himself, if there is a new version for his ring. (Insider, Production, Enterprise). Therefore he needs access to the following domains: oneclient.sfx.ms" and "g.live.com."

The Setup for the Sync-Client has reached more than 30 MB.
The complete Setup, with all programs, Pictures and the 107 languages reached 197 MB, distributed in over 520 files in 154 folders.

But think about: You have a lot of users… and additional if you have more workers on a machine, for example in a hospital: many nurses on one machine, that could be complicated, because if there is a new version, the Sync client will be replaced again and again(one time for each nurse), because each nurse has its own sync client.

But starting with this version, it is possible to install it only one time (per machine installation)

Requirements:

  • Windows 7 or later
  • Sync client 19.043.0304.0003 or higher

To install the sync Client

Download OneDriveSetup.exe

  1. Download OneDriveSetup.exe.
  2. Run “OneDriveSetup.exe /allusers” from a command prompt window (will result in a UAC prompt) or by using SCCM. This will install the sync client under the “Program Files (x86)\Microsoft OneDrive” directory. When setup completes, OneDrive will start. If accounts were added on the computer, they’ll be migrated automatically.

You may reach more information here, but keep in mind, that’s a preview version!

Michael Greth: Podcasts in Unternehmen – Stimme in Konzerne hacken

Von der Podcaster-Konferenz Subscribe, die am Wochenende beim Deutschlandfunk in Köln stattfand, habe ich die Aufzeichnung eines spannenden Vortrags mitgebracht, die Herausforderungen & Lösungen aufzeigt, um das Medium Podcast in Organisationen eigeninitiativ und kostenneutral zu etablieren.

Wer einmal das Potential des Mediums Podcast erkannt hat, möchte selbiges auch im beruflichen Umfeld nutzen. Während es …

Continue reading

faq-o-matic: Cloud & Datacenter Conference Germany am 21. und 22. Mai in Hanau

imageCarsten Rachfahl und sein Team laden auch in diesem Jahr wieder zur “Cloud & Datacenter Conference Germany” (kurz: CDC) nach Hanau. Erneut umfasst die Konferenz zwei Tage, und zwar den 21. und den 22. Mai 2019.

Die Konferenz bietet mehr als 50 Sessions ausgewiesener IT-Experten – darunter wieder die Crème de la Crème der IT-Community mit einer hohen Anzahl an Microsoft-MVPs und bekannten hochkarätigen Sprechern. Der Congress Park Hanau hat sich bereits im letzten Jahr als hervorragende Location für eine IT-Konferenz dieser Art empfohlen.

Nähere Details und Tickets gibt es hier:

[Cloud & Datacenter Conference Germany – Die Zukunft Ihrer IT gestalten]
https://www.cdc-germany.de/

Hans Brender: MVP Summit 2019 – Recap

MVPSummit 2019, Redmond

Er ist wieder vorbei. Die diesjährige Ausgabe hat wieder 2000 MVPs und Microsoft Regional Direktoren (RDs) in Redmond für eine Woche zu Gast gehabt. Und ein volles Programm. Tagsüber neue Informationen, na ja, dieses Jahr habe ich wenige Folien von der Ignite gesehen, aber auch weniger Roadmaps. Man ist vorsichtiger geworden. Das haben wir den paar mittlerweile EX-MVPs zu verdanken, die trotz mehrfacher Ankündigung im letzten Jahr Informationen unter NDA öffentlich gemacht haben. Sie haben sich und allen aktive MVPs einen Dienst erwiesen, den solche MVPs, die solche Informationen öffentlich machen, haben im MVP Programm nichts verloren. Leider schlägt ein solches Erdbeben nicht nur einmalig ein, es sind auch Nachbeben zu erwarten. Und wer, wie ich, schon mehrfach In Redmond ein paar Tage verbracht hat, kann die feinen Nuancen ausmachen. Hat man aber ein Vertrauensverhältnis zur Produktgruppe aufgebaut, dann funktioniert das immer noch, allerdings hinter den Kulissen.

So, genug gemosert. Was super war: ein Wahnsinn-Wetter. Kein Regentropfen während der Woche, die Frühlings-Sonne hat uns alle erwärmt. Ich habe dieses Jahr fast keine Partys besucht, es gab genug andere Dinge, über die ich an andere Stelle einmal berichten werde. Trotzdem wird der MVP Summit 2019 als der Summit eingehen, bei dem ich den wenigsten Schlaf hatte. Jedes Jahr sieht man nicht nur deutsche Kollegen, sondern Kollegen aus der ganzen Welt wieder und kann hier das eine oder andere Wort wechseln.

Zusammenfassung:

Vielen Dank Microsoft, für die vielen Informationen, die Ihr mit uns geteilt habt. Vielen Dank für die gesamte Organisation, angefangen von den Betreuern bei jedem Hotel, was den Transport anging, den Busfahrern, bis hin zu den Personen, welche für uns gekocht haben. Vielen Dank an die vielen Microsoft Produkt-Manager, die sich Zeit genommen haben, und verstehen, wie wichtig die MVPs als Multiplikatoren sind, um die neuen technischen Informationen in der gesamten Welt zu verbreiten. Vielen Dank fürs Zuhören, damit unser Feedback auch in die richtigen Kanäle weitergetragen werden können.

MVP Summit 2019 war gestern, wir warten auf den MVP Summit 2020


Its done. Microsoft has called to the MVPSummit and 2000 MVPs and Microsoft Regional Directors (RDs) around the world have spent a week  in Redmond. And there was a full program. Each day they shared my new information with us, this year with less slides from the Ignite. But also less Roadmaps. One has become more cautious. We owe that to the few meanwhile EX-MVPs, who have made public information under NDA despite several announcements in the last year. They have provided a service to themselves and all active MVPs, such MVPs that make such information public have lost nothing in the MVP program. Unfortunately, such an earthquake does not strike only once, and aftershocks are to be expected. And who, like me, has spent several days in Redmond a few days, can make out the fine nuances. But if you have established a relationship of trust with the product group, then it still works, but behind the scenes.

What was great: a crazy weather. No rain drops during the week, the spring sun has warmed us all. I hardly ever attended any parties this year, there were enough other things that I’ll cover elsewhere. Nevertheless, the MVP Summit 2019 will be the summit I had the least sleep on. Every year you not only see German colleagues, but colleagues from all over the world and can change one or two words here.

Summary:
Thank you, Microsoft, for all the information you have shared with us. Many thanks for the entire organization, from the supervisors at each hotel, to the transport, the bus drivers, to the people who cooked for us. Many thanks to the many Microsoft Product Managers who have taken the time to understand how important MVPs are as multipliers to spread the new technical information around the world. Thank you for listening, so that our feedback can also be passed on to the right channels.

MVP Summit 2019 was yesterday, we are waiting for the MVP Summit 2020

Michael Greth: Risiken und Chancen der künstlichen Intelligenz im Digital Workplace

Auf dem SharePoint Saturday North Germany in Bremen Anfang Februar 2019 habe ich die Keynote zu den Risiken und Chancen der Künstlichen Intelligenz im Digital Workplace gehalten. Viele Zuhörer waren überrascht, wie viel KI heute schon in Office 365 steckt und wie wenig sie davon eigentlich wissen. Am 27.3.2019 um 15:00 Uhr werde ich diesen …

Continue reading

SharePointPodcast: SPPD407 Frühlingserwachen

Die Shownotes zum Frühlingsanfang. 

Termine

Tipps

Themen

Teams

Michael Greth: End User Experience für SharePoint messen und verstehen*

Gastbeitrag von Stefan Fried, Analytics Spezialist und OfficeExpert Product Manager panagenda GmbH

OfficeExpert bietet End-to-End Analysen für Microsoft Office 365, Exchange, Outlook, OneDrive und Skype for Business.

Die Service Qualität von lokalen, und in der Office 365 Cloud betriebenen, Applikationen ist maßgebend für die Zufriedenheit Ihrer Endanwender. Um die effektive Service Qualität (oder …

Continue reading

Michael Greth: Webinaraufzeichnung Microsoft Stream Kommunikation im Unternehmen in Bild und Ton

Video sind die neuen Dokumente – sagt Microsoft, und Video im Unternehmen kann heute mit Plattformen wie Microsoft Stream schnell und unkompliziert die passende Infrastruktur bereitstellen.

In meinem Webinar bei Wissensmanagement.net, das jetzt als Aufzeichnung zur Verfügung steht, spreche ich über Inhalte, Bereitstellung, Suche, Aufnahmetechnik und die erweiterten Möglichkeiten von Video durch Machine Learning …

Continue reading

faq-o-matic: Windows 10, GPOs und das UNC-Hardening

Nimmt man Windows 10 in eine bestehende Domäne auf, kann es passieren, dass Gruppenrichtlinien darauf nicht wirken. Die Ursache ist oft das UNC-Hardening, das als Sicherheitsfunktion vor einiger Zeit eingeführt wurde. Anders als Windows 7 aktiviert Windows 10 diese Funktion standardmäßig.

Im Web findet man als “Problemlösung” dazu häufig die Empfehlung, das Feature abzuschalten. Das ist aber eine weniger gute Idee – wie bei jeder Sicherheitsfunktion ist es auch hier besser, sie zu konfigurieren. Hinweise dazu gibt es hier:

[Demystifying the UNC Hardening Dilemma &#8211; Lee Stevens: Technical Blogs]
https://blogs.technet.microsoft.com/leesteve/2017/08/09/demystifying-the-unc-hardening-dilemma/

[MS15-011 & MS15-014: Hardening Group Policy – Security Research & Defense]
https://blogs.technet.microsoft.com/srd/2015/02/10/ms15-011-ms15-014-hardening-group-policy/

Michael Greth: Yammer in SharePoint einbauen

SharePoint und Yammer

Aus der Community wurde die Frage gestellt wie man Yammer in SharePoint einbinden kann. Hintergrund war ein Artikel aus dem Jahr 2016, der zeigte, wie man Yammer für Kommentare in SharePoint nutzen kann – damals natürlich noch On-Premises.

Seitdem hat sich einiges getan – die entsprechenden Ressourcen fasse ich mal hier zusammen:

Continue reading

Hans Brender: Valo Roadshow mit Solvion und Mr.OneDrive

Valo Roadshow mit Solvion und Mr.OneDrive

Die Frage ist:

Was erzählt Vlad hier? Gemeint ist mein kanadischer MVP Kollege Vlad Catrinescu bei seinem Vortrag zum “Digitalen Arbeitsplatz mit SharePoint 2019”

Ich selbst werde meinen Vortrag, den ich auf der MSIgnite TheTour in Hong Kong gehalten habe, in Wien und Granz zum Besten geben.

Intelligenter und schneller arbeiten mit OneDrive

Wo: 24.4.19 in Wien (bei Microsoft Österreich) und 25.4.19 in Graz bei Solvion

hier zur Anmeldung und dem ganzen Programm:

Michael Greth: Überblick über die wichtigsten Funktionen von SharePoint 2019 für Neueinsteiger

Gibt es die eigentlich noch, die Neueinsteiger in SharePoint 2019? Kann ich mir eigentlich kaum vorstellen, dass es heute noch Unternehmen gibt, die sozusagen als Frischlinge mit einem SharePoint Server 2019 On-Premises ihr Abenteuer in der SharePoint-Welt beginnen.

Aber natürlich gibt es viele Anwender, die vor der Aufgabe stehen, ihre bestehende, lokale SharePoint 2010/2013/2016 …

Continue reading

faq-o-matic: Microsoft Identity Manager Distribution Groups in gemischter Multi-Domain-Exchange-Umgebung

Setzt man den Microsoft Identity Manager (kurz MIM, ehemals Forefront Identity Manager/FIM) ein und hat in seiner Umgebung sowohl Linked Mailboxes als auch normale Accounts, die Mailboxes besitzen, so steht man sehr schnell vor einem entscheidenden Problem.

Anforderung:

  • Verteilergruppen müssen über MIM verwaltet werden, der Anwender darf nicht in die Pflicht gebracht werden, den richtigen Account (Linked Mailbox/normalen Account) auszuwählen, sondern darf jeden Benutzer exakt einmal sehen
  • Sicherheitsgruppen müssen ebenfalls über MIM verwaltet werden, alle Sicherheitsgruppen liegen in der contoso.com und müssen ggf. Mitglieder aus der contoso.com und der faq-o-matic.de beinhalten, somit normale User und Foreign Security Principals

Kurz zum Demo-Szenario:

  • Zwei Domänen in separaten Forests (contoso.com und faq-o-matic.de)
  • Exchange 2016 Cluster in contoso.com
  • Native Mailboxen für User aus der contoso.com, Linked Mailboxes für User der faq-o-matic.com
  • In der contoso.com existiert eine MIM Installation samt MIM Service & Portal
    • Es sind bereits beide Forests und dessen Domänen gemäß Microsofts Vorgaben im MIM Portal angelegt und die Foreign Security Principal Sets so wie Sync Rules für die „richtigen“ User Accounts aus beiden Domänen angelegt
    • Die Linked Mailboxes wurden über den Inbound Sync Filter der User Sync Rules ausgeschlossen

Der Identity Manager ist bereits von Haus aus in der Lage, Foreign Security Principals in Richtung Active Directory zu synchronisieren, sofern die Konfiguration der Domänen und Trusts vollständig ist, somit ist die Anforderung für die Sicherheitsgruppen bereits mit wenig Aufwand gedeckt.

Schwieriger wird es, wenn man auch Verteilergruppen verwalten will, denn hier müssen wir MIM beibringen, nicht die distinguishedNames der jeweiligen Quell Accounts in das Member Attribut der Gruppen zu synchronisieren, wie es für Sicherheitsgruppen richtig ist, sondern je nach Typ entweder den distinguishedName der vollwertigen Mailbox oder im Falle eines Users aus der faq-o-matic.de den distinguishedName der zugehörigen Linked Mailbox.

Die Lösung

Microsoft hat sich hierfür eine Lösung ausgedacht, die zwar technisch funktioniert, allerdings enorme Nachteile aufweist und meines Erachtens nicht wirklich praktikabel ist. Aufgrund einer technischen Limitierung der Management Agent Architektur kann bei Outbound Flow Rules lediglich die Reihenfolge der verlinkten Objekttypen manipuliert werden. Das bedeutet, dass man mit nativen Bordmitteln lediglich das Member Attribut beeinflussen kann, wenn die zu unterscheidenden Objekte auch unterschiedliche Objekttypen haben, sind z.B. beide vom Typ Person, wie es eben ein User Objekt und eine Linked Mailbox sind, so kann MIM diese beim Outbound Flow nicht unterscheiden.

Behält man diese technische Limitierung im Kopf, versteht man den Weg, wie Microsoft dies nativ gelöst hat:

In dieser Lösung wird für jeden User, der eine Linked Mailbox besitzt, ein Pseudo Kontakt erstellt, welcher dann anstatt des Quell Accounts in die Verteilerlisten geschrieben wird. Ein solcher Kontakt wird für jede Linked Mailbox erstellt und per Join Rule mit dem MIM User Objekt verbunden. Im Anschluss wird die Outbound Sync Rule für das Member Attribut so manipuliert, dass sofern vorhanden, der distinguishedName des verbundenen Kontaktes Vorrang gegenüber dem distinguishedNames des Quell Accounts hat und somit statt diesem in das Member Attribut geschrieben wird. Technisch gesehen, ist jeder User nun nur einmal im Portal vorhanden und MIM kümmert sich darum, dass gemischte Verteilergruppen jeweils den Kontakt für eine Linked Mailbox beinhaltet statt den Quell Account des Users.

In diesem Szenario erhält der Benutzer zwar die E-Mails, die an die Verteilergruppe gesandt werden, allerdings entstehen folgende Nachteile:

  • Für jede Linked Mailbox wird zusätzlich ein Mail Kontakt im AD und Exchange angelegt
  • Die Mitgliedschaft der Verteilergruppe ist nicht auf der Linked Mailbox sichtbar, da diese tatsächlich gar nicht Mitglied der Verteilergruppe ist, sondern nur der Kontakt, der auf diese Linked Mailbox weiterleitet
  • Benutzer sehen im schlimmsten Fall jeden Benutzer, der über eine Linked Mailbox angebunden ist, zweimal in der Global Address List
  • Verwaltung der Verteilergruppe ist bei Equal Precedence vom Gruppenbesitzer zwar noch möglich, allerdings wird dieser durch die Kontakte der Pseudo Kontakte unnötig verwirrt
  • Die Presence Funktion von Skype for Business funktioniert nicht bei Mails, die an diese Verteilergruppen gesandt werden. Das liegt daran, dass die Exchange legacyDN des Kontakt für den Presence Lookup genutzt wird, diese hat natürlich keine Presence Informationen

Die bessere Lösung

Nun zu der meines Erachtens nachhaltigeren Lösung, die auch wesentlich bessere User Experience bringt und ohne zusätzliche Kontakte arbeitet:

Die kurze Version: Wir sorgen dafür, dass jeder User ein weiteres Attribut hat, welches wir als „relevantMailboxDN“ bezeichnen. Dieses Attribut hält den für Verteilergruppen relevanten distinguishedName eines Benutzers, des Weiteren bauen wir einen Workflow, welcher nach Änderung einer Verteilergruppe ein Array des Attributes relevantMailboxDN der Gruppenmitglieder baut. Nun schreiben wir für Verteilergruppen statt dem „member“ Attribut das vom Workflow kalkulierte Array der Mailbox DNs zurück in die contoso.com.

Die lange Version Schritt für Schritt:

  1. Zuerst brauchen wir zwei Zusatzkomponenten, die aber ohnehin in jeder größeren MIM Installation vorhanden sind:
  2. Ein Attribut im Metaverse und MIM Service namens „relevantMailboxDN“ vom Typ String anlegen und an den ObjectTyp „user“ (im Metaverse „person“) binden
    • Dieses Attribut fügen wir als Export Attribut im Flow des MIM Service Connectors an (Schema Refresh notwendig)
  3. Ein Attribut im Metaverse und MIM Service namens „distGroupMembers“ vom Typ Multi Line Array anlegen und an den ObjectTyp „group“ binden
    • Dieses Attribut fügen wir als Import Attribut im Flow des MIM Service Connectors an (Schema Refresh notwendig)
  4. Nun legen wir einen weiteren Active Directory Connector für die contoso.com an
    • Den Sync Scope auf die Linked Mailbox OUs beschränken
    • Eine Inbound Sync Rule im MIM Portal anlegen
  • „Create Ressource in FIM“ nicht aktivieren
  • Relationship „objectSid“ (Metaverse) <-> „msExchMasterAccountSid“ (ConnectedSystem)
  • Attribute Flow:
    • dn => relevantMailboxDN
  • Den Sync Scope auf die Linked Mailbox OUs beschränken
  1. Für jeden Active Directory Connector den Attribut Flow wie folgt weitern:
    • dn => relevantMailboxDN
  2. Im Metaverse Designer beim Object Type „Person“ die Precedence des Attributes relevantMailboxDN so konfigurieren, dass der frisch angelegte Linked Mailbox Active Directory Connector an erster Stelle und der MIM Service Connector am Ende steht
  3. Einen Workflow erstellen, welcher das Array der relevantMailboxDN Attribute der Gruppenmitglieder baut:

  1. Ein Set anlegen, welches alle Gruppen mit dem Gruppentyp „Distribution“ beinhaltet
  2. Eine Management Policy Rule des Types „Request” anlegen:
    • Specific Set of Requestors: All People
    • Operation:

o Add a value to a multivalued attribute

o Remove a value from a multivalued attribute

    • Target Resource Definition Before Request: <Das erstellte Set>
    • Target Resource Definition After Request: <Das erstellte Set>
    • Resource Attributes: Select specific attributes

o Manually-managed Membership

    • Action Workflow: <Der erstellte Workflow>
  1. Einen neuen Powershell Management Agent anlegen
  • Relationship „objectGUID“ (Metaverse) <-> „ objectGUID“ (ConnectedSystem)
  • Attribute Flow:
    • distGroupMembers => members
  • “Enable Deprovisioning” aktivieren
  1. Im Metaverse Designer beim Object Type „group“ die Precedence des Attributes distGroupMembers so konfigurieren, dass der MIM Service Connector an erster Stelle steht
  2. Einen Full Import / Full Sync auf allen Management Agents durchführen, angefangen mit dem MIM Service Management Agent, da dieser die neuen Sync Rules bereitstellt

Fazit:

Sobald dies getan ist, werden alle Linked Mailboxes mit dem nativen Account im Metaverse verbunden und der für MIM relevante Mailbox distinguishedName fließt in das Attribut „relevantMailboxDN“. Dieser Join sorgt ebenfalls dafür, dass der MIM Service automatisch die Verteilergruppenmitglieder auf deren MIMService Identität auflöst und wie gewollt anzeigt. Wenn nun eine Verteilergruppe bearbeitet wird, wird der erstellte Workflow gestartet, welcher das „distGroupMembers“ Attribut mit den korrekten distinguishedNames füllt und anschließend über den PowerShell Management Agent in das Active Directory schreibt. Der Active Directory Management Agent für contoso.com liest nun beim nächsten Import die vom Powershell Management Agent geschriebene Änderung ein und reflektiert diese im Metaverse, sodass keine „Exported Change not reimported“ Fehler auftreten.

Michael Greth: Blick über den Tellerrand : Meetup AI

Auf dem Meetup.AI in Berlin steht einmal im Monat spannende Vorträge rund um die Künstliche Intelligenz auf dem Programm. Am 6. März hatte ich das Vergnügen, die Vorträge aufzeichnen zu dürfen und stelle sie heute hier online.

The speakers and their sessions

Justina Petraitytė – Introduction to the open source Rasa Stack

Justina Petraityte is …

Continue reading

Carsten Rachfahl [Hyper-V]: Webinar Window Server 2019 – ReFS + DeDup am 8. März um 11 Uhr (Deutsch) and 5 pm (Englisch)

  • ​Deutsch Sprachiges Webinar
  • ​Englisch sprachiges Webinar

At the 8th of March 5 pm CET+1, our next Webinar is about ReFS and DeDup. ReFS as new filesystem offer great possibilities especially with Hyper-V and is a must for every Storage Spaces Direct implementation. Windows Server 2019 finally provides the option to use ReFS and Deduplication together.


Here is the Agenda:

  • ReFS overview
  • ReFS and Hyper-V
  • ReFS and S2D
  • check
    DeDup and Compression
  • Performance
  • check
    Demo
  • Q&A

​To sign-up just click on the picture or here! Don't worry that you maybe have no time to attend this Webinar if you sign-up you will get a link to the recording afterwards.

Carsten


Der Beitrag Webinar Window Server 2019 – ReFS + DeDup am 8. März um 11 Uhr (Deutsch) and 5 pm (Englisch) erschien zuerst auf Hyper-V Server Blog.

Hans Brender: OneDrive | Einstellungen und Gruppenrichtlinien

Einstellungen im Next Generation Sync Client

Es kommt darauf an. Das ist meine Lieblingsantwort. Weil es darauf ankommt, ob Du ein privater Benutzer bist oder aber ein Benutzer einer Großfirma.. Denn man kann es so oder so handhaben:

Bild Beschreibung
Einstellungen im Next Generation Sync Client

Unter Einstellungen findet man zwei (drei) neue Einträge 
         
Synchronisierung automatisch anhalten, wenn dieses Gerät im Stromsparmodus ist

Anmerkung: An einem Desktop Gerät kann es sein, dass es nur zwei (ein) Einträge gibt

Akku Einstellungen

Unter Windows 10 findet man bei den Einstellungen – System – Akku einen Schieberegler, mit dem man einstellen kann, ab wann der Rechner in den Stromsparmodus wechseln soll.

In dem Beispiel links sind 30% eingestellt, dann wechselt das Gerät selbständig in den Stromsparmodus

Das bedeutet dann, dass alle OneDrive Verbindungen in den Pausenmodus wechseln und nicht mehr synchronisieren.

Natürlich kann man das überschreiben.

Akku Einstellung Benachrichtigung        

Die Benachrichtigung kommt als Toaster und verschwindet nach kurzer Zeit

Synchronisierung kostet nun mal Energie und da dies automatisch vorgenommen wird, bleibt Ihr Gerät etwas länger am “leben”
         

Bei einem Benutzer einer größeren Firma kann der Administrator diese Einstellung mit Hilfe einer Gruppenrichtlinie vornehmen:

Fortsetzen der Synchronisierung, wenn der Stromsparmodus aktiviert ist

Es ist eine Gruppenrichtlinie in der Benutzer-Konfiguration:

Mit dieser Einstellung können Sie die Funktion für automatisches Anhalten für Geräte deaktivieren, bei denen der Stromsparmodus aktiviert ist.

Wenn Sie diese Einstellung aktivieren, wird die Synchronisierung fortgesetzt, wenn Benutzer den Stromsparmodus aktivieren. OneDrive hält die Synchronisierung nicht automatisch an.

Wenn Sie diese Einstellung deaktivieren oder nicht konfigurieren, wird die Synchronisierung automatisch angehalten, wenn der Stromsparmodus erkannt und eine Benachrichtigung angezeigt wird. Benutzer können wählen, ob keine Unterbrechung wünschen, indem sie in der Benachrichtigung auf „Trotzdem synchronisieren“ klicken. Wenn die Synchronisierung angehalten wird, können Benutzer die Synchronisierung fortsetzen, indem sie auf das OneDrive-Cloudsymbol im Infobereich der Taskleiste und dann auf die Warnung oben im Aktivitätscenter klicken.

Durch Aktivieren dieser Richtlinie wird folgender Registrierungsschlüsselwert auf 1 festgelegt:
[HKCU\SOFTWARE\Policies\Microsoft\OneDrive] "DisablePauseOnBatterySaver"=dword:00000001

Anmerkung: Diese Richtlinie wirkt eigentlich spiegelverkehrt

Source: Microsoft Docs


Bild Beschreibung
Einstellungen im Next Generation Sync Client

Unter Einstellungen findet man zwei (drei) neue Einträge:
         
Synchronisierung automatisch anhalten, wenn sich dieses Gerät in einem getakteten Netzwerk befindet

Hier ein Beispiel: In jedem ICE befinden sich SSID’s, die alle den gleichen Namen haben: WIFIonICE

Das ist gut, denn man wird automatisch eingeloggt, wenn man den Rechner startet

Das hat aber auch einen Haken. Denn in der 2.Klasse stehen nur 200 MB Volumen zur Verfügung, und die Verbindung ist leider nicht sehr gut.

Getaktete Verbindung

Zuerst muss also dieser SSID als getaktete Verbindung eingetragen werden. Das findet man unter
Einstellungen – Netzwerk und Intranet – WLAN – Bekannte Netzwerke verwalten

Dann nach unten Scrollen und dann die SSID suchen.

Dort auf Eigenschaften klicken und danach “als getaktete Verbindung festlegen” aktivieren

Auch hier hat der Administrator die Möglichkeit, dies mit einer Gruppenrichtlinie einzustellen:

Fortsetzen der Synchronisierung getakteter Netzwerke

Es ist eine Gruppenrichtlinie in der Benutzer-Konfiguration:

Mit dieser Einstellung können Sie die Funktion für automatisches Anhalten deaktivieren, wenn Geräte eine Verbindung mit getakteten Netzwerken herstellen.

Wenn Sie diese Einstellung aktivieren, wird die Synchronisierung fortgesetzt, wenn sich Geräte in einem getakteten Netzwerk befinden. OneDrive hält die Synchronisierung nicht automatisch an.

Wenn Sie diese Einstellung deaktivieren oder nicht konfigurieren, wird die Synchronisierung automatisch angehalten, wenn ein getaktetes Netzwerk erkannt und eine Benachrichtigung angezeigt wird. Benutzer können wählen, ob keine Unterbrechung wünschen, indem sie in der Benachrichtigung auf „Trotzdem synchronisieren“ klicken. Wenn die Synchronisierung angehalten wird, können Benutzer die Synchronisierung fortsetzen, indem sie auf das OneDrive-Cloudsymbol im Infobereich der Taskleiste und dann auf die Warnung oben im Aktivitätscenter klicken.

Durch Aktivieren dieser Richtlinie wird folgender Registrierungsschlüsselwert auf 1 festgelegt:
[HKCU\SOFTWARE\Policies\Microsoft\OneDrive] "DisablePauseOnMeteredNetwork"=dword:00000001

Anmerkung: Diese Richtlinie wirkt eigentlich spiegelverkehrt

Source: Microsoft Docs

Michael Greth: Webkonferenz Office 365 Lösungen: Videoportal mit Microsoft Stream

Live mit Microsoft Stream

Häufig werden SharePoint und Office365 bereits im Unternehmen verwendet. Doch welche Einsatzmöglichkeiten stehen zur Verfügung? Wie können SharePoint und Office365 noch effektiver und effizienter genutzt werden? Und vor allem: Wo liegen die Grenzen bzw. gibt es Alternativen?

Die Fragen werden auf der Webconference von Wissensmanagement.net am 14.3.2019 von 9:00-12:00 Uhr …

Continue reading

faq-o-matic: Exchange Mailbox Delegation Automapping

Bei der Delegation von FullAccess-Berechtigungen auf einer Mailbox oder einer Shared Mailbox ist dem einen oder anderen sicher bereits aufgefallen, dass sich das Automapping nicht konsistent verhält. Untersucht man dies genauer, so fällt auf, dass lediglich die beim Erstellen der Mailbox vergebenen Delegationen auch Automapping aktiviert haben, nachträglich hinzugefügte haben dies nicht, zumindest sofern sie per Exchange Control Panel erteilt wurden.

Für das Automapping ist das Attribut „msExchDelegateListLink“ auf dem Active-Directory-Konto der freizugebenen Mailbox verantwortlich. Dieses Attribut beinhaltet die DistinguishedNames aller Mailboxen, welche beim Start von Outlook dieses Postfach automatisch eingebunden kriegen sollen. Das Attribut an sich hat zuerst jedoch nichts mit der eigentlichen FullAccess-Berechtigung zu tun, es reicht also nicht, die zu autorisierenden DistinguishedNames dort einzutragen. Möchte man alle Mailboxen, die nachträglich mit FullAccess für ein Postfach über das Exchange Control Panel autorisiert wurden, auf Automapping umstellen, so schafft einem PowerShell wie gewohnt Abhilfe.

Hier könnte man meinen, dass der Befehl „Get-Mailbox -Identity „xyz“ | Get-MailboxPermission“ auch ein Attribut zurückliefert, welches die Automapping Einstellungen pro Freigabe anzeigt – tja, das wäre wohl auch zu einfach. Der einfachste Weg, sich per Powershell alle auf Automapping gestellten Freigaben eines Postfaches anzuzeigen, ist der folgende Befehl:

Get-ADUser -Identity (Get-Mailbox -Identity „xyz“ | Select-Object -ExpandProperty userPrincipalName) -Properties msExchDelegateListLink | Select-Object -ExpandProperty msExchDelegateListLink

Möchte man nun alle bereits erteilten FullAccess-Berechtigungen auf Automapping umstellen, so hilft dieses von mir geschriebene Script aus:

https://github.com/RobinBeismann/PowerShell-Scripts/blob/master/Scripts/MS-Exchange/Fix-Automapping.ps1

Eine kleine Schwierigkeit ist, dass Get-MailboxPermission lediglich die objectSID der berechtigten Mailboxes anzeigt. Über Get-ADUser kann man diese aber auf ihre Mailboxes auflösen und die DistinguishedNames für das msExchDelegateListLink Attribut sammeln. Wichtig zu wissen ist, dass es sich um die SID des tatsächlichen Postfaches handelt, im Falle einer Linked Mailbox ist dies also nicht die ObjectSID sondern die msExchMasterAccountSid, diese Besonderheit wird von dem oben verlinkten Script bereits berücksichtigt.

Noch eine Randnotiz: Erstellt man die Mailbox Berechtigungen direkt per Add-MailboxPermission, so kann man das Automapping über den Parameter „-AutoMapping <$true | $false>“ steuern.

Carsten Rachfahl [Hyper-V]: Webinar Window Server 2019 SMB Direct Best Practices am 25. Februar um 16 Uhr (Englisch)

  • ​Deutsch Sprachiges Webinar
  • ​Englisch sprachiges Webinar

On 25th of February will my Hyper-V Amigos compadre Didier Van Hoye join me in the Webinar "Window Server 2019 SMB Direct Best Practices". Didier nickname is "Mr. RoCE Balboa," and this is with good reason! There are not many that have spent more time with RDMA in Windows Server than @WorkingHardinIT.


Here is the Agenda:

  • iWarp
  • RoCE
  • PCF and ETS
  • check
    Guest RDMA
  • check
    Demo
  • Q&A

​To sign-up just click on the picture or here! Don't worry that you maybe have no time to attend this Webinar if you sign-up you will get a link to the recording afterwards.

Carsten


Der Beitrag Webinar Window Server 2019 SMB Direct Best Practices am 25. Februar um 16 Uhr (Englisch) erschien zuerst auf Hyper-V Server Blog.

Carsten Rachfahl [Hyper-V]: S2D Bechmarking, Azure Stack in Hyper-V und Hyper-V Amigos Showcast

Die letzten 30 Tage waren turbulent - neben der Organisation der Cloud & DataCenter Conference Germany 2019 durfte ich 3 Vortrage (auf den MVPDays, dem Azure Saturday Berlin und den S2DDays) halten und eine Hyper-V Amigos Showcast aufnehmen. 

Da von drei Aufzeichnungen existieren möchte ich diese unten aufführen damit ihr bei intresse diese Anschauen könnt.

MVPDays - Azure Stack Development Kit - the cheap Azure Development Platform

In dieser 30 Minuten Session erkläre und zeige ich warum das Azure Stack Development Kit in einer Hyper-V VM ein fantastischer und kostengünstiger Start mit Azure IaaS ist. Außerdem eignet sich das ASDK in einer VM auch super zum Entwickeln.


S2DDay - Learn what Storage Spaces Direct is cabable of by benchmarking the setup

In diesem 30 Minuten Vortrag bespreche und vor allem Demo ich welche Benchmarks wir einsetzten um eine Storage Spaces Direct Installation auf "Herz & Nieren" zu prüfen. Freut euch auf eine Demo reiche Session mit Demos wie "Livemigration mit 50 GBit/s", "IOmeter in einer VM" und "VMFleet".


Hyper-V Amigos Showcast Episode 17 - Veeam B&R 9.5 Update 4

In dieser Episode schauen Didier und ich uns das Update 4 von Veeam Backup & Replication 9.5 an. Wir sprechen erst einmal über die Neuerungen und werden dann in einer weiteren Folge uns einige der neuen collen Feature live testen. Hier geht's zum Beitrag und hier ist das Video.


Der Beitrag S2D Bechmarking, Azure Stack in Hyper-V und Hyper-V Amigos Showcast erschien zuerst auf Hyper-V Server Blog.

faq-o-matic: Azure AD Identity umziehen

Hat man in der heutigen Zeit mit einer Active-Directory-Migration zu tun, so ist meist die eigentliche Migration der Computer und User das kleinste Übel. Durch die Anbindung diverser Systeme muss aber jede Identität eines Users in jedem angebundenen System berücksichtigt werden. Ein sehr gutes Beispiel hierfür ist Office 365, respektive die Azure-Active-Directory-Identität eines Benutzers, an der in der durchschnittlichen Umgebung mindestens eine Mailbox, ein Sharepoint-Profil und ein Skype-for-Business-/Teams-Account hängt.

Ein praktisches Verfahren hierzu mit einer PowerShell-Funktion habe ich hier beschrieben:

[Azure AD Identity umziehen – michael wessel Blog]
https://blog.michael-wessel.de/2019/02/14/azure-ad-identity-umziehen/

SharePointPodcast: SPPD406 Bemerkungen zum 14. Jahrestag

Heute, am 7.2.2019, wird der SharePointPodcast 14 Jahre alt -übrigens am 7.2.1964 begann die “Beatlemania” in den USA – aber das ist ein anderes Thema.

Ich blicke ein wenig zurück auf die Geschichte dieses Podcast und stelle Euch ein paar Podcasts vor, deren Macher sich vielleicht auch ein wenig von mir haben inspirieren lassen.Und verlost wird auch etwas.

Freikarte für Collabsummit 2019

SharePointPodcast: SPPD405 Aus der Praxis

Im Talk mit Claudia Eichler-Liebenow von workcel spreche ich über Aspekte des modernen Intranets.
Erfahrungen mit der Einführung und Umsetzung von Office 365, Yammer und Teams schildert Harald Rau von der Munich RE.

Aufgenommen auf der European SharePoint, Office 365 and Azure Conference 2018 in Kopenhagen

Und hier die Videos

Carsten Rachfahl [Hyper-V]: CDC-Germany 2019 Early Bird und pre-Day Community Information

Early Bird Tickets nur noch bis zum 31. Januar 2019

Vorweg das eilige: die Early Bird Tickets zur Cloud & DataCenter Conference 2019 sind nur noch bis einschließlich dem 31. Januar buchbar. Dann erhöhen Sich die Preise um €100 beim Premium Ticket und € 200 beim VIP Ticket. Also greift unbedingt noch zu und bucht heute noch euer Ticket wenn Ihr den Preisvorteil mitnehmen wollt.

Einige Infos zur CDC-Germany 2019

Es wird ein super Event und ich bin sicher es wird die beste CDC-Germany die es bisher gab. Wir haben dazu aber einiges zu toppen da die CDC-Germany 2018 von den Teilnehmern top bewertet wurde. Hier einige Zahlen:

Wie zufrieden waren Sie ...

Bewertung (Skala 1 bis 9)

... Insgesamt mit der Veranstaltung?

8,18

... mit der Organisiation vor Ort?

8,47

... mit den Sessions? (Schnitt aller Sessions)

7,68

Eine Vorlage die nicht so leicht zu übertreffen ist. Damit wir das noch toppen können versuchen wir diesmal noch mehr Top Speaker zu bekommen. Einen kleinen Ausblick seht Ihr bereits bei den Featured Speakern auf der Website. Eine Agenda und Session Liste dauert aber noch da momentan noch der "Call for Speaker" läuft.

pre-Day Communitys

Ich werde ganz oft per Mail gefragt, ob es auch wieder einen pre-Day Community Tag geben wird. Die Antwort ist JA. Ich bin bereits in Verhandlungen mit der Event Lokation und wir haben auch schon einen Sponsor für das Catering (danke hier an die xces) gefunden. Wir werden wieder eine Hyper-V Community und eine Hybrid Cloud Community parallel veranstalten. Wer also seine Reise plant kann sich den 20. Mai bereits mit vormerken.

Ich hoffe wir sehen uns vom 2. bis 22. Mai in Hanau

Carsten

Der Beitrag CDC-Germany 2019 Early Bird und pre-Day Community Information erschien zuerst auf Hyper-V Server Blog.

SharePointPodcast: SPPD404 Error Podcast Not Found

Error Not Found die Ausgabe 404 startet ins Jahr 2019.

Die Shownotes

Tipps

Thema

Rodecaster

Carsten Rachfahl [Hyper-V]: Webinar Demo New Features in Storage Spaces Direct 2019 am 11. Januar um 15 Uhr (Deutsch) und 17 Uhr (Englisch)

  • ​Deutsch Sprachiges Webinar
  • ​Englisch sprachiges Webinar

Am 7. November hatten wir Cosmos Darvin aus der Storage Produktgruppe aus Redmond zu Gast in unserem Webinar "What is new in Microsoft Storage Spaces Direct 2019". Bei den vielen Neuerungen hatte Cosmos leider keine Zeit Demos zu zeigen. Das holen wir jetzt in diesem Webinar nach. Also seit mit dabei wenn wir uns um 15 Uhr viele der Szenarien anschauen.


Hier ein Auszug aus dem Inhalt:

  •  DeDup Demo
  •  Nested Resiliency Demo
  •  Fast Mirror-accelerated Parity Demo
  •  Windows Admin Center with S2D 2019 Demo
  • Build-in Performance History Demo
  • New Drive Behavior Demo

Meldet euch zum Webinar an es ist Demo Time und es gibt auch ein Webinar Special. 

Carsten

P.S.: Wenn Ihr keine Zeit habt meldet euch trotzdem an, Ihr bekommt dann den Link zur Aufzeichnung automatisch zugeschickt.


Der Beitrag Webinar Demo New Features in Storage Spaces Direct 2019 am 11. Januar um 15 Uhr (Deutsch) und 17 Uhr (Englisch) erschien zuerst auf Hyper-V Server Blog.

Carsten Rachfahl [Hyper-V]: Set-StoragePool -IsReadOnly $false leads to access denied error

Introduction

This blog post is about the case where a phantom storage pool on disks recuperated from a previous Storage Spaces Direct deployment could not be made writable. The storage pool showed up on a standalone member server in the lab. The pool was not functional, nor did we expect or want it to be functional. We wanted to get rid of it and use the recuperated disks from that old S2D cluster for some other storage spaces testing. As part of getting rid if this old storage pool information we ran into the issue that Set-StoragePool -IsReadOnly $false leads to access denied error.

The Issue

When prepping a number of previously used servers to deploy Storage Spaces Direct there is a nice script available from Microsoft Docs Deploy Storage Spaces Direct in section 3.1 Clean drives.

# Fill in these variables with your values
$ServerList = "Server01", "Server02", "Server03", "Server04"
Invoke-Command ($ServerList) {
Update-StorageProviderCache
Get-StoragePool | ? IsPrimordial -eq $false | Set-StoragePool -IsReadOnly:$false -ErrorAction SilentlyContinue
Get-StoragePool | ? IsPrimordial -eq $false | Get-VirtualDisk | Remove-VirtualDisk -Confirm:$false -ErrorAction SilentlyContinue
Get-StoragePool | ? IsPrimordial -eq $false | Remove-StoragePool -Confirm:$false -ErrorAction SilentlyContinue
Get-PhysicalDisk | Reset-PhysicalDisk -ErrorAction SilentlyContinue
Get-Disk | ? Number -ne $null | ? IsBoot -ne $true | ? IsSystem -ne $true | ? PartitionStyle -ne RAW | % {
$_ | Set-Disk -isoffline:$false
$_ | Set-Disk -isreadonly:$false
$_ | Clear-Disk -RemoveData -RemoveOEM -Confirm:$false
$_ | Set-Disk -isreadonly:$true
$_ | Set-Disk -isoffline:$true
}
Get-Disk | Where Number -Ne $Null | Where IsBoot -Ne $True | Where IsSystem -Ne $True | Where PartitionStyle -Eq RAW | Group -NoElement -Property FriendlyName
} | Sort -Property PsComputerName, Count

Be careful with this as it will clear the disks and their content. Normally this works quite well. I do prefer to tweak it a bit to exclude any USB disks or other disks I do not want to be affected by this script. But this is not the subject of this blog post. We are talking about an issue with:

Get-StoragePool | ? IsPrimordial -eq $false | Set-StoragePool -IsReadOnly:$false -ErrorAction SilentlyContinue

It throws an error:

PS C:\Windows\system32> Get-StoragePool -FriendlyName  "S2D on TaroxCluster" | Set-StoragePool -IsReadOnly $false
Set-StoragePool : Access deniedExtended information:Access is denied. Recommended Actions:- Check if you have the necessary privileges to perform the operation.Activity ID: {7480dd11-3547-4ade-aef4-3f8ae460d7c7}At line:1 char:56+ ... endlyName  "S2D on TaroxCluster" | Set-StoragePool -IsReadOnly $false+                                        ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~    + CategoryInfo          : PermissionDenied: (StorageWMI:ROOT/Microsoft/..._StorageCmdlets) [Set-StoragePool], CimException    + FullyQualifiedErrorId : StorageWMI 40001,Set-StoragePool

Normally this works fine and you need to do this or otherwise you run into problems when you try to remove virtual disks later in the script. This is clear when we try it out on its own and see the following error:

Error deleting virtual disk: The storage pool could not complete the operation because its configuration is read-only.

All this means is that the storage pool is not writable, which is why the first thing the script does is make the storage pool writable. But that failed with an “access denied” error.

Even if there were no virtual disks we could not delete the storage pool, due to it being read only. We’re pretty much stuck and we need to fix this.

Figuring out what's causing the problem

Let’s take a closer look at our problematic storage pool via:

Get-StoragePool -FriendlyName  "S2D on TaroxCluster

FriendlyName OperationalStatus HealthStatus IsPrimordial IsReadOnly Size AllocatedSize
------------ ----------------- ------------ ------------ ---------- ---- -------------
S2D on TaroxCluster Read-only Unknown False True 22.77 TB 16.23 TB

We can see that the Operational Status is read-only and “IsReadOnly” Is set to true. The normal fix can is to make the storage pool writable via PowerShell with:

Get-StoragePool -FriendlyName  "S2D on TaroxCluster" | Set-StoragePool -IsReadOnly $false

That does not work. I keep getting an access denied error. A well-known reason for this error is that you are trying to run this PowerShell commands without administrative privileges. This is not the reason in this case, I made sure of that.

So I dive in a little deeper and list all the details of the Get-StoragePool command:

Get-StoragePool -FriendlyName "S2D on TaroxCluster" | fl *

PS C:\Windows\system32> Get-StoragePool -FriendlyName "S2D on TaroxCluster" | fl *
Usage : Other
OperationalStatus : Read-only
HealthStatus : Unknown

ProvisioningTypeDefault : Fixed
SupportedProvisioningTypes : {Thin, Fixed}
MediaTypeDefault : Unspecified
ReadOnlyReason : By Policy
RepairPolicy : Parallel
RetireMissingPhysicalDisks : Never
WriteCacheSizeDefault : Auto
Version : Windows Server 2019
FaultDomainAwarenessDefault : StorageScaleUnit
ObjectId : {1}\\TAROXS2D4\root/Microsoft/Windows/Storage/Providers_v2\SPACES_StoragePool.ObjectId="{76bbc2fd-c8a2-11e8-8546-806e6f6e6963}:SP:{50aadde0-2fc3-4457-b701-fe8460df7b32}"
PassThroughClass :
PassThroughIds :
PassThroughNamespace :
PassThroughServer :
UniqueId : {50aadde0-2fc3-4457-b701-fe8460df7b32}
AllocatedSize : 17846662856704
ClearOnDeallocate : False
EnclosureAwareDefault : False
FriendlyName : S2D on TaroxCluster
IsClustered : True

IsPowerProtected : True
IsPrimordial : False
IsReadOnly : True
LogicalSectorSize : 4096
Name :
OtherOperationalStatusDescription :
OtherUsageDescription : Reserved for S2D
PhysicalSectorSize : 4096
ResiliencySettingNameDefault : Mirror
Size : 25033928867840
SupportsDeduplication : True
ThinProvisioningAlertThresholds : {70}
WriteCacheSizeMax : 18446744073709551614
WriteCacheSizeMin : 0
PSComputerName :
CimClass : ROOT/Microsoft/Windows/Storage:MSFT_StoragePool
CimInstanceProperties : {ObjectId, PassThroughClass, PassThroughIds, PassThroughNamespace...}
CimSystemProperties : Microsoft.Management.Infrastructure.CimSystemProperties

I noticed a couple of things (yellow highlights). The health status is unknown. The reason for being read only is “By Policy”.  This could lead you to investigate disk policies for storage, but that would be a diversion at best. When we look at the individual disks most of them are visible in disk manager and diskpart but they are also offline due to a policy. Changing the policy in diskpart will not help and trying to get the disk to come on line fail with an access denied and write errors. This is not the path to follow.

In Server Manager, Storage Pools we see that the “Managed By” and “Available to” are blank. The storage pool is set to Read only.

The second thing that I noticed, even when I knew this before, is that the friendly name “S2D on TaroxCluster” reminded me of the fact the Storage Pool belonged to a cluster before as indicated by “IsClustered” being true.

Diagnosis

While a functional storage pool will also be off line after a reinstall of the OS, an in-place upgrade or moving them to a new server it normally can be brought on line quite quickly. But not here, it doesn’t work, there is no cluster and the storage pool is clustered. When the storage pool is a cluster resource it is normally made writable by bringing the pool on line. But as this node isn’t part of a cluster anymore so that won’t work. We don’t even have the cluster tools installed anymore on this server.

We can also normally use the Storage Pools page of Server Manager. When the storage pool is “read-only” you’ll have and option Set Read-Write Access when you right-click the storage pool. That doesn’t work, just like the PowerShell commands do not work. All options are blanked out and not available.

Basically, the metadata on the disks is showing us the phantom storage pool from a former S2D deployment, where that pool is a cluster resource. The disks in this server have come from other nodes and the metadata on there is preventing us form reusing them. The fact that they were part of an S2D cluster deployment holds the key to the fix.

The Solution

Once I realized that the fact that this storage pool thinks it is part of a cluster that isn’t around anymore prevents us changing the properties and cause the “Access denied” error I came up with a plan.

In the end, I created a 1 node on the host with the disks. I added the storage pool to the cluster pools...

The existing Storage Pool was found and I clicked OK to add it.

That made the storage pool managed by the cluster. Normally you can bring the storage pool online with a cluster to make it writable. That would not work here as the storage pool only exists on the metadata on some of the disks and not in real life.

The trick then was to remove the storage pool from the cluster as shown below.

You confirm this is what you want and that's it...

Once I did that it was still read-only. But now the command Get-StoragePool -FriendlyName "S2D on TaroxCluster" | Set-StoragePool -IsReadOnly $false could be run successfully.

Finally, I got to run the script to clean the drives from any remaining metadata from the disks. After that I had all of my NVMe, SSD and HDD disks available to build a new storage spaces set up.

Conclusion

Never give up. Things can and will confuse you now and then. That’s normal. It is OK you need some time to investigate and figure out what has happened to a system. Take that time and once you’ve wrapped your head around the context you will likely come up with some ideas to try and solve the issue at hand. You can figure it out. I hope this helps some of you when you run into a storage pool that cannot be made writable in any way. Thank you for reading!

Der Beitrag Set-StoragePool -IsReadOnly $false leads to access denied error erschien zuerst auf Hyper-V Server Blog.

Don't contact us via this (fleischfalle@alphasierrapapa.com) email address.