TechNet · Englische TechNet Blogs · TechNet Deutschland · itproblogs.de · .NET Blogs

Michael Greth: Meet And Stream Online Workshop 5.6.2020 13 Uhr

Meet and Stream – ein 2 Stunden Online Workshop mit Michael Greth, Ragnar Heil und Gernot Kühn über Live Events im Unternehmen

Als Themen am Freitag haben wir vorbereitet:

  • Was ist eigentlich Live Streaming?
  • Welche Erfahrungen haben wir bislang?
  • Was meinen wir mit Corporate Streaming (Yammer, Teams,…)
  • Teams Live Stream mit OBS?
  • Ecamm / OBS / StreamYard – eine …

    Weiterlesen

Hans Brender: OneDrive for Business: File Upload Size 100 GB available

100 GB file upload size with OneDrive for Business

Now she’s fallen. The 15 GB file upload size.

 

File upload size

In the past, the maximum size for both OneDrive (Personal) and OneDrive for Business/ SharePoint Online was limited to 15 GB. A new limit was announced at Microsoft Ignite 2019 in Orlando.

100 GB

Well, the question I’m asking here A single file this size? Well, maybe CAD files. Or complex iso files. Or … So the world may well need that. But we must not forget what that means. Because a locally generated file must be moved through the Internet upload bottleneck of the respective provider. And here in Germany most contracts are based on asymmetrical connections.  The bottom line is that, yes, it works, but only at a snail’s pace.

And at first the users of OneDrive Personal were allowed to experiment with it.
They only have 5 GB free memory. So it’s not for you. Or buy additional memory.

Business users were still excluded. Whoever had a file larger than 15 GB in OneDrive for Business / SharePoint Online was faced with an error message:

Sync-Error during Upload from 20 GB file  to OneDrive for Business This is the error message you get when the limit in your Office 365 Tenant is still 15 GB.

However, Microsoft has announced that the new 100 GB limit will be rolled out and available globally by June 2020.

First of all, you do not have a file > 15 GB at hand?
Can be created. On a command line.

fsutil file createnew <filename> <file size in byte>

So I quickly created a 20 GB file. And I tried again and again if the limit was lowered. As I said, it already worked in OneDrive Personal.

Windows Explorer / OneDrive Personal

View in Browser of the synced File in OneDrive Personal

 

and in OneDrive for Business?

You have to have patience

You have to be patient. This time I didn’t get an error message when I copied the file to a folder in OneDrive for Business.

Successfully synchronized with OneDrive for Businessq

And today I did not receive an error message. And then I had to wait, but it took quite a while until this file was synchronized to the cloud (400 MBit down, 40 MBit up == 70 minutes… And that was only 20 GByte. With 100 GByte it takes about 6 hours.

Summary:

It’s nice that we can now synchronize items larger than 15 GB to OneDrive for Business. However, we still have to wait a little until applications with different synchronization are available. I’m curious to see which CAD product will be the first to make it. Because that would also make sense.

Hans Brender: OneDrive for Business: Dateiuploadgröße 100 GB verfügbar

100 GB Dateiuploadgröße bei OneDrive for Business

Jetzt ist sie gefallen. Die 15 GB Dateiuploadgröße.

Dateiuploadgröße

In der Vergangenheit war die maximale Größe sowohl für OneDrive (Personal) als auch für OneDrive for Business/ SharePoint Online auf 15 GB begrenzt. Auf der Microsoft Ignite 2019 in Orlando wurde eine neue Grenze bekanntgegeben.

100 GB

Nun, die Frage, die sich mir hier stellt: Eine einzige Datei mit dieser Größe? Nun ja, vielleicht CAD Dateien. Oder komplexe iso Dateien. Oder …. Mag also schon sein, dass die Welt das benötigt. Aber wir dürfen nicht vergessen, was das bedeutet. Denn eine lokal erzeugte Datei muss durch das Internet-Upload Nadelöhr des jeweiligen Providers bewegt werden. Und hier in Deutschland sind die meisten Verträge auf asymetrische Verbindungen aufgebaut.  Unterm Strich muss man also sagen, ja, es geht, aber nur im Schneckentempo.

Und zuerst durften die Benutzer von OneDrive Personal damit experimentieren.
Sie haben nur 5 GB Gratis-Speicher. Also nichts für Sie. Oder Speicher dazukaufen.

Die Business-Benutzer waren noch ausgeschlossen. Wer eine Datei größer 15 GB in OneDrive for Business / SharePoint Online wurde mit einer Fehlermeldung konfrontiert:

Sync-Fehler beim Hochladen von 20 GB zu OneDrive for Business Das ist die Fehlermeldung, die Sie bekommen, wenn in Ihrem Office 365 Tenant das Limit noch bei 15 GB liegt.

Microsoft hat aber bekannt gegeben, dass die neue 100 GB Grenze bis Juni 2020 global ausgerollt und verfügbar sein wird.

Zuerst einmal, Sie haben keine Datei > 15 GB zur Hand?
Kann man erzeugen. in einer Kommandozeile.

fsutil file createnew <dateiname> <Dateigröße in byte>

Ich habe also schnell mal eine 20 GB große Datei erzeugt. Und immer wieder probiert, ob das Limit bei mir gefallen ist. Wie gesagt, in OneDrive Personal funktionierte das ja schon:

Anzeige im Windows Explorer / OneDrive Personal

Anzeige der synchronisierten Datei im OneDrive Personal im Browser

 

Und OneDrive for Business?

Geduld muss man schon mitbringen Dieses Mal erscheint keine Fehlermeldung, als ich die Datei in einen Ordner von OneDrive for Business kopiert habe.

Erfolgreich zu OneDrive for Business synchronisiert

Und heute erhielt ich keine Fehlermeldung. Und dann war Warten angesagt.Es hat aber eine ganze Weile gebraucht, bis diese Datei in die Cloud synchronisiert worden war (400 MBit Down, 40 MBit up ==  70 Minuten.. Und das waren nur 20 GByte. Bei 100 GByte sind es dann knappe 6 Stunden.

Zusammenfassung:

Schön, dass wir jetzt Elemente größer 15 GB auch nach OneDrive for Business synchronisieren können. Allerdings müsseln wir uns auch noch ein wenig gedulden, bis Applikationen mit differnzieller Synchronisation zur Verfügung stehen. Ich bin gespannt, welches CAD Produkt es als Erstes schafft. Denn das würde durchauch Sinn machen.

Hans Brender: Microsoft 365 Virtual Marathon – Recap

der erste Microsoft 365 Virtual Marathon

Deutsche Version

Nun ist er vorbei. Der erste virtuelle Marathon. Dauerte 36 Stunden. Und es war einlanger Marathon, der schon sehr früh mit der Idee startete die Joel Oleson und Ryan Schouten, Jeff Willinger, Galen Keene und Dipti Chhatrapati dann mit vielen freiwilligen Helfern dann auch zur Ausführung brachten. Jeff Teper, Bill Bär, Jon Levesque, Kurana Gatimu , Laurie Pottmeyer, Dan Holme und Naomi Moneypenny von Microsoft waren alle 4 Stunden mit einer Keynote dabei. Und dann bis zu 22! Sessions parallel.

 

bis zu 22 Sessions parallel

 

Das hat auch die Technik am Anfang in die Knie gezwungen. Das Organisationkomitee erhielt 731 Einreichungen und über 400 Sessions wurden abgeliefert.  Wenn das nicht Community ist, wass den dann?

Ich selbst habe 5 Sessions gehalten,  bei einer konnte ich mich ein bisschen zurücklehnen, weil ich mit meinem MVP Kollegen Thomas Gölles als Co-Moderator das Sprechen teilen konnte.

Es waren übrigens 164 MVP’s und 12 Microsoft Regional Directoren mit dabei. und 12700 registrierte Benutzer runnd um den Planeten waren mit dabei.

Die Arbeit ist aber noch nicht vorbei. weil die 400 Session, die alle aufgezeichnet wurden, noch zu Youtube übertragen werden müssen. Das wird noch bis Ende nächster Woche dauern. Schaut einfach bei Youtube vorbei


English Version

Now it’s over. The first virtual marathon. Lasted 36 hours. And it was a long marathon, which started very early with the idea that Joel Oleson and Ryan Schouten, Jeff Willinger, Galen Keene and Dipti Chhatrapati with many volunteers brought to the execution. Jeff Teper, Bill Bär, Jon Levesque, Kurana Gatimu, Laurie Pottmeyer, Dan Holme and Naomi Moneypenny from Microsoft were all there every 4 hours with a keynote. And then up to 22! Sessions parallel.

 

This also brought the technology to its knees in the beginning. The organizing committee received 731 submissions and over 400 sessions were delivered.  If that’s not community, then what is it?

I held 5 sessions myself, and in one of them I was able to sit back a bit because I was able to share the talk with my MVP colleague Thomas Gölles as co-presenter.

By the way, there were 164 MVP’s and 12 Microsoft Regional Directors present. and 12700 registered users around the planet.

But the work is not over yet. because the 400 sessions, which were all recorded, still have to be transferred to Youtube. This will continue until the end of next week. Just check out Youtube

Hans Brender: New OneDrive Insider version 20.084.0426.0006 available

Onedrive Insiders Version 20.084.0426.0006

Just in time for the end of the month May 2020, Microsoft has again provided a new version of the synchronization client OneDrive.exe (Next generation Sync Client) in the Insiders Ring.

While the Insiders Ring has already reached version 20.084.0426.0006, the Prdouctions Ring will be rolled out with version 20.064.0329.0008.

By the way, the user will only get the Insiders version if you check the box at the bottom of the first tab in the properties. In some companies, however, this is prevented by a group policy.

If you think you have problems with the sync engine, you should have a look at the version first. And if you think you don’t get any updates, you should talk to the administration: The addresses "oneclient.sfx.ms" and "g.live.com" must be reachable and not blocked.

But you can also do an update manually. For this purpose you can download the respective versions from Microsoft. Insider versions are not listed there, you can get them here.

Hans Brender: Neue OneDrive Insider Version 20.084.0426.0006 verfügbar

Onedrive Insiders Version 20.084.0426.0006

Pünktlich zum Monatsende Mai 2020 hat Microsoft wieder eine neue Version des Synchronisations-Client OneDrive.exe (Next generation Sync Client) im Insider Ring zur Verfügung gestellt.

Während wir also im Insiders Ring bereits bei der Version 20.084.0426.0006 angelangt sind, wird mit der Version 20.064.0329.0008 der Prdouctions-Ring ausgerollt.

Der User bekommt die Insiders-Version übrigens nur, wenn man unter den Eigenschaften im ersten Kartenreiter ganz unten den Haken setzt. In manchen Firmen wird dies aber mit einer Gruppenrichtlinien unterbunden.

Wer glaubt Probleme mit der Sync-Engine zu haben, der sollte also erst einmal einen Blick auf dei Version werfen. Und wenn man glaubt, keine Updates zu erhalten, der möge mit der Administration reden: Die Adressen „oneclient.sfx.ms“ und „g.live.com“ müssen erreichbar sein und nicht blockiert sein.

Man kann aber auch manuell ein Update durchführen. Dazu können Sie sich bei Microsoft die jeweiligen Versionen herunterladen. Insider Versionen werden dort aber nicht aufgeführt, diese erhalten Sie bei mir hier.

Michael Greth: Neues von Project Cortex – Wissensmanagement mit Microsoft 365

In der 423 Ausgabe des SharePointPodcast stellen wir uns die Frage, was eigentlich das Project Cortex macht, werfen einen Blick auf die Microsoft Lists und Tipps zu NDI und PowerPoint und als Talkgast Nicole Enders zum Thema „Microsoft Teams und Yammer“ – wie immer Themen.Trends.Tipps.Tricks.Talk

Carsten Rachfahl [Hyper-V]: Webinar Sicherheit von Hyper-V VMs erhöhen am 29. Mai um 14 Uhr (in Deutsch)

  • ​Deutsch Sprachiges Webinar
 

Am Freitag den 29. Mai 2020 um 14 Uhr findet unser kostenloses Webinar ​"Sicherheit von Hyper-V VMs erhöhen (in Deutsch)" statt. Jeder weiß, das Sicherheit heute wichtig ist auch Microsoft! Deswegen gibt es schon seit geraumer Zeit Möglichkeiten VMs in Hyper-V zu schützen. Wei erfahrt ihr in diesem Webinar

Hier ein Auszug aus dem Inhalt:

  • Sicherheitsbeispiel virtuelle AD Controller
  • der einfache weg: vTPM und Bitlocker
  • der schwere Weg: Shielded VMs
  • Q&A

Klingt spannend? Dann meldet euch zum Webinar an denn ich kann versprechen es wir interessant.

Carsten

P.S.: Wenn Ihr keine Zeit habt meldet euch trotzdem an, Ihr bekommt dann den Link zur Aufzeichnung automatisch zugeschickt.

Mittlerweile gibt's auch die Aufzeichnung. 


Der Beitrag Webinar Sicherheit von Hyper-V VMs erhöhen am 29. Mai um 14 Uhr (in Deutsch) erschien zuerst auf Hyper-V Server Blog.

Michael Greth: SCHON GEWUSST? – Microsoft Teams 9 Personen Videokonferenz | Microsoft Lists | Collaboration Guide | S01E13

In der monatlichen Video-Reihe – „SCHON GEWUSST?“ stellen die Spezialisten von nteam Berlin Neuigkeiten rund um Microsoft und die Themen „Zusammenarbeit“ und „Kommunikation“ vor. in diesme Monat : Microsoft Teams 9 Personen Videokonferenz - Microsoft Lists - Collaboration Guide

Michael Greth: Einladung SharePointPodcast 423 live

Die 423. Ausgabe des SharePointPodcast wird am Mittwoch, 27.5.2020 um 14:00 Uhr auf LinkedIn und Facebook als Livestream aufgezeichnet.

Michael Greth: Meet And Stream How To: iPad wird zum WhiteBoard mit NDI

Livestreaming mit StreamYard und mein iPad wird zum WhiteBoard dank der NDI-Technologie von NewTek – ich zeige kurz wie es geht – und es funktioniert nicht nur mit StreamYard. #StreamYard #NDI #Livestreaming

Die Links dazu:

NDI Tools bei NewTek : https://ndi.tv/tools/

NDI HX Capture : https://apps.apple.com/de/app/ndi-hx-capture/id1501247823

NDI HX Camera : https://apps.apple.com/de/app/ndi-hx-camera/id1477266080

Michael Greth: Mein Perfekter Tag mit Microsoft 365

In der Video-Reihe "Mein Perfekter Tag" zeigen Mitarbeiter der nteam, wie ihr perfekter Tag aussieht und wie sie die vielen unterschiedlichen Tools von Microsoft dabei begleiten. Den Anfang macht Eileen Erdmann, die sich bei nteam um das Marketing und die Veranstaltungen kümmert.

Hans Brender: OneDrive | Group Policy Change : Allow syncing OneDrive accounts

GPO change: Allow syncing OneDrive accounts for only specific organizations

Microsoft announced. that the behavior for the Group Policy Allow syncing OneDrive accounts for only specific organizations will be changed.

Currently, if you have enabled the setting but have not specified a Tenant ID, the setting will block all organizations.

With this change, having the setting enabled without a Tenant ID being specified will have the same effect as if the feature were disabled.

You do not need to do anything unless you were intentionally relying on the behavior of enabling this setting with no Tenant ID in order to prevent OneDrive from syncing with any organization. In that case, you should mark the setting as Disabled rather than Enabled with a blank Tenant ID.

These changes start beeing roll out mid-May 2020 and will be completed in early June

Resource

Microsoft 365 admin Center : MC211659

Hans Brender: OneDrive | Gruppenrichtlinie Änderung: Synchronisierung von OneDrive

Gruppenrichtlinie Änderung: Synchronisierung von OneDrive-Konten nur für bestimmte Organisationen zulassen

Microsoft kündigte an, dass das Verhalten für die Gruppenrichtlinie "Synchronisierung von OneDrive-Konten nur für bestimmte Organisationen zulassen" geändert werden soll.

Wenn Sie derzeit die Einstellung aktiviert, aber keine Mandanten-ID angegeben haben, wird die Einstellung alle Organisationen blockieren.

Mit dieser Änderung hat die Aktivierung der Einstellung ohne Angabe einer Mandanten-ID die gleiche Wirkung, wie wenn die Funktion deaktiviert wäre.

Sie müssen nichts unternehmen, es sei denn, Sie haben sich absichtlich auf das Verhalten verlassen, diese Einstellung ohne Angabe einer Mandanten-ID zu aktivieren, um zu verhindern, dass OneDrive mit irgendeiner Organisation synchronisiert wird. In diesem Fall sollten Sie die Einstellung als Deaktiviert und nicht als Aktiviert mit einer leeren Mandanten-ID markieren.

Diese Änderungen werden ab Mitte Mai 2020 eingeführt und Anfang Juni abgeschlossen sein.

Quelle

Microsoft 365 Admin Center: MC211659

Hans Brender: Ein Interview mit mir

Hans Brender

in Interview mit mir. Nicht nur über OneDrive. Über Digitalisierung, den Corona Virus, Arbeiten von zu Hause und Digitaliserung … viel Spass beim Lesen

Kein Computer-Virus hat geschafft,
was uns der Corona-Virus ermöglicht hat

Michael Greth: SCHON GEWUSST? – Multi-Faktor-Authentifizierung | Project for the Web | Krisenkommunikation PowerApps | S01E12

In der monatlichen Video-Reihe – „SCHON GEWUSST?“ stellen die Spezialisten von nteam Berlin Neuigkeiten rund um Microsoft und die Themen „Zusammenarbeit“ und „Kommunikation“ vor.

Hans Brender: OneDrive news about Version 20.052.0311.0010

OneDrive: News zu Version 20.052.0311.0010

With the version 20.052.0311.0010 in the production ring there were a few innovations, which Microsoft released on April 23, 2020.

The version 20.052.0311.0010 was first an insider version, which was then released into the production ring. In the Insider ring, version 20.064.0329.0005 is currently being rolled out. In the Enterprise or Deferred Ringit is version 20.052.0311.0006.

And you can already see the name change on the red color

Ring (old name) Ring (new Name)
Insider ring Insider Ring
Production Ring Production Ring
Enterprise Ring Deferred Ring

In the English language we also speak of the Deferred-Ring. In this channel they receive the least updates. Another novelty with the version 20.052.0311.0010 I have already described at the beginning of April 2020: The access to the history version of a file. As described there, I have certain bugs there that I reported to the OneDrive product group, but even in the latest insider version these bugs are not fixed yet. They have also worked on reducing the warnings of the synchronization delay. These occurred more frequently during the Corona crisis. And finally one has improved the help.

more help inside OneDrive more help inside OneDrive

If you click on the displayed version in the settings of the OneDrive Sync Client under the About tab, you will reach the table maintained by Microsoft with the different versions for Windows, MAc, Android and iOS and there you will also see the differences in the rings described above (Insider, Production, Deferred).

Hans Brender: OneDrive Neuheiten zu Version 20.052.0311.0010

OneDrive: News zu Version 20.052.0311.0010

Mit der Version 20.052.0311.0010 im Produktions Ring gab es ein paar Neuerungen, die Microsoft zum 23.04.2020 veröffentlichte.

Die Version 20.052.0311.0010 war zuerst eine Insider Version, die anschließend dann auch in den Produktions-Ring freigegeben wurde. Im Insider-Ring wird derzeit die Version 20.064.0329.0005 ausgerollt. Im Enterprise oder Verzögerter-Kanal ist es die Version 20.052.0311.0011.

Und an der Fareb kann man schon die Namensänderung erkennen

Ring-System Alter Name Ring-System neuer Name
Insiders-Ring Insiders-Ring
Produktions-Ring Produktions-Ring
Enterprise-Ring Verzögerter Kanal

In der englische Sprache wir auch vom Deferred-Ring gesprochen. In diesem Kanal erhalten sie die wenigsten Updates. Eine weitere Neuheit mit der Version 20.052.0311.0010 habe ich schon Anfang April 2020 beschrieben: Der Zugriff auf die History-Version einer Datei. Wie dort beschrieben habe ich dort bestimmte Fehler, die ich der Produkt-Gruppe OneDrive gemeldet habe, aber auch in der neusten Insider-Version sind diese noch nicht behoben. Ausserdem hat man daran gearbeitet, die Warnungen der Synchronisationsverzögerung zu reduzieren. Diese sind vermehrt während der Corona-Krise aufgetreten. Und schließlich hat man die Hilfe verbessert.

erweiterte Hilfe im OneDrive Client erweiterte Hilfe im OneDrive Client

Wenn man in den Einstellungen des OneDrive Sync Clients unter dem Kartenreiter Über auf die angezeigte Version klickt, erreicht man die von Microsoft gepflegte Tabelle mit den unterschiedlichen Versionen für Windows, MAc, Android und iOS und dort dann auch die Unterschiede in den oben beschriebenen Ringen (Insider, Produktion, Verzögert).

Michael Greth: SharePointPodcast 422 – Live – Themen Teams Project Cortex GDPR-Talk mit Nicki Borell

Diese Ausgabe des SharePointPodcast ist eine Premiere - sie wurde am 21.4.2020 um 16:00 Uhr live über Facebook, LinkedIn und Periscope/Twitter gestreamt.

SharePointPodcast: SPPD422 Premiere im Live Stream

Diese Ausgabe des SharePointPodcast ist eine Premiere – sie wurde am 21.4.2020 um 16:00 Uhr live über Facebook, LInkedIn und Periscope/Twitter gestreamt.

Für mich war es ein Belastungstest meines Livestreaming Setups mit Ecamm Live, Mevo Start+, NDI, Elgato Stream Deck, Restream – und siehe da, bis auf einen kleinen Tonfehler (den ich aber schon gefunden haben) lief alles perfekt.

Die Themen

Themen

BuchTipp: Teamarbeit mit MS Teams & OneNote Eva Vogel https://evotrain.de/

Meeting calls mit MS Teams abhalten, Projektdaten erfassen und ordnen, Infos im Team teilen und miteinander das Projekt realisieren. Hier gibts das EBook zum Mitmachen oder NachmachenMeeting calls mit MS Teams abhalten, Projektdaten erfassen und ordnen, Infos im Team teilen und miteinander das Projekt realisieren. Hier gibts das EBook zum Mitmachen oder Nachmachen

Teams Teams Teams

Project Cortex

Talk

SPPD 422 SharePointPodcast Talk mit Nicki Borell über GDPR-DSGVO

 

Michael Greth: Community Meetups im April online

In Zeiten von Corona finden auch die User Groups und Meetups virtuell statt - und zwar recht zahlreich, wie ein Blick in den Terminkalender für den Rest des Monats April zeigt. Danke an alle Organisatoren und interessante Stunden in den Online Meetups!

Carsten Rachfahl [Hyper-V]: Live migration of Hyper-V VMs with a vTPM Chip #HyperV #TPM

Since we have two Azure Stack HCI clusters with TPM version 2 chip, I thought it would be a good idea to encrypt our domain controllers with Bitlocker. Under Hyper-V, it is straightforward to equip a VM with a vTPM chip. To do this, you only have to check the checkbox "Enable Trusted Platform Module" in the settings of a Generation 2 VM (see screenshot).

If the TPM chip is available in the VM, you can now use it for BitLocker. The screenshot shows the TPM information on the left and the BitLocker status on the right.

So far, so good. However, there is a problem if you want to move the VM from one cluster node to another node via live migration. Here the live migration fails with the following error message:

Virtual machine migration operation for 'vTPM2' failed at migration destination 'TAROXS2D4'. (Virtual machine ID 85D7A0BC-9979-4B64-A817-609B14278C67)

The version of the device 'Microsoft Virtual TPM Device' of the virtual machine 'vTPM2' is not compatible with device on physical computer 'TAROXS2D4'. (Virtual machine ID 85D7A0BC-9979-4B64-A817-609B14278C67)

The key protector for the virtual machine '' could not be unwrapped. HostGuardianService returned: One or more arguments are invalid (0x80070057) . Details are included in the HostGuardianService-Client event log. (Virtual machine ID )

In the error text, the "HostGuardianService" is mentioned. Does this mean that we absolutely need it? Fortunately, the answer is no. Don't get me wrong. Of course, for a secure environment, it is advisable to build the Hostguardian Service or better a cluster of Hostguardian Services, but it is also possible without it.

However, we need two certificates per host that are imported on all live migration targets. How do we get these certificates? This is relatively simple.

When a VM is created with a vTPM or a vTPM is activated on an existing VM, Hyper-V creates a "directory" in the local "Certificate Store" called "Shielded VM Local Certificates". The two required certificates, each of which is valid for 10 years, are then created in this directory. They are called:

  • "Shielded VM Encryption Certificate (UntrustedGuardian) (<Hostname>)"
  • "Schielded VM Signing Certificate (UntrustedGuardian) (<Hostname>"

These certificates must be exported, including the private key, and then imported on each host where you want to move the VM. In a Cluster like a Storage Spaces Direct Cluster this is obviously every node.

Since the certificates are only generated when a VM with vTPM is created, the procedure is as follows:

  1. 1
    Create a VM with a TPM on each host or activate the TPM for a VM
  2. 2
    Export certificates from any host including the private key
  3. 3
    Import missing certificates on each host

After this is done, the "Certificate Store" on each system should look like the screenshot.

Now you can move the VM to any node in the Hyper-V cluster.

I have created a video about this topic in which everything is explained again.

Have fun watching.

Der Beitrag Live migration of Hyper-V VMs with a vTPM Chip #HyperV #TPM erschien zuerst auf Hyper-V Server Blog.

Carsten Rachfahl [Hyper-V]: Livemigrieren von Hyper-V VMs die einen vTPM Chip haben #HyperV #TPM

Da wir zwei Azure Stack HCI Cluster mit TPM Version 2 Chip haben, dachte ich mir, es ist doch einen gute Idee unsere Domain Controller mit Bitlocker zu verschlüsseln. Unter Hyper-V ist es kinderleicht eine VM mit einem vTPM Chip auszustatten. Hierzu muss man nur in den Eistellungen einer Generation 2 VM die Checkbox "Enable Trusted Platform Module" anhaken (siehe Screenshot).

Wenn der TPM Chip in der VM verfügbar ist kann man nun dieses z.B. für BitLocker nutzen. Im Screenshot sieht man links die TPM Informationen und Rechts den BitLocker Status.

Soweit so gut. Allerdings gibt es ein Problem wenn man die VM per Livemigration von einem Clusterknoten auf einen anderen Knoten schieben möchte. Hier schlagt die Livemigration mit der folgenden Fehlermeldung fehl:

Virtual machine migration operation for 'vTPM2' failed at migration destination 'TAROXS2D4'. (Virtual machine ID 85D7A0BC-9979-4B64-A817-609B14278C67)

The version of the device 'Microsoft Virtual TPM Device' of the virtual machine 'vTPM2' is not compatible with device on physical computer 'TAROXS2D4'. (Virtual machine ID 85D7A0BC-9979-4B64-A817-609B14278C67)

The key protector for the virtual machine '' could not be unwrapped. HostGuardianService returned: One or more arguments are invalid (0x80070057) . Details are included in the HostGuardianService-Client event log. (Virtual machine ID )

Im Fehlertext wird der "HostGuardianService" erwähnt. Bedeutet das, das wir diesen unbedingt brauchen? Zum Glück ist die Antwort nein. Versteht mich nicht falsch. Natürlich ist es für eine sichere Umgebung ratsam den Hostguardian Service oder besser einen Cluster aus Hostguardian Services zu bauen, aber es geht auch ohne.

Wir brauchen dazu allerdings zwei Zertifikate pro Host die auf allen Livemigrations Zielen importiert werden. Wie bekommen wir nun diese Zertifikate? Das ist relative einfach.

Wenn eine VM mit einem vTPM angelegt wird oder ein vTPM nachträglich bei einer bestehende VM aktiviert wird, erzeugt Hyper-V im lokalen "Certificate Store" ein "Verzeichnis" mit dem Namen "Shielded VM Local Certificates". Darin werden dann die zwei benötigten Zertifikate, die jeweils für 10 Jahre gültig sind, erzeugt. Sie heissen:

  • "Shielded VM Encryption Certificate (UntrustedGuardian) (<Hostname>)"
  • "Schielded VM Signing Certificate (UntrustedGuardian) (<Hostname>"

Diese Zertifikate muss man inclusieve des Private Keys exportieren und dann auf jedem Host der Ziel der Livemigration sein soll, was in einem Storage Spaces Direct Cluster jeder Knoten ist, importieren.

Da die Zertifikate nur erzeugt werden, wenn eine VM mit vTPM erzeugt wird, ist das Vorgehen folgendermassen:

  1. 1
    Auf jedem Host je eine VM mit vTPM erzeugen oder bei einer VM den TPM aktivieren
  2. 2
    Zertifikate von jedem Host einschliesslich des Private Keys exportieren
  3. 3
    Zertifikate auf jedem Host importieren

Nach dem das geschehen ist sollte der "Certificate Store" auf jedem System wie im Screenshot aussehen.

Jetzt kann man die VM im Hyper-V Cluster auf jeden Knoten verschieben.

Ich habe zum Thema ein Video erstellt in dem alles nochmal erklärt wird.

Viel Spass beim anschauen. 

Der Beitrag Livemigrieren von Hyper-V VMs die einen vTPM Chip haben #HyperV #TPM erschien zuerst auf Hyper-V Server Blog.

Arnd Rößner: Windows 10 Mai 2020 Update (Version 2004) fertiggestellt

Windows 10 Mai 2020 Update (Version 2004) fertiggestellt - heise online

Carsten Rachfahl [Hyper-V]: Performance Probleme: Hyper-V Cluster mit SAN Storage und CSVs mit ReFS formatiert

​immer wieder bekommen wir Anfragen von Kunden, die über Performance Problemen​ bei ihrem Hyper-V Failover Clusters ​klagen.  Es handelt sich hierbei um Hyper-V Failover Cluster die ​mit einem iSCSI oder Fibre Channel SAN verbunden sind.

​​Bei der Fehlersuche ist mir aufgefallen, dass die CSVs in den Hyper-V Failover Cluster mit ReFS formatiert wurden. ReFS als Dateisystem ist für ein CSV das an ein SAN angeschlossen ist NICHT supported. Warum das so ist und welche Effekte dabei zu beobachten sind, das möchte ich euch in diesem Blog aufzeigen.

​In den Microsoft Docs findet ihr die unterstützen Umgebungen, dazu zählen

  • Storage Spaces Direct
  • Storage Spaces
  • Backup target
  • Basic Disks

Der große Unterschied ​zwischen ReFS und NTFS Format bei einem CSV sind der Kommunikationsweg, ​den die Änderungsdaten aus der VM ​zu dem darunterliegenden Storage zurücklegen. Was ​ist damit gemeint?

​​Im ersten Beispiel ist das CSV mit NTFS formatiert.

​Das CSV wird von Hyper-V Host1 verwaltet, die VM1 wird von ​Hyper-V Host2 verwaltet. ​Änderungen ​in der VM1 können vom ​Hyper-V Host2 direkt in d​ie .vhdx Datei der VM1 ​gespeichert werden und landen so über Fibre Chanel oder iSCSI auf dem darunter liegenden Storage.​

​Im zweiten Beispiel ist das CSV mit ReFS formatiert.

das CSV wird wieder von ​Hyper-V Host1 verwaltet, unsere VM1 wird durch den Hyper-V Host2 verwaltet. ​​Bei ReFS Formatierung können Änderungen nicht direkt durch den Hyper-V Host2 in die .vhdx Datei der VM1 ge​schrieben werden. Der Hyper-V Host2 muss die Änderungen an den Hyper-V Host1 ​senden und dieser ​schreibt dann die Daten ​auf das CSV. ​Dieses Verhalten ​ wird Redirected Mode genannt.​

Im Storage Spaces Direct Cluster spielt ​der Redirected Mode keine Rolle, da wir hier für die Kommunikation zwischen den Clusterknoten performante Netzwerkverbindungen zur Verfügung haben.

​Genau dieser Redirected Mode ​kann im Hyper-V Failover Cluster mit Fibre Channel oder iSCSI Storage zu erheblichen Performance ​Problemen führen, wenn die VMs durch andere Hyper-V Hosts wie das CSV verwaltet werden. Denn die Daten werden über die zur Verfügung stehenden Clusternetzwerke an den Owner Node des CSVs gesendet. Wie sich das bei 1 Gbit Netzwerken zwischen den Hyper-V Hosts auswirken kann, möchte ich euch an einen Beispiel aus der Praxis zeigen.

Beispiel aus der Praxis

​Unser Kunde hat einen zwei Knoten Hyper-V Cluster mit direkt angeschlossenem NetApp Storage. Die Clusterknoten sind für die Livemigration mit einen Windows Team (LBFO Team) aus zwei x 1Gbit NICs verbunden. Das CSV wurde mit ReFS formatiert. ​Das könnt ihr mit dem PowerShell Befehl

​Get-Volume

feststellen.

​Der Kunde hat nun Tests mit dem Tool "CrystalDiskMark" durchgeführt.

Im ersten Testlauf wurden Daten direkt von dem Hyper-V Host der das CSV als Owner verwaltet auf "C:\ClusterStorage\Volume1" geschrieben. Also in den Mountpoint für das CSV.

​Wir sehen, es gehen kaum Daten über das Netzwerk und wir können mit einer Geschwindigkeit von ca. 6 GBit/s auf das Storage schreiben und Lesen. Wir greifen hier eindeutig über Fibre Channel auf das Storage zu. 

​Für den nächsten Testlauf haben wir das CSV auf den zweiten Hyper-V Host verschoben und ​führen den Test wieder auf "C:\ClusterStorage\Volume1" aus.

​Jetzt können wir sehen, dass ​​während des Lesens und Schreibens ca. 2 GBit an Daten über die Netzwerkkarte gesendet wurden. ​Das zeigt uns, dass der Hyper-V Host, der nicht Owner des CSVs ist, die Änderungsdaten über das Netzwerk an den Ownernode sendet und nicht direkt über Fibre Channel auf das Storage zugreifen kann.  

Um den Redirected Mode bei Hyper-V Cluster mit SAN Storage zu vermeiden, müssen ​die CSVs mit NTFS formatiert werden.

​Ich hoffe ich konnte euch mit diesem Blogpost bei der Suche nach Problemlösungen helfen.

​Bis zum nächsten Mal

Eure Petra

Der Beitrag Performance Probleme: Hyper-V Cluster mit SAN Storage und CSVs mit ReFS formatiert erschien zuerst auf Hyper-V Server Blog.

Michael Greth: Download Tipp: Microsoft Teams Quick Start Guide in deutsch

Patrick Feniger hat den Microsoft's Microsoft Teams Quickstart Guide für Enduser übersetzt, grafisch aufbereitet und ihn auf seiner Seite zum kostenlosen Download bereitgestellt, ideal zum Einstieg.

Michael Greth: Ulis ConsultingBox E02 Retention und Retention Labels

Hier ist die nächste Folge der ConsultingBox. Diesmal geht es um das Thema „Retention und Retention Labels“, also die Aufbewahrung und Archivierung von Inhalten. Nach einer Einführung in das Thema im Kontext von SharePoint und Office 365/Microsoft 365 geht es – sehr praxisorientiert – um die automatische Zuweisung der Retention Labels sowohl mittels Sensitivity Info …

Weiterlesen

SharePointPodcast: SPPD421 Home Office Security mit Uli Boddenberg

Willkommen im #Lockdown

Heute spreche ich mit Uli Boddenberg über verschiedene Aspekte des sicheren Arbeiten im Home-Office mit Office 365.

Links

Schützt die Identität

  • Awareness
  • 2 Faktor

Verhindert Datenabfluss

  • Klare Strukturen, was gehört wohin
  • DLP
  • Insider Risk Management

Bausteine nutzen

  • Klares Konzept, big picture
  • Schulung und ständig dazulernen

Schützt die Endpunkte

  • Awareness
  • Endpoint Protection

 

 

Michael Greth: Download Tipp: Handbuch Microsoft Teams von Dominik Wilsberg

Das Microsoft Teams Handbuch von Dominik Wilsberg umfasst über 300 Seiten und deckt von der Lizenzierung über die Einrichtung, Administration und Anwendung so ziemlich jeden Aspekt von Microsoft Teams ab und bietet zusätzlich viele praktische Tipps.

Carsten Rachfahl [Hyper-V]: Webinar Windows Admin Center und Azure Stack HCI am 3. April um 11 Uhr (in Deutsch)

  • ​Deutsch Sprachiges Webinar
 

Am Freitag den 3. April 2020 um 11 Uhr findet unser kostenloses Webinar "Windows Admin Center und Azure Stack HCI (in Deutsch)" statt. Windows Admin Center ist ein Tool das man zeigen muss also besteht diese Webinar nur aus Demos!

Hier ein Auszug aus dem Inhalt:

  • Demo Cluster Creation Wizard
  • Demo Volumes und Devices
  • Demo VMs
  •  Demo Performance
  • Q&A

Klingt spannend? Dann meldet euch zum Webinar an denn ich kann versprechen es wir interessant.

Carsten

P.S.: Wenn Ihr keine Zeit habt meldet euch trotzdem an, Ihr bekommt dann den Link zur Aufzeichnung automatisch zugeschickt.

Mittlerweile gibt's auch die Aufzeichnung. Der Ton ist zwar etwas schlechter das macht den Inhalt aber nicht weniger interessant. Viel Spass beim anschauen.


Der Beitrag Webinar Windows Admin Center und Azure Stack HCI am 3. April um 11 Uhr (in Deutsch) erschien zuerst auf Hyper-V Server Blog.

Michael Greth: Video HowTos Modernes Arbeiten mit Microsoft Teams

Markus Widl erklärt auf dem Microsoft Business YouTube Channel einige Grundfunktionen von Microsoft Teams: IT Admin, Live Events, Video-Konferenz und Mobiles Arbeiten.

Michael Greth: Online Tages Seminar Telefonieren mit Microsoft Teams am 2.4.2020

Ulrich Boddenberg bietet am 2.4.2020 einen eintägigen Kurs „Microsoft Phone System.Telefonie mit Teams planen und einrichten „

Wer ein wenig mit Teams arbeitet, erkennt schnell, wie praktisch dieses Werkzeug im Arbeitsalltag ist und wie einfach sich viele Aspekte sowohl in der Zusammenarbeit als auch in der Kommunikation damit lösen lassen. Auch Meetings innerhalb und außerhalb …

Weiterlesen

Arnd Rößner: IT küsst DIY

Neues aus dem Home Office – Oder wie bildet man sich weiter ? Mrs.Dunistyle Viele Grüße Euer Arnd

Michael Greth: In die Karten geschaut: Das Erste Hilfe Set für Teams Meetings

Als die Site für praktische Lebenshilfe im Digitalen Nirvana präsentieren wir unser Fundstück des Tages:

Heiko Bartlog lässt uns in die Karten schauen: Karten zum Selbstausdrucken für die Co-Moderation in Remote-Meetings/Videokonferenzen.

Wenns also z.B. mal wieder mal nicht mit dem Ton klappt, kann man die passende Karte seinen Meetingteilnehmern zeigen und das Problem ist …

Weiterlesen

Wolfgang Sauer: Delivery Optimization Cache Server

Hopefully you have read this blog article about the configuration and features of the Microsoft Connected Cache Server. https://techcommunity.microsoft.com/t5/premier-field-engineering/modern-content-distribution-microsoft-endpoint-manager-and/ba-p/1148669 I recorded two short videos about how the interaction looks between the DO client and the DO cache server. Delivery Optimization with Microsoft Connected Cache (loading Store Apps)     Delivery Optimization with Microsoft Connected Cache […]

SharePointPodcast: SPPD420 ShareCamp 2020 und Talk mit Christian Glessner

Die 420 kurz und knapp mit einem Interview vom ShareCamp 2020 mit Mitorganisator Christian Glessner (MVP, Hololux.de über die Community und die Zukunft von Online-Meetings mit Avataren, virtueller Realität und Hololens/Oculus.

Die 420 kurz und knapp mit einem Interview vom ShareCamp 2020 mit Mitorganisator Christian Glessner (MVP, Hololux.de über die Community und die Zukunft von Online-Meetings mit Avataren, virtueller Realität und Hololens/Oculus.

 

Diesmal gibt es das Interview auch als Video:

Carsten Rachfahl [Hyper-V]: Monitoring eines S2D Clusters mit Grafana, InfluxDB und PowerShell (Teil 2)

Hallo, Jan hier mal wieder. Ich komme endlich mal dazu, den Artikel zum Monitoring von S2D mittels Grafana und InfluxDB weiter zu schreiben. Im ersten Teil ging es um die grundsätzliche Einrichtung von Datenbank, Grafana und der Erstellung des ersten Dashboards.
Im diesem zweiten Teil werden wir uns mal anschauen, wie wir relevante Daten einsammeln und mittels Grafana visualisieren.

Update von Grafana

Der letzte Beitrag ist ein bisschen her, daher gibt es auch schon wieder Updates für die von mir genutzte Installation. Das Debian als Basis ist bereits aktuell, allerdings gibt es eine neue Version Grafana. Diese bekommen wir immer von der Hauptseite, dort ist beschrieben wie man das aktuelle Paket zur Installation bekommt: https://grafana.com/grafana/download

Das eigentliche Update gestaltet sich recht einfach, hier zu müssen wir nur das Paket herunterladen und mittels dpkg installieren:

Klappt nach dem Update von ein Aufruf der Hauptseite und eine Anmeldung, scheint das Update geklappt zu haben. In diesem Fall können wir fortfahren mit der Einrichtung.

Einsammeln der Daten mittels Telegram Agent

Im ersten Teil hatten wir uns angeschaut, wie man mittels Influx-Modul per Windows PowerShell einen oder mehrere Werte ausliest und diese dann in die Influx-Datenbank schreibt. Diese Art von Daten sammeln ist nicht gerade ressourcenschonend, daher werden wir uns nun eine andere Möglichkeit anschauen: Telegraf.
Telegraf ist ein Agent, der von den Machern von InfluxDB (der genutzten Datenbank) zur Verfügung gestellt wird. Die Installation und die Nutzung ist ebenfalls kostenlos, nach einem Download und einem entpacken kann direkt losgelegt werden.

Download: https://portal.influxdata.com/downloads/

Zum aktuellen Zeitpunkt ist Version 1.13.3 die aktuelle Stabil-Version. Achtet bei dem Download darauf, vorne den Telegraf-Agent herunterzuladen und nicht eines der anderen Produkte.

Download und Einrichtung

Nach dem Download kann das Zip-Archiv entpackt werden. Damit konstant Daten abgerufen und in der Datenbank gespeichert werden, empfiehlt sich die Einrichtung als Dienst.

Laut der Installationsanleitung empfiehlt es sich, die Daten unter C:\Program Files\ in einem Ordner mit dem Namen Telegraf abzulegen. Das habe ich, wie man in dem Screenshot erkennen kann, gemacht. Nun kann der Dienst registriert werden:

C:\Program Files\Telegraf\telegraf.exe --service install --config "C:\Program Files\Telegraf\telegraf.conf"

Hat die Registrierung geklappt, kann der Dienst entweder per services.msc, per cmd oder per PowerShell gestartet werden.

Die Anpassung der Konfiguration

Die Datei telegraf.conf enthält die Steuerung für den Agenten. Schauen wir uns die Datei mal genauer an. Wichtig hierfür ist ein ordentlicher Editor wie Visual Studio Code oder auch notepad++, ein normales Notepad zerreißt ggf. die gesamte Formatierung und ist nicht zu brauchen.

Globale Einstellungen

Im oberen Teil der Konfiguration können wir im agent-Bereich diverse Optionen angeben, z.B. das Intervall. Damit legen wir fest, in welchem Abstand wir die Daten einsammeln und in die Datenbank schicken möchten. Hier sollten wir einen guten Abstand zwischen "zu selten" und "zu oft" auswählen. Sammeln wir zu selten Werte (z.B. nur alle 60 oder 90 Sekunden), können wir mögliche Ausschläge schlechter erkennen und die gemittelten Werte sind nicht realistisch. Fragen wir hingegen zu häufig Werte ab, erhöht dies die Belastung auf dem System und wir erzeugen künstlich Last.

Wir können mit den Werten jederzeit spielen und testen, das Intervall kann einfach durch diese eine Zeile angepasst werden. Starten wir erst einmal mit 2 Sekunden. Ich gehe nicht auf alle Möglichkeiten ein, nahezu alle Einstellungen sind beschrieben und erklärt. Primär gehe ich auf die Werte und Dinge ein, die ich gegenüber der Haupt-Konfiguration ändere.

OUTPUT PLUGINS

In diesem Bereich müssen wir einstellen, wie wir uns mit der Datenbank verbinden können. Hier tragen wir den Namen bzw. die IP vom Influx-Server ein, den Namen der Datenbank, die Zugangsdaten und auf Wunsch auch noch SSL/HTTPS-Einstellungen.
Mehr ist es dann auch erstmal nicht, damit eine eine grundsätzliche Verbindung zur Datenbank aufbauen können. Kommen wir nun zum spannendsten Teil, die Auswahl der Mess-Counter.

INPUT PLUGINS

Im unteren Teil der Konfigurationsdatei sind standardmäßig bereits einige Performance-Counter vorhanden, z.B. die Auslastung von CPU, RAM usw.

Wenn wir nun die Datei speichern und den Telegraf-Agenten starten (und wir uns nicht vertan haben bei Servername und den Zugangsdaten), sollten die ersten Daten in die Datenbank eingetragen werden. Dies können wir unter anderem probieren, indem wir in einem Dashboard eine neue Abfrage erstellen. Direkt nach der Erstellung einer neuen Query müssten wir unter FROM mehrere Einträge sehen, z.B. win_cpu.

Sind diese Daten vorhanden, funktioniert die Einspielung der Daten vom lokalen Knoten in die Influx-Datenbank. Nun können wir damit fortfahren, die benötigten Daten und Werte zusammenzubringen, die relevant sind bei dem Betrieb von einem S2D Cluster.

Die korrekten Werte

Bei einem Hyper-V Host, einem Failover Cluster Knoten und/oder einem S2D Cluster gibt es mehrere Werte, die interessant sind für die Betrachtung der Performance.
Zum einen wäre da die Auslastung der CPUs in den Hosts. Hier ist wichtig zu wissen, dass ein Hyper-V Host möglicherweise nicht korrekt anzeigt, wie seine wirkliche Auslastung ist. Dies liegt daran, dass das Management OS auf dem System nur "seinen" CPU-Wert anzeigt und nicht den Wert, der auf dem gesamten Host anliegt. Hier ein Beispiel mit konkreten Werten:

Wir sehen in diesem Screenshot sehr gut, wie sich der Wert "Hyper-V Hypervisor Logical Processor" vom Wert "Processor Information" unterscheidet. Der erste Wert ist auf die gesamte Hardware bezogen und spiegelt die Auslastung über alle VMs hinweg wieder, der zweite Wert ist "nur" die CPU vom Management OS. Hier sind die Werte nicht allzu weit voneinander entfernt und auch mehr als unkritisch, teilweise habe ich aber schon Systeme gesehen bei denen die Auslastung bei 80% oder mehr liegt und bei denen dies nicht wahrgenommen wurde, weil schlicht der falsche Werte überwacht wurde.

Ein weiterer Wert, der sinnvollerweise abgebildet werden sollte, ist die Auslastung des RAMs. Hier ist es deutlich einfacher, der Wert kann relativ einfach ausgelesen und angezeigt werden. Da nicht nur der frei RAM, sondern auch der belegte sowie der maximal verfügbare abgefragt werden kann, können hier auch recht einfach "gestackte" Anzeigen gebaut werden, d.h. freier RAM und belegter RAM können in Grafana übereinander gelegt werden, damit dann in Summe der maximal verfügbare Arbeitsspeicher eingesehen werden kann.

Die Auslastung sowie die Belastung der CSV-Datenträger sollte auch im Auge behalten werden, dies ist häufig die Ursache für Probleme oder Performance-Engpässe. Spontan interessante und aussagekräftige Werte ist der gesamte Speicherplatz, der freie bzw. belegte Speicherplatz und die Latenz beim Zugriff auf den Speicher. Eine Monitoring von Netzwerk-Komponenten wie den SMB-Karten, der vSwitch und den Karten allgemein kommt ebenfalls noch hinzu und sollten nicht vergessen werden.

Nachdem wir nun über einen Teil der interessanten Werte gesprochen haben stellt sich jetzt bestimmt die Frage: Wie bekomme ich diese Werte und was muss ich dazu anstellen?

Damit die Werte abgefragt und gespeichert werden können, müssen sie in der Konfigurationsdatei vom Telegraf-Agenten eingetragen werden. Da der Agent auf den Perfmon im Hintergrund zugreift, können die benötigten Werte (mehr oder weniger einfach) über den Perfmon bzw. die Windows PowerShell abgefragt werden.

Schauen wir uns mal einen kleinen Block an, der den Gesundheitszustand der VMs auf dem Host abfragt:

[[inputs.win_perf_counters.object]]
ObjectName = "Hyper-V Virtual Machine Health Summary"
Instances = ["------"]
Measurement = "hyperv.vm.health"
Counters = ["Health Ok", "Health Critical"]

Wir sehen hier in der ersten Zeile unter Objectname das Objekt, welches abgefragt wird. Der Name deckt sich mit dem Namen, der auch im Perfmon abgefragt und eingesehen werden kann. Wenn man nicht genau weiß, wie und was man überwachen soll, kann man hier sehr gut den Perfmon zur Hilfe nehmen und die Namen und Einträge einfach abpinnen.

Der Eintrag Instances fragt ab, welche Instanzen überwacht werden. Habe ich z.B. vier Netzwerkkarten in meinem Server verbaut, könnte ich mit einem "*" alle verfügbaren Karten abfragen. Sollen diverse NICs ausgelassen werden, z.B. die Isatap-Adapter usw., kann ich diese hier aktiv ausschließen. Die Nutzung von 6x "-" führt dazu, dass das Instanz-Bit entfernt wird.

Im oberen Beispiel führt dies z.B. dazu, dass nicht für jede einzelne VM ein Status in die Datenbank eingetragen wird, sondern das die Summe der VMs eingetragen wird. Gebe ich diesen Wert später im Grafana aus, sehe ich immer die Gesamtzahl aller gesunden VMs sowie die Gesamtzahl aller kritischen VMs. Ich könnte diese Summierung natürlich auch später im Grafana machen, da wäre es dann aber mehr Aufwand. Man muss bzw. kann immer pro Abfrage entscheiden, ob man die einzelnen Werte in die Datenbank schreibt oder die Gesamtsumme.

Unter Measurement kann ich angeben, unter welchem Namen die Daten abgespeichert werden. Später in meiner Abfrage (Query) im Grafana sehe ich diesen Namen wieder. Je deutlicher dieser Name gewählt wird, desto einfacher komme ich später bei dem Aufbau der Dashboards zurecht. Der aktuell gewählte Name "hyperv.vm.health" sagt eigentlich schon sehr deutlich aus, was genau hier abgefragt wird.

Zu guter Letzt muss mit Counters ausgewählt werden, welche Daten abgefragt und gespeichert werden. Diese Informationen kann ich ebenfalls sehr gut über den Perfmon abfragen und einsehen, man sieht in dem Screenshot weiter oben die hier angegebenen Counter "Health OK" und "Health Critical".

Wird dieser Block in die Config-Datei eingearbeitet, gespeichert und der Dienst wird kurz durchgestartet, sollten kurz darauf die ersten neuen Einträge in der Datenbank sichtbar sein und über Grafana visualisiert werden können.

Ganz einfach zusammengesetzt kann dies dann z.B. so aussehen:

Bei der Gestaltung der Kacheln sind mehr oder weniger keine Grenzen gesetzt, eine sehr schicke Möglichkeit zur besseren Darstellung ist die Möglichkeit, dass bei "VMs Critical" alle Zahlen größer als 0 direkt Rot angezeigt werden. Wer möchte schon kritische VMs haben ;)

Und welche Werte brauche ich jetzt WIRKLICH?

Microsoft hat in den Docs ein sehr gutes Dokument veröffentlicht, welches einige relevante Werte bei dem Betrieb von Hyper-V aufführt: https://docs.microsoft.com/en-us/windows-server/administration/performance-tuning/role/hyper-v-server/detecting-virtualized-environment-bottlenecks

Hier sind einige gute Werte sowie Grenzwerte aufgeführt, die in einer Umgebung sinnvollerweise nicht überschritten werden sollten. Welche Werte die richtigen für genau euren Bedarf sind kann ich hier nicht generell sagen, das kommt immer auf die Umgebung an. Bei 15 Systemen werden vermutlich 16 unterschiedliche Konfigurationen herauskommen :)

Sehr gut. Und wie bekomme ich die Namen alle raus?

Um die Namen der einzelnen Werte nicht abtippen zu müssen , kann man sich die PowerShell zur Hilfe nehmen. Wenn ich nun z.B. herausgefunden habe, dass ich gerne einzelne Werte aus dem Satz "Cluster CSVFS" haben möchte, kann ich mir diese anzeigen lassen mit

(Get-Counter -ListSet "Cluster CSVFS").Paths

Diese Ausgabe kann ich nun benutzen, um in meiner telegraf-Konfiguration einen neuen Block einzufügen, der die gewünschten Werte abfragt. Da ich immer alle CSV-Datenträger einlesen möchte, wird bei Instances der Wert "*" eingetragen. ObjectName und Measurement kann ich frei wählen, unter Counters werden dann die gewünschten Counter eingetragen.

[[inputs.win_perf_counters.object]]
  ObjectName = "Cluster CSVFS"
  Counters = ["Write Bytes/sec", "Read Bytes/sec", "Writes/sec", "Reads/sec", "Current Write Queue Length", "Current Read Queue Length"]
  Instances = ["*"]
  Measurement = "cluster.storage.csvfs"

So füllt sich dann nach und nach die Konfigurationsdatei und die Werte werden in dem von uns definierten Intervall abgezogen und in die Datenbank geschrieben.

Dateien und Dashboards

Die Datei, die ich während dem Schreiben von diesem Artikel zusammengetragen habe, sieht wie folgt aus:

Das erstellte Grafana-Dashboard sieht wie folgt aus:

Falls jemand das fertige Dashboard als JSON-Datei haben möchte:

Download: Grafana-JSON-File

Wenn ihr für euch ebenfalls ein Dashboard baut und Werte abfragt, könnt ihr diese gerne hier teilen und anderen Lesern die Arbeit ein bisschen leichter machen. Einfach einen kurzen Kommentar dalassen und auf eure Konfig-Datei verweisen. Wenn Fragen sind könnt ihr diese natürlich ebenfalls gern hier in den Kommentaren schreiben, ich lese hier immer noch mit :)

Der Beitrag Monitoring eines S2D Clusters mit Grafana, InfluxDB und PowerShell (Teil 2) erschien zuerst auf Hyper-V Server Blog.

SharePointPodcast: SPPD419 ShareCamp und Talk mit Torben Blankertz

Ein Blick zurück auf den SharePoint Saturday in Bremen und ein Ausblick auf das ShareCamp 2020 - alles im Lichte von COVID-19. Als Talk-Gast habe ich heute Torben Blankertz zu Gast, Spezialist für Projektmanagement mit Microsoft Project und genau darüber habe ich mit ihm gesprochen.

Ein Blick zurück auf den SharePoint Saturday in Bremen und ein Ausblick auf das ShareCamp 2020 – alles im Lichte von COVID-19. Als Talk-Gast habe ich heute Torben Blankertz zu Gast, Spezialist für Projektmanagement mit Microsoft Project und genau darüber habe ich mit ihm gesprochen.

Tipps

Themen

Talk

Marc Grote: Artikel fuer die Printausgabe des IT Administrator (www.it-administrator.de) – “Thycotic Privileged Account Discovery for Windows”

Hallo Leutz,

fuer die Maerz 2020 Ausgabe der Print Ausgabe des IT Administrator habe ich einen Artikel zum Thema “Thycotic Privileged Account Discovery for Windows” geschrieben.
Weitere Informationen findet man hier: https://www.it-administrator.de

Gruss Marc

SharePointPodcast: SPPD418 Cortex, Spaces und Office App

heute kümmere ich mich um ein paar spannende News rund um Office, Teams und Stream

Nächste Woche gibt es den SharePointPodcast vom SPS Bremen heute kümmere ich mich um ein paar spannende News rund um Office, Teams und Stream

Topic

Themen

Tipps

SharePointPodcast: SPPD417 15 Jahre SharePointPodcast Erfahrung macht klug

Hallo liebe Hörer, seit 15 Jahren mache ich heute den SharePointPodcast unter dem  Motto “Themen.Trends.Tipps.Tricks.Talk – das auditive Update für den engagierten SharePoint Anwender”.

Danke an alle Hörer, Interviewgäste, Partner und Unterstützer, die dieses auditive Kleinod über die Jahre mitgetragen haben.

Heute ein paar Tipps

 

 

Carsten Rachfahl [Hyper-V]: How to: Firmwareupdate von NVMe’s oder SSDs mit PowerShell

​Heute möchte ich euch ​zeigen, wie ihr bei eurem Storage Spaces Direct Cluster mit der PowerShell, ​die Firmware eurer NVMe's und SSDs aktualisieren könnt.

​In meinem Beispiel handelt es sich um ein ​3 Node Azure Stack HCI Cluster von HPE auf Basis Windows Server 2019  mit ​je ​24 SSDs vom Type MO001600JWTBT pro Server.

Überprüfen der aktuellen Firmware

​Zuerst überprüfen wir, welche Firmware ist aktuell installiert und unterstützen unsere NVMe's oder SSDs ​das aktualisieren per PowerShell. ​​Einen Überblick über alle Festplatten erhalten wir mit folgenden PowerShell Befehl.

 Get-PhysicalDisk  | Get-StorageFirmwareInformation

steht  "SupportsUpdate" auf "True" können wir grundsätzlich die Firmware der SSDs per PowerShell aktualisieren.

Download der Firmware Datei beim Hersteller

​​Zum Einsatz kommen nur vom Hersteller supportete Firmwareversionen. In meinem Beispiel ​war dies die Firmwareversion "HPD7" die unter folgendem Link heruntergeladen werden kann.

​​Die heruntergeladene .EXE Datei entpacken. ​In ​meinem Beispiel handelt es sich bei der  "TAPM5ALLHPD/.rel" um die Image Datei für das Firmwarupdate. Wenn ihr nicht schon auf dem Server seid, müsst ihr diese in ein Verzeichnis auf dem Server kopieren.

S2DNode und Festplatten in den Maintanence Mode setzen

​Der S2D Node muss vor der Firmwareaktualisierung  "Angehalten" und die Rollen verschoben werden. Im Anschluss müssen die Festplatten des ​S2D Nodes in den "Maintanence Mode" gesetzt werden. Dies könnt ihr über folgende PowerShell Befehle ​erreichen.

# Node anhalten und Rollen verschieben
$Node = <NodeName>
Suspend-ClusterNode -Name $Node -Drain -Wait -Verbose

# Festplatten des Hosts werden in den Maintenance Mode gesetzt
$S2DStorage=Get-StorageFaultDomain -type StorageScaleUnit | Where-Object {$_.FriendlyName -eq $Node}
Enable-StorageMaintenanceMode -InputObject $S2DStorage

Firmwareupdate Installieren

​​​Das Firmwareupdate ​muss lokal auf dem jeweiligen Server ausführt werden. ​Überprüft bitte vor dem Firmwareupate, ob die Festplatten tatsächlich im Maintanence Mode sind. Das könnt ihr z.B. mit folgenden PowerShell Befehl machen.

Get-PhysicalDisk -PhysicallyConnected -StorageNode(Get-StorageNode -Name "$Node*")[1] ​| ft DeviceId, FriendlyName,SerialNumber, Firmwareversion, MediaType,OperationalStatus

​Jetzt kann die neue Firmwareversion ​installiert werden.

$Disks = Get-PhysicalDisk | ? Operationalstatus -eq 'In Maintenance Mode'

foreach($Disk in $Disks) {
    $Disk | Update-StorageFirmware -ImagePath 'C:\install\Firmware für SSD MO001600JWTBT\cp040482\TAPM5ALLHPD7.rel' -SlotNumber 0 -Verbose
}

​Danach muss der ​S2DNode neu gestartet werden. ​​​Nach dem Neustart die Firmwareversion der SSDs kontrollieren, die Festplatten und den ​S2DNode aus dem Maintanence Mode nehmen.

S2DNode und Festplatten ​aus dem Maintanence Mode ​nehmen

# Festplatten des Hosts werden ​aus den Maintenance Mode ​genommen

$Node = <NodeName>
$S2DStorage=Get-StorageFaultDomain -type StorageScaleUnit | Where-Object {$_.FriendlyName -eq $Node}
Disable-StorageMaintenanceMode -InputObject $S2DStorage

# Festplatten kontrollieren
Get-PhysicalDisk

​# Clusterknoten "Fortsetzen und Rollen zurückholen
Resume-ClusterNode -Name $S2DNode -Failback Immediate -Verbose


​Denk bitte daran, dass ihr den Abschluss der Storagejobs abwartet, bis ihr mit den nächsten Knoten forffahrt. Mit

Get-StorageJob

könnt ihr die Storagejobs überwachen.

So, das war es schon.

An dieser Stelle sei darauf hingewiesen, dass ihr solche ​Aktionen nach Möglichkeit nie erstmals an einen Produktivsystem testen solltet. Außerdem ist mit großer Sorgfalt darauf zu achten, dass ihr die richtige Firmwaredatei installiert. Solltet ihr in eurem System NVMe's und SSDs haben, so kann es sein, dass ihr die hier gezeigten PowerShell Befehle anpassen müsst. Ich wünsche euch ganz viel Erfolg dabei und verbleibe bis zum nächsten Mal 

Eure Petra

Der Beitrag How to: Firmwareupdate von NVMe’s oder SSDs mit PowerShell erschien zuerst auf Hyper-V Server Blog.

Marc Grote: Artikel fuer die Printausgabe des IT Administrator (www.it-administrator.de) – “Backup und Restore mit dem System Center Data Protection Manager 2019”

Hallo Leutz,

fuer die Februar 2020 Ausgabe der Print Ausgabe des IT Administrator habe ich einen Artikel zum Thema “Backup und Restore mit dem System Center Data Protection Manager 2019” geschrieben.
Weitere Informationen findet man hier: https://www.it-administrator.de

Gruss Marc

SharePointPodcast: SPPD416 Auf in die Années Folles

Willkommen in den Wilden Zwanzigern

Termine

Themen

Trends

Tipps

Tricks

Talk

Arnd Rößner: Supportende für Windows Server 2008/R2 und WSUS 3.0 am 14. Januar 2020

Supportende für Windows Server 2008/R2 und WSUS 3.0 am 14. Januar 2020  – heise online

Arnd Rößner: Support für WSUS 3.0 SP2 endet

Windows Server Update Services (WSUS) 3.0 SP2 fällt am Stichtag 14. Januar 2020 aus dem Support. Eigentlich wäre das Supportende bereits am 11. Juli 2017 gewesen. Das Enddatum für die erweiterte Unterstützung für Windows Server Update Services (WSUS) 3.0 SP2 wurde vom 11. Juli 2017 auf den 14. Januar 2020 verschoben und somit den Ablaufdaten […]

Bent Schrader: Flackernde Desktop-Icons in einer RDS-Umgebung

Bei einem größeren Kunden, den ich seit einigen Jahren betreue, wurde ich am Ende des vergangenen Jahres mit einem merkwürdigem Phänomen konfrontiert, welches ich so noch nie erlebt habe. Im Rahmen eines größeren Projektes, bei dem sämtliche File-Services verschiedener Bereiche zentralisiert und homogenisiert werden, meldete ein Administrator eines Bereiches ein ungeklärtes Verhalten bei der Arbeit mit dem Terminalserver.

Problem

Der Administrator hatte in relativ kurzer Zeit mehrere Komponenten migriert bzw. erneuert. So wurden sowohl die Benutzerdaten auf ein neues zentrales System verschoben, gleichzeitig aber auch der bestehende Remote Desktop Server-Farm (RDS) in der Version 2008 R2 durch Server der Version 2016 ersetzt. Via Gruppenrichtlinien wurde über die Ordnerumleitung unter anderem auch der Desktop an zentrale Stelle umgeleitet. Einige Benutzer klagten nach der Migration des Bereiches über „flackernde“ Desktop-Icons in ihrer RDP-Sitzung. Da das Problem nicht bei allen Benutzern auftrat, konnte ich mich von dem Phänomen lediglich mit Hilfe eines aufgenommenen Videos überzeugen – die Icons flackerten tatsächlich im gefühlten Sekundentakt.

Ursache

Zunächst hatte ich die Erstellung der Thumbnails (thumbs.db) im Verdacht. So existiert eine Gruppenrichtlinieneinstellung, die die Erstellung der Thumbnails auf Netzlaufwerken unterbindet. Allerdings war genau das vom Kunden nicht gewünscht.

Lösung

Nach intensiver Recherche stieß ich letztendlich auf den folgenden Artikel im Netz. Dieser beschreibt, dass im Benutzer-abhängigen Teil der Registry ein Schlüssel im CLSID-Pfad fehlt, der, obwohl er keinerlei Werte enthält, bei Nichtvorhandensein für das Flackern verantwortlich ist. Der folgende Registrierungsschlüssel ist dabei als Ursache verantwortlich:

HKCU\SOFTWARE\Classes\CLSID\{031E4825-7B94-4dc3-B131-E946B44C8DD5}

Sobald dieser Schlüssel erstellt wurde – wohlgemerkt, ohne dass sich darunter ein Wert befindet – hört der Flacker-Effekt sofort auf.

Die Umsetzung kann mit Hilfe einer Gruppenrichtlinie für die RDS-Benutzer erfolgen, bei der über die Gruppenrichtlinienerweiterung im Benutzer-Zweig der folgende Registrierungswert aktualisiert wird:

HKCU-Registrierungsschlüssel

Wichtig ist dabei, dass die Einstellung im Sicherheitskontext des jeweiligen Benutzers ausgeführt wird:

Ausführung im Sicherheitskontext des Benutzers

Mit der Umsetzung der Richtlinie ist das Problem behoben.

Fazit

Das oben beschriebene Problem ist sicher ein sehr spezielles, wenn man aber den Artikeln im Internet Glauben schenkt, auch kein extrem seltenes. Mit der beschriebenen Lösung lässt sich das Problem relativ schnell beheben, ohne die Erstellung der Thumbnails verhindern zu müssen.

Carsten Rachfahl [Hyper-V]: Neues gemeinsames Treffen der Hyper-V und Hybrid Cloud Community am 27. Januar 2020 in Berlin

Am 27. Januar ist es endlich wieder soweit! Wir haben eine Tolle Agenda für die Hyper-V Community und die Hybrid Cloud Community aufgestellt. Wir treffen uns im Dell EMC Office in Berlin in der Nähe des Flughafen Tegels.

Ich denke wir haben wieder einige interessante Sprecher und Vorträge zu Hybrid Cloud Themen am Morgen und zu Hyper-V Themen am Nachmittag zusammengetragen.

Ein Dank auch an unseren Gastgeben der Dell EMC die uns mit Getränken und Speissen versorgt.

Agenda

Kostenloses Ticket reservieren

Der Beitrag Neues gemeinsames Treffen der Hyper-V und Hybrid Cloud Community am 27. Januar 2020 in Berlin erschien zuerst auf Hyper-V Server Blog.

Arnd Rößner: Frohes Neues Jahr 2020

Hallo Zusammen, ich wünsche Euch ein Frohes Neues Jahr 2020 ! Viele Grüße Arnd Rößner

Marc Grote: Artikel fuer die Printausgabe des IT Administrator (www.it-administrator.de) – “Netzwerkkontrolle mit dem Microsoft Network Policy Server”

Hallo Leutz,

fuer die Januar 2020 Ausgabe der Print Ausgabe des IT Administrator habe ich einen Artikel zum Thema “Netzwerkkontrolle mit dem Microsoft Network Policy Server” geschrieben.
Weitere Informationen findet man hier: https://www.it-administrator.de

Gruss Marc

Don't contact us via this (fleischfalle@alphasierrapapa.com) email address.