TechNet · Englische TechNet Blogs · TechNet Deutschland · itproblogs.de · .NET Blogs

Hans Brender: OneDrive | Synchronisations-Probleme?

Sync Client Reset

Ihr PC zeigt bei OneDrive Synchronisationsprobleme an?

Im Explorer werden bestimmte Dateien angezeigt, die ununterbrochen synchronisiert werden?

Dafür gibt es mehrere Möglichkeiten, das Problem anzugehen. Eine einfache Art ist es , einfach ein Reset auf den Synchronisations-Client auszuführen.

Ich hatte bei einem Rechner seit ein paar Tagen Probleme. So wurde die Synchronisation nur bei Start von Windows ausgeführt. (allerdings nur bei einem Tenant, denn die Synchronisation bei dem zweiten Tenant funktionierte immer. Das wurde lästig.

 

Hier einmal das Mengengerüst

Beschreibung

Dateien

Ordner

OneDrive for Business

17.544

704

Dokument Bibliotheken

31.398

1.385

     
Summe

62.942

2089

Weil ich ‘Files on Demand’ einsetze, werden nicht alle Dateien synchronisiert. Aber zumindest  die Struktur, Ordnernamen und Dateinamen müssen synchronisiert werden. Bestimmte Informationen liegen auch im Cache, der auch aufgeräumt werden sollte.

Aufruf der Ausführen App

Dazu geben Sie bei ihrem Windows 10 im Suchfenster links unten den Begriff “Run” ein un bestätigen Sie die App “Run”

Kopieren sie die nachfolgendes Kommando und fügen es  in der Open Zeile ein

%localappdata%\Microsoft\OneDrive\onedrive.exe /reset

 

Befehl ausführen

Jetzt wird OneDrive erst einmal beendet. Danach wird ein Reset auf alle Synchronisierungen gebildet und es wird ein Abgleich durchgeführt. Sollte auch nach mehreren Minuten keine Symbol in der Benachrichtigungszeile rechts unten erscheinen so können Sie nach der obigen Methode den OneDrive Client neu starten.

Der Befehl lautet jetzt:

%localappdata%\Microsoft\OneDrive\onedrive.exe

ich habe oben das Mengengerüst dargestellt, denn es wird schon eine geraume Zeit dauern, bis der Abgleich von 62.942 Dateien in 2089 Ordner erfolgt ist. Bedeutet, abhängig vom der Bandbreite des Internetzugangs, der Anzahl von Dateien, der Rechnergeschwindigkeit dauert ein Reset unterschlich lange.

Gebt dem Rechner also eine Chance…

Carsten Rachfahl [Hyper-V]: Webinar Azure IaaS – Hybrid cloud für/for IT-Pros am 14. Juni um 11 Uhr (in Deutsch) und 5 pm (in English)

  • ​Deutsch Sprachiges Webinar
  • ​Englisch sprachiges Webinar

On the 14th of June don't miss our free Webinar Azure IaaS - Hybrid cloud for the IT-Pro (in English). Why an Azure IaaS Webinar for an on-premises IT-Pro audience? Because when you start to look at the Azure Cloud, there is an overwhelming amount of information. With this Webinar, I like to give an insight into my struggles when I started with Azure IaaS.


Here is a peek into the Agenda:

  • Hyper-V vs. Azure IaaS
  • Networking in Azure
  • How to connect on-Premises with Azure
  • Tipps
  • lots of Demos
  • Q&A

Carsten

P.S.: To sign-up click on the picture or here! Don't worry that you maybe have no time to attend this Webinar if you sign-up you will get a link to the recording afterward.


Der Beitrag Webinar Azure IaaS – Hybrid cloud für/for IT-Pros am 14. Juni um 11 Uhr (in Deutsch) und 5 pm (in English) erschien zuerst auf Hyper-V Server Blog.

SharePointPodcast: SPPD411 Podcastertreffen auf dem Collabsummit 2019

Was für ein toller Event – der European Collaboration Summit 2019 in Wiesbaden. Danke an alle Hörer, die mich auf der Konferenz angesprochen und mir Feedback zum Podcast gegeben haben – dafür macht man es ja!

Die eingeschränkte Tonqualität des Interviews könnt ihr mir ankreiden, der Schuldige war aber definitiv er hier, nein doch nicht, ich habe ihn halt vergessen anzustecken …

Egal, ich habe es trotzdem aus dokumentarischen Zwecken mit eingebaut, denn wann treffen sich schon mal drei  Office365/SharePoint-Podcaster im deutschsprachigen Raum zu einem gemeinsamen Podcast.

Links:

 

Michael Greth: ECS2019 – Neues von Microsoft Stream

Auf dem Collabsummit 2019 hatte ich Gelegenheit mit Dan Holme, Microsoft Director of Marketing SharePoint, Yammer and Stream, nicht nur über die Neuerungen in Microsoft Stream wie Umfragen, mobile Video-Uploads usw. zu sprechen, sondern auch in einem Überblick auf die anderen Themen wie Lizenzierung, KI-Funktionen und Live-Events einzugehen.

Da meine Videos auch immer Vorlagen für …

Continue reading

Michael Greth: Webinaraufzeichnung DragPad Mails und Dokumente schneller und besser in SharePoint/Teams speichern

Mails und Dokumente schneller und besser in SharePoint/Teams speichern – diesem Problem ist Ulrich Boddenberg in seinem Webinar auf den Grund gegangen und stellt mit DragPad eine passenden Lösung aus seinem Toolset vor. Die Aufzeichnung steht jetzt auf unserem Youtube Kanal bereit.

Im Video wird gezeigt, wie DragPad die Arbeit mit SharePoint/Teams/Office 365 für …

Continue reading

Michael Greth: Video im Unternehmen mit Microsoft Stream

Auf dem European Collaboration Summit 2019 habe ich in meinem Vortrag „Best Practice with Company Video on Microsoft Stream“ nicht nur einen Überblick über die Funktionen von Microsoft Stream erläutert, sondern auch meine „Toolbox“ geöffnet und gezeigt, mit welchen Mikrofonen, Kameras, Mixern usw. ich Videos aufzeichne und sie z.B. mit SwitcherStudio live streame – hier …

Continue reading

Carsten Rachfahl [Hyper-V]: Hyper-V Amigos Showcast Episode 18 – Hyper-V 2019 and Persistent Memory

Endlich hatte ich die Zeit diesen Showcast den Didier & Ich im März noch aufgenommen haben zu veröffentlichen. Das Thema ist allerdings weiterhin brandaktuell:  Persistent Memory in Hyper-V 2019 Ich möchte euch nicht Spoilern aber ich habe noch nie eine so schnelle VM gesehen wie wir in diesem Showcast zeigen. Schaut selbst.

Der Beitrag Hyper-V Amigos Showcast Episode 18 – Hyper-V 2019 and Persistent Memory erschien zuerst auf Hyper-V Server Blog.

Bent Schrader: PowerShell: Ablaufdatum des eigenen Kennworts ermitteln

Durch Richtlinien erzwungene, wechselnde Kennwörter sind in Active Directory Umgebungen ein probates Mittel, um den Kennwort-Hash eines Benutzers zyklisch zu ändern. Arbeitet man in vielen unterschiedlichen Umgebungen – bspw. im Support für Kunden – so entsteht oftmals die Frage, wie lange das eigene Kennwort eigentlich noch gültig ist.

Der folgende PowerShell-Befehl löst dieses Rätsel in kürzester Zeit. Dabei wird das Attribut msDS-UserPasswordExpiryTimeComputed des Benutzer-Objektes ausgelesen und die verbleibende Gültigkeit in Tagen berechnet:

([System.Security.Principal.WindowsIdentity]::GetCurrent().User).Value | get-aduser -Properties Displayname,PasswordLastSet,msDS-UserPasswordExpiryTimeComputed | Select-Object -Property Displayname,SamAccountName,PasswordLastSet,@{Name="ExpirationDate";Expression={[datetime]::FromFileTime($_."msDS-UserPasswordExpiryTimeComputed")}},@{Name="Duration";Expression={$(New-TimeSpan -Start $(Get-Date) -End $([datetime]::FromFileTime($_."msDS-UserPasswordExpiryTimeComputed"))).ToString("%d")+" days"}}

Das Ergebnis der Abfrage sieht dann in etwa so aus:

Anzeige und Berechnung der Gültigkeit des Kennwortes

Mit dem aufgeführten PowerShell-Kommando kommt man relativ zügig zum gewünschten Ergebnis. Wer mag, kann den Befehl auch in Anmelde-Skripten integrieren, um dem Benutzer eine etwas vorausschauendere Information über das Kennwortalter zu geben.

Michael Greth: AI for Good Talk with Shelley McKinley

Shelley McKinley ist Head of Microsoft Technology and Corporate Responsibility Group und ich hatte die Gelegenheit, mit ihr über das Microsoft AI for Good Programm zu sprechen. Das Programm fördert Ideen und Initiativen, die mit Hilfe der künstlichen Intelligenz in den Bereichen Humanitarian Action, Barrierefreiheit und Umwelt innovative Lösungen entwickeln

AI for Good

Hans Brender: No Update to Windows 10 1903, if KFM is installed

Blog 72

If you wait for the Update from Windows 10 Version 1809 to 1903, one possible reason is, that you have KFM Known Folder Move installed. This prevents, that you will not receive the install file. And you should NOT install it manually.

Microsoft knows about the bug and there is no workaround. They will have a fix available in late May.

Remarks:

So KFM has issues with Windows 10 1809, so there might still be some issues with KFM and the implementation in Windows.  So as an Windows Insider I  have tested it on one device, but unfortunately, no KFM installed.

 

Source: Microsoft

Hans Brender: European SharePoint Office 365 & Azure Conference at Prague

ESPC19-02

It’s a long time until December 2019. Starting at 2nd of December with Full day classes and end at 5th of December. Prague, Czech Republic hosts the ESPC 2019 this year.

I will speak there about

Intelligent Acceleration of Daily Work with OneDrive

Maybe we see us there ?

Hans Brender: SharePoint Top 25 Influencers 2019

SharePoint Top25 Influencers 2019

Während der European SharePoint, Offdice365 & Azure Conference, kurz ESPC im Herbst 2018 wurde ich auf den 4. Platz gewählt (Europa).

Umso mehr freut es mich, bei der Verleihung der weltweiten Influencer auf der SPC 2019 in Las Vegas auf den 7.Platz gelandet zu sein. Es freut mich, Teil dieser Community zu sein. Vielen Dank an harmon.ie.

During ESPC 2018, i was nominated and voted as #4 of the Top European SharePoint Influencers.

During SPC 2019  I was ranked as #7 of the world wide SharePoint Influencers. It’s an honor for me, be part of this community.

Thanks to harmon.ie

SharePoint Top25 Influencers 2019

Michael Greth: Webinar Mails und Dokumente schneller und besser in SharePoint/Teams speichern*

Speichern von Mails, Mail-Anhängen und Dokumenten in SharePoint/Teams/Office 365? Dabei auch noch einfach und schnell den richtigen Inhaltstypen auswählen und Metadaten ergänzen…..? Was sich eigentlich ganz simpel anhört ist, für die Anwender in der Praxis gar nicht so trivial.

Ulrich Boddenberg, der seit über 15 Jahren SharePoint-Projekte begleitet, hat einige nützliche Tools entwickelt. Eines …

Continue reading

Carsten Rachfahl [Hyper-V]: VMs booten nach Umzug auf Windows Server 2019 nicht mehr

Hallo, Jan hier. Ich komme gerade von der CDC Germany 2019 wieder und müsste eigentlich schnellstens ins Bett, aber ich habe gerade noch eine ziemlich gute und wichtige Sache, die ich hier noch kurz loswerden möchte. Vielleicht hilft es ja dem ein oder anderen, der auch an diesem Problem hängt.

Das Problem

Wenn man eine oder mehrere Hyper-V VMs der Generation 2 von einem Windows Server 2012 R2 oder Windows Server 2016 auf einen Hyper-V unter Windows Server 2019 umzieht, kann es vorkommen, dass die VMs nicht mehr booten können und folgende Fehlermeldungen im Eventlog auftauchen:

Critical - Hyper-V-Worker - 18604 - None
"VM" has encountered a fatal error but a memory dump could not be generated. Error 0x2. If the problem persists, contact Product Support for the guest operating system. (Virtual machine ID XXX)

Critical - Hyper-V-Worker - 18560 - None
"VM" was reset because an unrecoverable error occurred on a virtual processor that caused a triple fault. If the problem persists, contact Product Support. (Virtual machine ID XXX)

Das Problem ist auch bei Microsoft bekannt, Ben Armstrong hat hierzu einen Blogpost im Januar 2019 veröffentlicht: 

Als temporäre Lösung konnte man die MAC-Adresse der betreffenden VMs umstellen, danach starteten die VMs wieder. Das ist aber, je nach System, keine Lösung (Linux, Lizenzen auf MAC-Basis usw...)

Die Lösung

Microsoft hat gestern (21.05.2019) ein Update veröffentlicht: ​May 21, 2019—KB4497934 (OS Build OS 17763.529)

In den Changelos-Informationen befindet sich unter anderem folgender Satz:

Addresses an issue that prevents a Generation 2 virtual machine from starting on a Windows Server 2019 Hyper-V host. In the Microsoft-Windows-Hyper-V-Worker-Admin event log, Event ID 18560 displays, “VM name was reset because an unrecoverable error occurred on a virtual processor that caused a triple fault.”

Heißt folglich: Nach der Installation des Updates sollte das Problem gelöst sind. Ich konnte es aktuell noch nicht testen, aber die Beschreibung deutet schon ganz stark darauf hin, dass die Probleme damit beseitigt sind. Denkt bitte daran, dass Update zu testen vorher, da es erst ganz frisch erschienen ist und vermutlich noch nicht wirklich viele Installationen gemacht und zur Not dokumentiert wurden. Aber zum Glück haben wir ja alle nen eigenes Test-Cluster nur für solche Zwecke laufen ;)

Der Beitrag VMs booten nach Umzug auf Windows Server 2019 nicht mehr erschien zuerst auf Hyper-V Server Blog.

Michael Greth: SPC 19 SharePoint stärker denn je

Starke Überschrift, aber es ist schon sehr bemerkenswert zu sehen, wie der Brand „SharePoint“ nicht nur als Wort funktioniert. Im Rahmen von Microsoft 365 ist SharePoint eine unglaublich starke Position nicht nur als technisches Backend, sondern auch als Kern von Content und Collaboration. SharePoint bietet heute dem Anwender Funktionen, von denen  wir früher, in der …

Continue reading

faq-o-matic: CDC-Folien: Design for Change – Active Directory für das Cloud-Zeitalter

Auf der Cloud & Datacenter Conference Germany 2019 habe ich die Session “Design for Change – Active Directory für das Cloud-Zeitalter” mit fast 100 Leuten im Publikum gehalten. Hat Spaß gemacht, vielen Dank!

Die Folien zu meinem Vortrag finden sich hier, auch diesmal inklusive der Notizen:

[CDC-Folien: Design for Change – Active Directory für das Cloud-Zeitalter – michael wessel Blog]
https://blog.michael-wessel.de/2019/05/22/cdc-folien-design-for-change-active-directory-fuer-das-cloud-zeitalter/

Michael Greth: Heute um 21:00 Uhr gibt es SharePoint News

Heute um 21:00 Uhr wird Jeff Teper in seiner Keynote auf der SharePoint Conference NA in Las Vegas erzählen, was es neues zu SharePoint, Teams, Yammer, OneDrive & Co gibt – livestreaming gibt es hier  – ich bin gespannt.



SharePointPodcast: SPPD410 Freikarte für SharePointKonferenz Wien zu gewinnen

Es gibt mal wieder etwas zu gewinnen im SharePointPodcast – eine Freikarte für die SharePoint Konferenz Wien am 25.-26.6. und wir blicken gespannt auf die Ereignisse der nächsten Wochen – der SPC19 in Las Vegas und dem Collabsummit in Wiesbaden.

Aktion

Termine

Webinar

Themen

Talk

faq-o-matic: storage2day: Fachkonferenz mit Super-Frühbucherrabatt

imageDer heise-Verlag richtet im September 2019 zum ersten Mal die neue hochkarätige Fachkonferenz “storage2day” aus. Die zweitägige Konferenz vom 18. bis 19. September 2019 bietet ein anspruchsvolles Programm mit Sessions zu Storage- und Rechenzentrumsthemen. Ein optionaler Workshoptag vor der Konferenz bietet Gelegenheit, bestimmte Themen praxisorientiert zu vertiefen.

Das Feld der Sprecherinnen und Sprecher setzt sich zusammen aus Fachleuten verschiedener Herkunft – Praktiker, Analysten, Hersteller beleuchten eine große Bandbreite an Aspekten zu den Konferenzthemen. Auch unser Blog ist vertreten, sogar mit zwei Vorträgen.

Ein paar Tage lang gilt noch der “Super-Frühbucherrabatt”: Wer bis zum 26. Mai 2019 sein Ticket bucht, spart gegenüber den Normalpreis satte 300 Euro. Nähere Informationen und die Tickets gibt es hier:

[storage2day 2019 – Die Konferenz zu Speichernetzen und Datenmanagement ::]
https://www.storage2day.de/

Michael Greth: Der Weg zum Microsoft Modern Secure Workplace

Es ist der Alptraum eines jeden Systemadministrators. Die Systeme wurden gehackt, der Hoster meldet ein Datenleck oder man steht selbst in der Pflicht, Datenschutz nachzuweisen. Deswegen auf Modern Workplace Lösungen verzichten? Keineswegs!

Sicherheit bietet die Verschlüsselung von Dateien, aber sie muss für den Anwender einfach und transparent im Hintergrund stattfinden, damit sie auch wirklich genutzt …

Continue reading

Michael Greth: DSGVO Armageddon

Die DSGVO hat uns nicht nur mehr Datenschutz gebracht, sondern auch einige teils exotische Auswüchse. Auf der re;public19 habe ich mir den Vortrag von Katharina Nocun und  Lars dP Hohl  „Best of DSGVO-Armageddon“ angehört. Eine gute Zusammenfassung über all die Kuriositäten und Missverständnisse im Rahmen der Einführung der EU-Datenschutzgrundverordnung wie Visitenkarten, geschwärzte Kindergartenbilder oder Livestreams …

Continue reading

Michael Greth: Die wichtigsten Infos von der BUILD 2019

Auf der Entwicklerkonferenz BUILD gibt Microsoft jedes Jahr einen Einblick in die neuesten Technologien, Visionen und Produkte auf dem Microsoft Ökosystem. Das heißt entweder mal 2 Stunden Keynote schauen oder das Book Of News herunterladen, in dem alle Ankündigungen schriftlich zusammengefasst sind.

Download Book Of News BUILD 2019

Michael Greth: SharePointPodcast vor Ort Modernes Intranet mit wizdom-intranet.com

Rückblick auf die Intranet Reloaded in Berlin #intreleu – Ich habe mit Dan Thomsen über den Wizdom-Intranet-Baukasten gesprochen und wie man die Komplexität in Office 365 für den Anwender reduzieren kann.

Michael Greth: Connect Share Lead – Vernetzt Arbeiten mit Isabel de Clercq

Auf der Intranet Reloaded habe ich mit Isabel De Clercq über ihr Buch „Vernetzt Arbeiten – Soziale Netzwerke in Unternehmen“ und ihre Ideen zum New Way Of Work gesprochen.

Michael Greth: MSBUILD – Public Viewing der Eröffnungskeynote

Heute startet in Seattle die Microsoft Entwicklerkonferenz BUILD. Die Eröffnungskeynote wird live gestreamt und quer durchs Land finden sich Usergroups und Meetups zum Public Viewing zusammen – hier die Übersichct aus der Techwiese

Die Public Viewing-Termine im Überblick
  • München: Microsoft Build Community Live Viewing bei Microsoft Deutschland (ab 16:30 Uhr)
  • Köln: Microsoft BUILD Keynote Viewing Party beim …

    Continue reading

Hans Brender: SharePoint: Restore of files from document libraries

Restore of Files from doclibs in SharePoint Online

Another self-service, once you have captured an encryption virus, or accidentally deleted one or more files or even entire folders. It has been around for OneDrive for Business for a while, and this service is currently rolled out on all tenants in Office 365. The procedure is the same everywhere.

Use a browser to navigate to the document library where you want to restore files.SharePoint Online : Settings

Then click on the gear icon. Now you see all the settings and there is also the item “Restore this library”". (If it does not show up yet, it’s not currently available in your tenant).

Click on Restore…

SelfServcice Portal: Restore of files  in SharePoint Online

brings us the image of time restriction and selection known from OneDrive for Business.
The procedure is, as I said, not only for all document libraries, but also for the documents that you have stored in OneDrive for Business.

Hans Brender: SharePoint: Wiederherstellen von Dateien in Dokumentenbibliotheken

Widerherstellen von Dateien in Dokumentbibliotheken von SharePoint Online

Ein weiterer Self-Service, wenn man sich einmal einen Verschlüsselungsvirus eingefangen hat, oder versehentlich ein oder mehrere Dateien oder gar ganze Ordner gelöscht hat. Für OneDrive for Business gab es das schon länger, derzeit wird dieser Service auf allen Tenants in Office 365 ausgerollt. Die Vorgehensweise ist überall gleich.

Navigieren Sie mit einem Browser zur Dokumentenbibliothek, wo sie Dateien wiederherstellen möchten.

SharePoint Online : Eigenschaften

Klicken Sie dann auf das Zahnradsymbol. Jetzt sehen Sie alle Eigenschaften und dort taucht auch das Wiederherstellen auf. (Wenn es noch nicht auftaucht, dann ist es derzeit noch nicht in ihrem Tenant verfügbar).

Ein Klick auf Wiederherstellen…

SelfServcice Portal Widerherstellen in SharePoint Online

bringt uns das von OneDrive for Business bekannt Bild der zeitlichen Einschränkung und Auswahl.

Die Vorgehensweise gilt wie gesagt nicht nur für alle Dokument Bibliotheken, sondern auch für die Dokumente, die Sie in OneDrive for Business abgelegt haben.

Ist das ein Backup

Die Antwort ist schlichtweg ein NEIN. Das ganze kommt aus einer seit Jahren in SharePoint existierenden Technologie mit den Namen Versionierung

Wir eine Datei in einer Dokument Bibliothek in SharePoint Online gespeichert und ist dort Versionierung eingeschaltet, so wird jede Änderung, egal ob in der Date (Änderung am Dokument oder aber beim erneuten Abspeichern oder auch bei einer Umbenennung. Dabei spielt es keine Rolle, ob das

  • Im Windows Explorer
  • In Office (Word, Excel, PowerPoint)
  • von anderen Programmen (Apps) wie Paint. Notepad, …
  • im Web-Browser ihrer Wahl
  • Programme, die die API von OneDrive benutzen

Solange die Datei in einer Dokument-Bibliothek mit eingeschalteten Versionierung gespeichert ist, werden alle Änderungen in verschiedenen Versionen abgespeichert.

Und genau auf diese Versionen setzt die Restore Funktionalität auf. Das ist weitaus mehr, als viele Backup-Programme können. Werden versehentlich mehrere Dateien gelöscht, können diese auf den vorherigen letzten Stand zurückgesetzt werden. Mit ein paar simplen Klicks.

Ohne den Administrator zu fragen.

    Michael Greth: 15 Minuten Zeit ? Das ist Microsoft Teams

    Photo by Drew Coffman on Unsplash

    An Microsoft Teams kommt man nicht mehr vorbei, zumindest wenn man mit Office 365 unterwegs ist.

    Aya Tange, Product Marketing Manager für Microsoft Teams, zeigt in diesem Tutorial auf der Microsoft Ignite Tour in Amsterdam in 15 Minuten, was Teams ist und wie man mit Teams arbeitet.

    New to Microsoft …

    Continue reading

    Marc Grote: Artikel fuer die Printausgabe des IT Administrator (www.it-administrator.de) – “Neue Sicherheitsfunktionen in Windows Server 2019”

    Hallo Leutz,

    fuer die Mai 2019 Ausgabe der Print Ausgabe des IT Administrator habe ich einen Artikel zum Thema “Neue Sicherheitsfunktionen in Windows Server 2019” geschrieben.
    Weitere Informationen findet man hier: https://www.it-administrator.de

    Gruss Marc

    Carsten Rachfahl [Hyper-V]: Storage Spaces Direct Quicky: sind die Storage Repair Jobs fertig?

    Wenn wir in Kundenprojekten Storage Spaces Direct implementieren habe ich oft beim Kunden ein Aha Erlebnis was ich mit euch teilen möchte. 

    Folgendes Scenario: wir haben eine Storage Spaces Direct Cluster zu patchen. Wie geht man vor? Bei Hyper-V verschiebt man die VMs auf einen Anderen Host, installiert die Patche und bootet das System. Wenn der Host wieder da ist wiederholt man den Prozess bei dem nächsten Host und so weiter.

    Das ist keine gute Idee bei einem Storage Spaces Direct System!

    Falls ihr diese Vorgehen anwendet lauft ihr Gefahr in große Schwierigkeiten zu kommen. Ihr fragt warum? Nun nach dem Join des bootenden Hosts in den Cluster müssen noch Repairjobs im Storage Spaces Layer laufen die alle Datenänderungen die nicht auf den bootenden Host geschrieben werden könnten durchführt. Diese Repairjobs dauern in der einige Minuten und können bei großer Belastung auch bis zu einer Stunde dauern.

    Die Gefahr ist nun das Ihr einen zweiten Knoten bootet während die Daten der Volumes noch nicht vollständig repariert sind. Wenn das passiert ist man bei Verwendung eines 2-wege Spiegel jetzt bereits in Schwierigkeiten (die Volumes wären jetzt offline und alle VMs gehen in den "Pause Critical" Zustand. Erst wenn der zweite Knoten wieder den Cluster joined können die Volumes wieder online genommen werden). Wenn wir einen drei-wege Spiegel benutzen passiert das zwar nicht, aber bei einem Ausfall eines Storage Devices in einem Dritten Knoten sind dann auch die Daten nicht zugreifbar.

    Die Frage ist also wie vermeide ich das? Ganz einfach wir müssen warten bis die Repair Jobs abgeschlossen sind und alle Volumes wieder Healthy bevor wir uns den nächste Knoten vornehmen.

    Die Storage Repairjobs kann man zum einen mit dem Windows Admin Center im Hyper-converged Scenario und zum anderen mit mit Powershell sehen.

    Bei PoweShell sind hierbei zwei CmdLets wichtig:

    Get-VirtualDisk

    ​​Get-StorageJob

    Wenn Ihr gerne seht was im Cluster passiert und vielleicht auch den Fortschritt der Repairjobs sehen möchte, der kann folgende kleine PowerShell Zeile helfen:

    do {Get-VirtualDisk | ft; Get-StorageJob | ft; sleep 3} while($true)

    Die verwendete "do { } while($true)" Schleife ist hierbei eine "Endlos Schleife" die alle CmdLets zwischen den beiden "{}" Klammern ausführt bis die Schleiefenverabeitung abbrochen wird. Ihr könnt diese beliebig für eure Zwecke erweitern.

    Ich verwende z.B. oft eine Variante des Befehls, der mir zusätzlich die Cluster Knoten und die Nicht Healhy Disks anzeigt:

    do {Get-ClusterNode|ft; Get-VirtualDisk|ft; Get-StorageJob|ft; get-Physicaldisk | where HealthStatus -ne Healthy|ft; sleep 3} while(1)

    Ich wünsche euch viel Spass beim experimentieren.

    Der Beitrag Storage Spaces Direct Quicky: sind die Storage Repair Jobs fertig? erschien zuerst auf Hyper-V Server Blog.

    faq-o-matic: Google-Kontakte importieren: CSV-Feldnamen

    In einen Google-Account kann man vorhandene Kontakte aus einer CSV-Datei importieren. Leider gibt es dazu im Google-GUI fast keine Hinweise, weshalb der Vorgang zunächst oft fehlschlägt. Der Grund dafür: Google erwartet ganz bestimmte Feldnamen in der Datei und akzeptiert keine Abweichungen. Eine Zuordnung lässt sich beim Import leider nicht vorgeben, weshalb man die Quelldatei bearbeiten muss. Nur wie heißen die Felder?

    Ein Blogpost gibt Auskunft:

    [CSV-Dateien in Google Kontakte importieren – Jörgs Blog]
    https://joergnapp.de/csv-dateien-google-kontakte-importieren/

    Michael Greth: Kostenlose Whitepaper und E-Books SharePoint Server 2019 und Migration

    Kompakte Zusammenfassungen, Best-Practice, Tipps und Anleitungen: deshalb liebe wir Whitepaper und E-Books, und ein paar aktuelle kostenlose Downloads habe wir euch hier zu den Themen SharePoint Server 2019 und Migration zu Office 365 zusammengestellt.

    faq-o-matic: ADModify herunterladen und ausführen

    Alte Hasen in der IT erinnern sich gern an ADModify.NET, mit dem man recht komfortabel Massenänderungen an Objekten in Active Directory ausführen kann. Bei uns gibt es auch einen Artikel dazu:

    [Massenänderungen mit ADModify | faq-o-matic.net]
    https://www.faq-o-matic.net/2005/10/01/massenaenderungen-mit-admodify/

    Leider gibt es das Tool nicht mehr ohne Weiteres zum Download, weil Microsoft 2018 seine Open-Source-Plattform Codeplex eingestellt hat. Dort findet man nur noch einen Archiv-Download …

    … aber der enthält eben doch die ausführbare Version. So geht’s:

    • Lade dir das Archiv herunter:
    • https://archive.codeplex.com/?p=admodify
    • Entpacke es in einen Ordner. Im Ordner „Releases“ enthält der Unterordner „1“ die letzte Version. Beide Dateien, die dort liegen, benennst du um, sodass sie „.zip“ als Extension tragen. Die Fassung in dem Zip, das mit 035… anfängt, scheint aktueller zu sein.
    • Also das Zip ebenfalls entpacken, dort kannst du dann die Admodify.exe starten. Auf einem neueren Windows musst du evtl. noch die .NET-3.x-Features aktivieren (enthält das angeforderte .NET 2.0).

    Das Tool ist sehr leistungsfähig, du kannst dort ein Set an Objekten mit einem LDAP-Filter auswählen, die gewünschten Änderungen per GUI vornehmen und es dann loslaufen lassen. Jede Änderung landet in einer Undo-Datei, sodass man sie auch wieder rückgängig machen kann.

    Einsatz natürlich auf eigenes Risiko!

    Sollte Microsoft den Codeplex-Download vollständig entfernen, findet sich hier vorsichtshalber das Archiv von der Seite – da es Open Source ist bzw. war, dürfte das OK sein:

    Note: There is a file embedded within this post, please visit this post to download the file.

    Es sei bei der Gelegenheit aber noch auf ein anderes Tool hingewiesen, das Norbert Fehlauer noch besser findet:

    http://www.wisesoft.co.uk/software/bulkadusers/default.aspx

    Hans Brender: OneDrive: new Symbols in Version 19.074.0416.0001

    new OneDrive Icons

    I can only smile about that. but many are happy about it. About the new icons and icons. And in the new insider version 19.074.0416.0001 (Office) of the Next Generation Sync Client (OneDrive.exe), the new Icon of the OneDrive also moves into the notification area of the Task Bar.

    new OneDrive Icons

    The old symbol has not disappeared everywhere yet. Also in the Insider Windows version 1903, the old symbol is still visible in various places. It is well known that taste can be disputed, but lacking functionality is not. And Microsoft would do well to keep up the good work and push the integration of SharePoint libraries into Windows Explorer (presentation level) and the associated intelligence in Office products.

    I can not say anything about new functionality. As usual, nothing is said about the insider versions.

    I do not know when the new icons will be integrated into the production ring for all other users

    all OneDrive versions

    Hans Brender: OneDrive: neue Symbole in Version 19.074.0416.0001

    Neue OneDrive Icons

    ich kann darüber nur Lächeln, aber viele freuen sich darüber. Über die neuen Symbole und Icons. Und in der neuen  Insider-Version 19.074.0416.0001 (Office) des Next Generation Sync Client (OneDrive.exe) zieht das neue Icon des OneDrive auch in der Benachrichtigungszeile ein.

    neue OneDrive Icons

    Noch ist das alte Symbol nicht überall verschwunden. Auch in der Insider-Windows Version 1903 ist das alte Symbol noch an diversen Stellen zu sehen. Über Geschmack lässt sich bekanntlich streiten, über fehlende Funktionalität jedoch nicht. Und Microsoft tut gut daran, hier nicht locker zu lassen und Integration von SharePoint Bibliotheken in den Windows Explorer (Präsentation-Ebene) und die damit verbunden Intelligenz in Office-Produkte weiter voran zu treiben.

    Über neue Funktionalität kann ich nichts berichten. Wie üblich wird über die Insider-Versionen nichts bekannt gegeben.

    Ich weiß nicht den Zeitpunkt, wann die neuen Symbole für alle anderen Benutzer in den Produktions-Ring integriert werden

    alle OneDrive Versionen

    SharePointPodcast: SPPD409 Das prall gefüllte Osternest

    Es ist mal wieder an der Zeit, die wichtigsten Ereignisse, Artikel und Ankündigungen der letzten Wochen zu sortieren und euch zu Gehör zu bringen.

    Ich habe spannende Artikel und Anleitungen herausgesucht, die etwas umfangreicher sind, aber auch tiefer in die jeweiligen Themen einführen. Und ich gebe Euch Feedback zu verschiedenen Veranstaltungen, die ich in den letzten Wochen besuchen konnte.

    Termine

    Themen

    • SharePoint Roadmap Pitstop: March 2019 in der INTRAZONE
      • Organization news
      • Organize news in a custom order (pinning)
      • Make a site an “Authoritative news site”
      • Share and coauthor documents with LinkedIn connections
      • Page templates
      • Sticky headers for lists and libraries
      • Updated sharing page for the SharePoint admin center in Office 365
      • Yammer tab in Microsoft Teams
      • Planner updates-Copy a plan
      • Microsoft 365 “Live Events” [GA]
      • The new Microsoft 365 admin center
    • SharePoint, Yammer und Stream – zusammen sind wir stark!

    Trends

    Tipps

    Tricks

    Talk

    faq-o-matic: AD-Dokumentation: José in Version 3.12

    Nach längerer Zeit gibt es endlich mal wieder ein Update von José, unserem Dokumentationstool für Active Directory. Die neuen Version 3.12 umfasst:

    • CSS-Dateien nach UTF-8 konvertiert, um Firefox-/Chrome-kompatibel zu sein
    • Neuer Batch-Aufruf für reine Metadaten
    • AD-Schema 88 (Windows Server 2019) und Exchange-Schema 2016 CU6-12, 2019
    • bei GPO-Links: das GPO-Icon verlinkt auf einen GPMC-Report. Wenn dieser im Unterordner „GPMC-Reports“ liegt und den DisplayName als Dateinamen trägt, wird er geöffnet. Ergänzend gibt es ein PowerShell-Skript, das die Reports erzeugt.
    • Standard-Reports und zugehörige Definitionen angepasst

    Wie immer finden sich der Download und weitere Informationen auf der José-Seite:

    https://www.faq-o-matic.net/jose/

    SharePointPodcast: SPPD408 Der gute Ton

    Das Ostern 2019 Special kommt diesmal mit zwei Interviews von der Deutschen Podcaster Konferenz Subscribe10.

    Rund 250 Podcastende, Medienschaffende und sonstige Teilnehmenden trafen sich Ende  März in Köln beim Deutschlandfunk zu einem spannenden Wochenende und Erfahrungsaustausch.

    Ich habe zwei Interviews mit Georg Holzmann (oben links) von auphonic und Sebastian Reimers von Studio-Link mitgebracht, um euch ein paar nützliche Tools für besseren Ton vorzustellen.

    Angebote der Community

    Die Links

     

     

     

     

    Hans Brender: aOS Session: Intelligent acceleration of daily work with OneDrive

    aOS Luxemburg 2019

    Want to meet me? I’m speaking on 05/16/2019 in Luxembourg about OneDrive. The exact session title is

    Intelligent acceleration of daily work with OneDrive

    You may join the event and register here.

    Cu there ?

    faq-o-matic: CDC Germany 2019: Die Agenda ist online

    imageIn wenigen Wochen findet die vierte Cloud & Datacenter Conference Germany statt: Am 21. und 22. Mai bietet die Konferenz IT-Technik und IT-Strategie auf höchstem Niveau.

    Jetzt hat das Organisationsteam die Agenda auf der Webseite veröffentlicht. Mehr als 50 Vorträge in sechs parallelen Tracks bieten Know-how von den besten Speakern der IT-Community.

    [Cloud & Datacenter Conference Germany – Die Zukunft Ihrer IT gestalten]
    https://www.cdc-germany.de/#agenda

    faq-o-matic: Windows 10 1809: Fehlender Doppelpunkt verhindert Anmeldung

    Wir haben gerade das 1809 LTSC beim Testen und sind dabei auf ein sehr merkwürdiges Fehlverhalten gestoßen. Beim Anmelden eines Benutzers kommt die Meldung “Windows konnte keine Verbindung mit dem Dienst Benutzerprofildienst herstellen”.

    Das ganze Problem wird von einem Doppelpunkt ausgelöst, der nicht vorhanden ist. Es geht dabei um das Home-Verzeichnis im AD:

    clip_image001

    Trage ich hier einen Doppelpunkt ein, so ist das Anmelden ohne Problem möglich.

    clip_image002

    Hier gab es den entscheidenden Hinweis:

    https://social.technet.microsoft.com/Forums/en-US/855b1a3f-80dd-463d-8005-5935bf7da36e/some-domain-users-get-quotuser-profile-service-failedquot-when-trying-to-login-after-october?forum=win10itprogeneral

    faq-o-matic: Active Directory wird 20: Herzlichen Glückwunsch!

    Vor genau 20 Jahren, am 9. April 1999, hat Microsoft seine eigene produktive Windows-Domäne mit gut 27.000 Benutzerkonten nach Active Directory migriert. Dies war die erste ernsthafte Installation des damals neuen Windows-Verzeichnisdienstes. Damit dürfen wir den 9. April 1999 wohl als den “Geburtstag” des Active Directorys ansehen – und wir gratulieren herzlich zum Jubiläum!

    Auf dem Blog des hannoverschen IT-Beratungshauses michael wessel gibt es mehr zum AD-Geburtstag:

    https://blog.michael-wessel.de/2019/04/09/active-directory-wird-20-herzlichen-glckwunsch/

    Carsten Rachfahl [Hyper-V]: Aus der Praxis: Austausch einer defekten NVMe in einem S2D Cluster

    ​Bei einem Kunden von uns hat eine NVMe einen IO Error angezeigt und musste daraufhin ​ausgetauscht werden. Die NVMe war als Caching Device in einen 4 Knoten S2D Cluster verbaut. Ich möchte euch hier kurz schildern, wie wir auf den Fehler aufmerksam wurden und welche Schritte notwendig waren, um die NVMe ​zu ersetzen.

    ​Kurz zur Hardware, es sind 4 Fujitsu Server mit je 4 x Intel P3700 800GB NVMe's und 20 Seagate 2TB HDDs für den Storage Spaces Direct Pool.

    Fehlersuche:

    ​Als ersten Indiz haben wir festgestellt, dass Repairjobs laufen, ohne dass einer der Server neu gestartet wurde. Daraufhin habe ich ​mit  "​Get-PhysicalDisk" die Festplatten überprüft und musste feststellen, dass ein Caching Device und wechselnde Festplatten IO Errors anzeigen. ​​​​Unten ein kurzes Beispiel der Ausgabe.

    ​Anhand der Seriennummern konnten alle fehlerhaften Festplatten ​einem Host ​zugeordnet werden. Die NVMe zeigte dauerhaft den I​O Error an, bei den HDDs  ​tauchte der Fehler sporadisch auf. Aber ich konnte die IO Errors auf den HDDs auf 5 Stück eingrenzen und damit war mir klar, dass diese Festplatten alle der defekten NVMe zugeordnet waren. ​Auf der Suche nach weiteren Infos zur Usache, ​​bin ich auch noch auf folgende Eventlog Einträge ge​stoßen.

    Austausch der NVMe:

    Vor dem Austauch, wurden alle Rollen ​von dem betroffenen Host verschoben und der Host auf "Pause" gesetzt und heruntergefahren.

    Der Fujitsu Support hat sich entschlossen, den Controller für die NVMe's und die fehlerhafte NVMe auszutauschen. ​Nachdem der Server wieder hochgefahren war, ergab ein weiterer  "​Get-PhysicalDisk" Befehl dass nun 2 NVMe und 10 HDDs auf "Lost Communication" standen. Die neue NVMe war nicht zu sehen.  Alle Festplatten befinden sich in dem Server, bei dem gerade die Komponenten ​getauscht wurden.

    ​Was war die Ursache für die fehlen der Festplatten? Es musste ja etwas mit dem Tausch der Komponenten zu tun haben. Letztlich hat sich herausgestellt, dass zwei der vier NVMe's nicht richtig gesteckt waren. Als dieser Mangel beseitigt war, wurden alle NVMe (die alte und auch die neue) korrekt angezeigt. Bei den HDDs waren nach wie vor 5 Festplatten auf "Lost Communication"

    ​Wir sehen, die defekte NVMe wird mit "Lost Communication" angezeigt und die neue NVMe ist noch nicht im Storagepool. An dieser Stelle ein dickes Danke schön für den sehr hilfreichen Blogpost von Jan-Tore Pedersen der genau beschreibt, welche weiteren Schritte nun zu tun sind. 

    ​Als nächster Schritt muss die ​defekte NVMe auf "retired" gesetzt werden.

    ​Jan-Tore Pedersen beschreibt ​in seinem Blogpost, dass die neue NVMe nun per PowerShell Befehl zum StoragePool hinzugefügt werden muss. Das habe ich versucht, doch ich bekam daraufhin folgenden Fehler angezeigt.

    ​Die neue NVMe war bereits als Caching Device im Storagepool. Das erfolgte wohl automatisch nachdem ich die d​efekte NVMe auf "retired" gesetzt hatte.

    ​Eine weitere Überprüfung der Festplatten mit "​Get-PhysicalDisk"  zeigt, dass die 5 HDDs, die der ​defekten NVMe zugeordnet waren, ​immer noch mit "Lost Communication anzeigten werden. ​Die HDDs müssen in einem weiteren Schritt der neuen NVMe zugeordnet werden.

    ​Es dauerte ein paar Minuten, bis alle Festplatten wieder mit "OK" und "Healthy" angezeigt werden. Jetzt muss nur noch die ​defekte NVMe aus dem StoragePool entfernt werden.

    ​Zum Abschluss überprüfen wir mit "Get-StorageJob" , ​ob die Repair Jobs angelaufen sind. Es kann einige Zeit dauern, bis alle Repair Jobs abgearbeitet wurden, aber das soll uns nicht daran hintern, den Knoten wieder aus dem Pause Modus ​zu nehmen und ihm seine Rollen ​zu übertragen.

    So, ich hoffe, ich konnte euch mit dieses Blogpost zeigen, wie eine NVMe aus einem S2D Cluster getauscht werden kann und welche Probleme dabei auftreten können. Bedenkt immer, dass all diese Befehle mit Vorsicht und Bedacht ausgeführt werden müssen, da ja meist ein Produktivsystem davon betroffen ist.

    Viel Erfolg bei eurer Arbeit und bis zum nächsten Mal

    Petra

    Der Beitrag Aus der Praxis: Austausch einer defekten NVMe in einem S2D Cluster erschien zuerst auf Hyper-V Server Blog.

    Hans Brender: Cloud & Datacenter Conference Germany–21. & 22.5. 2019 Hanau

    Mr. OneDrive auf der CDC 2019 in Hanau

    es ist demnächst wieder soweit. Am 21. & 22. Mai 2019 trifft man sich in Hanau auf der Cloud & Datacenter Conference Germany. Der Veranstaltungsort ist genau der gleiche wie im letzten Jahr. Und Carsten Rachfahl hat wieder viele bekannte Sprecher eingeladen und die Veranstaltung wird, so glaube ich, auch in diesem Jahr ein Erfolg werden. Ein bisschen darf auch ich beitragen mit einem Slot zu, na klar, richtig, zu OneDrive.

    OneDrive beschleunigt mit Intelligenz die tägliche Arbeit

    so lautet der Titel. Diesen Vortrag habe ich zum ersten Mal auf der Microsoft IgniteTheTour in Hongkong in englischer Sprache gehalten. Hier also die deutsche Premiere.

    Wer mich also sehen möchte und dazu noch jede Menge andere MVPs, der muss sich ein jetzt hier anmelden.

    Man sieht sich…

    faq-o-matic: Powershell: Dynamische Logikabfragen

    Bei einem aktuellen Projekt benötigte ich die Möglichkeit, mehrere Werte aus einer XML-Datei mit einem ebenfalls darin definierten Logikoperator zu vergleichen. Das Szenario dazu: In dem Projekt ist eine leichtgewichtige Softwareverteilung auf Skriptbasis im Einsatz, die beim Systemstart verschiedene Applikationen aktualisiert. Hier war noch etwas mehr Logik erwünscht, um Aktivitäten nur dann auszuführen, wenn bestimmte Bedingungen erfüllt sind.

    Da der Code möglichst dynamisch und gut erweiterbar sein sollte, stellte sich heraus, dass der Logikoperator durch einen Scriptblock dynamisch in den Code eingefügt werden musste. Um dies zu ermöglichen, habe ich die Funktion Apply-CustomLogic() entworfen, welche aktuell die Operatoren „like“, „is“, „isnot“, „startswith“, „notstartswith“, „endswith“ und „notendswith“ unterstützt.

    Drei kurze Cmdlet Beispiele dazu, die mit einer Funktion auf dieser Basis arbeiten:

    Apply-CustomLogic(„startswith“,“faq-o-matic.de“,“faq“)  <- Ergebnis: $true

    Apply-CustomLogic(„endswith“,“faq-o-matic.de“,“.de“)  <- Ergebnis: $true

    Apply-CustomLogic(„notendswith“,“faq-o-matic.de“,“.de“) <- Ergebnis: $false

    Ein typisches Code-Szenario dafür wäre: Mehrere Konditionen sowie Referenzwerte müssen aus einer XML-Datei ausgelesen und dann in Powershell interpretiert werden.

    Die XML Datei beinhaltet dann folgendes:

    <check type="RegistryValue" logic="StartsWith">
       <path>Registry::HKEY_LOCAL_MACHINE\SOFTWARE\Wow6432Node\TeamViewer\</path>
       <key>Version</key>
       <value>14</value>
    </check>
    <check type="RegistryPathPresent" logic="Is">
       <path>Registry::HKEY_LOCAL_MACHINE\SOFTWARE\TeamViewer\</path>
    </check>
    
    

    Der Script-Part dazu sähe wie folgt aus:

    [..]
    #Check if a registry path is present
    if($checkType -eq "RegistryPathPresent"){
       if(
    	   !(Apply-CustomLogic -condition $check.Logic -V1 $true -V2 (Get-ItemProperty -Path $Check.Path -ErrorAction SilentlyContinue))
    	 ){
    	   Write-CustomWarning("Check $checkType for $($Check.Path)$($check.Key) is $IgnoreSoftware, supposed value is $($Check.Value), current value is $($Path.$($Check.Key))")
       }else{
    	   Write-CustomLog("Check $checkType for $($Check.Path)$($check.Key) is $IgnoreSoftware, supposed value is $($Check.Value), current value is $($Path.$($Check.Key))")                
       }
    }
    
    #Check for a specific registry value
    if($checkType -eq "RegistryValue"){
       if(
    	   !($Path = Get-ItemProperty -Path $Check.Path -ErrorAction SilentlyContinue) -or
    	   !(Apply-CustomLogic -condition $check.Logic -V1 $Path.$($Check.Key) -V2 $Check.Value)
       ){
    	   Write-CustomWarning("Check $checkType for $($Check.Path)$($check.Key) is $IgnoreSoftware, supposed value is $($Check.Value), current value is $($Path.$($Check.Key))")
       }else{
    		Write-CustomLog("Check $checkType for $($Check.Path)$($check.Key) is $IgnoreSoftware, supposed value is $($Check.Value), current value is $($Path.$($Check.Key))")
    	}
    }
    [..]
    

    Hierbei werden nun die Konditionen und Referenzwerte aus der XML-Datei gegen reale, per Powershell abrufbare Funktion oder Variablen geprüft. Um den Code dynamisch zu generieren, nutzt die Funktion die Funktion Create([string]) auf der Klasse [Scriptblock], um aus einem vorher zusammengesetzten String einen ausführbaren Code zu generieren. Dieser Code wird im Anschluss durch $scriptblock.Invoke() ausgeführt und wendet den vorher generierten Logikcode aus.

    Zu finden ist diese Funktion hier:

    https://github.com/RobinBeismann/PowerShell-Scripts/blob/master/Scripts/Snippets/Apply-CustomLogic.ps1

    Carsten Rachfahl [Hyper-V]: Monitoring eines S2D Clusters mit Grafana, InfluxDB und PowerShell (Teil 1)

    Hallo, Jan hier. Da ich in letzter Zeit einiges in Richtung Monitoring gemacht habe, führe ich diese Erkenntnisse hier mal auf und zeige euch, wie man ein Monitoring-System mit Hilfe von InfluxDB und Grafana aufbaut, um sein S2D-Cluster zu monitoren und die Performance-Werte grafisch dazustellen. Grundsätzlich ist mit dieser Lösung ein Monitoring aller möglichen Dinge machbar, ich z.B. habe die Installation im ersten Schritt dazu genutzt, die Windows 10-Verteilung in der Firma visuell darzustellen.

    Die Grundvoraussetzung

    Der Aufbau beschränkt sich in meinem Fall auf eine VM mit einem aktuellen Debian 9.8. Keine Angst, die Installation ist schnell gemacht und alle Schritte werden hier zum einfachen kopieren beschrieben.

    Die Debian Grundinstallation

    Die VM bekommt von mir 2 vCPUs, 4 GB RAM und eine 80 GB große VHDX zugewiesen. Ich nutze eine Generation 2-VM, bei der allerdings das Secure-Boot deaktiviert wurde, da Debian hier noch keine passenden Zertifikate vorhanden sind. Weiterhin sollten Sie darauf achten, dass die virtuelle Netzwerkkarte eine statische MAC-Adresse hat, da Debian es nicht so gerne hat, wenn sich die MAC-Adresse ändert. Falls es zu einer Änderung der MAC-Adresse kommt, kann es hier sein das diese dann als eth1 erkannt wird, eth1 hat keine Konfiguration usw...

    Die eigentliche Installation

    Hier gibt es eigentlich nicht viel zu beschreiben, es handelt sich um eine gewöhnliche Installation von Debian. Falls dies vollkommen unbekannt ist, gibt es haufenweise Anleitungen im Internet, z.B. von DigitalOcean oder anderen Howto-Seiten.
    - Ich bevorzuge die "Install"-Variante ohne die grafische GUI, diese geht schneller von der Hand.
    - Die Sprache bleibt bei mir auf Englisch, lediglich die Tastatur wird auf Deutsch gestellt.
    - Die komplette Platte wird verwendet, kein Volume Manager, alles auf eine Partition
    - Bei der Auswahl der Software wähle ich nichts aus außer SSH und die Standard-Systemtools (d.h. Desktop weg und Print Server weg)

    Nach der Grundinstallation beginnen wir mit dem Download und der Installation der benötigten Pakete. Vorab aktualisieren wir die Paketquellen und das gesamte System, so das alles auf dem aktuellen Stand ist.

    # Aktualisierung auf den neuesten Stand, Installation von ein paar benötigten Tools und Paketen
    apt update && apt install mc htop nano -y && apt upgrade -y && apt dist-upgrade -y
    apt-get install -y adduser libfontconfig

    # Download der Setup-Dateien
    cd /usr/src
    wget wget https://dl.influxdata.com/influxdb/releases/influxdb_1.7.4_amd64.deb
    wget https://dl.grafana.com/oss/release/grafana_6.0.2_amd64.deb

    # Installation
    dpkg -i influxdb_1.7.4_amd64.deb
    dpkg -i grafana_6.0.2_amd64.deb

    # Automatischer Start von Grafana zum Systemstart
    /bin/systemctl daemon-reload
    /bin/systemctl enable grafana-server

    Nun haben wir die reine Grundinstallation abgeschlossen und kommen zur Konfiguration der beiden Applikationen. Dazu editieren wir zuerst die config-Datei der InfluxDB-Datenbank.

    nano /etc/influxdb/influxdb.conf

    In dieser Datei müssen wir nun den Bereich "HTTP" anpassen. Wir setzen "enabled" auf "true" und aktivieren den port "8086". Das Ergebnis sieht wie folgt aus:

    Danach müssen wir den Influx-Dienst einmal durchtreten

    service influxd restart

    Nun wechseln wir in die Influx-Datenbank und legen einen neuen Benutzer sowie eine neue Datenbank an. "username" muss ersetzt werden durch einen beliebigen Username, ebenso "password" mit einem starken Passwort. Danach verlassen wir influxDB wieder.

    influx
    CREATE USER "username" WITH PASSWORD 'password' WITH ALL PRIVILEGES
    CREATE DATABASE "Datenbankname"
    exit

    Eine manuelle Test-Verbindung zur Datenbank können wir auch herstellen, hierzu kann der influx-Befehl mit Parametern genutzt werden. Klappt dies, steht einer Nutzung eigentlich nichts mehr im Weg.

    influx -username "username" -password "password"

    Die Einrichtung von Grafana

    Nachdem wir nun die Installation von Grafana und der Datenbank abschlossen haben, können wir mit der Einrichtung starten. Durch die Installation im vorherigen Schritt steht Grafana schon zur Verfügung und lauscht standardmäßig auf Port 3000. Schauen Sie kurz nach, mit welcher IP-Adresse ihr Linux-System online ist:

    ip a s

    Danach können Sie die Weboberfläche auf Port 3000 aufrufen und sich mit admin und admin anmelden. Sie werden direkt nach der ersten Anmeldung dazu aufgefordert, das Standard-Kennwort zu ändern. Tun Sie dies!

    Anbindung der Datenbank-Quelle

    Wir müssen nun die vorab installierte InfluxDB als Datenbankquelle hinzufügen, damit die Daten zur Visualisierung genutzt werden können. Direkt nach der ersten Anmeldung können wir die Option "Datenquelle hinzufügen" benutzen, alternativ geht es über das Menü auf der linken Seite.

    In den Einstellungen müssen wir die folgenden Optionen angeben:

    - Name: Hier geben wir der DB-Quelle einen Namen. z.B. InfluxDB

    - URL: Hier tragen wir die lokale Adresse mit dem Port 8086 ein, den wir zuvor aktiviert haben in der Konfiguration: http://localhost:8086

    - Auth: Hier wählen wir "with credentials" aus, damit wir eine Anmeldung an der Datenbank machen können.

    - InfluxDB Details: Hier tragen wir den Namen der Datenbank, den Benutzernamen und das Kennwort ein, was wir im Vorfeld in der Influx-Datenbank angelegt haben.

    Alle weiteren Optionen können wir leer lassen, diese werden an dieser Stelle nicht benötigt.

    Nun haben wir eine Datenbank hinzugefügt. Diese Datenbank dient später als Quelle für die Performance-Daten, die wir visualisieren möchten. Zum aktuellen Zeitpunkt befinden sich allerdings noch keine Daten in dieser Datenbank, daher werden wir nun im nächsten Schritt dafür sorgen, dass Daten in die Datenbank gelangen.

    Einen oder mehrere Server als Datenquelle hinzufügen

    Um nun an die Daten der Windows S2D-Server zu kommen, nutzen wir ein PowerShell-Modul, welches die gewünschten Daten in die vorab eingerichtete Datenbank speichert. Ich beginne in meinem Fall mit dem ersten der beiden Knoten und richte ein kleines Test-Skript ein, welches ein paar Demo-Daten ausliest und speichert. Die Installation erfolgt in einer PowerShell:

    Install-Module Influx

    Nach der Installation benötigen wir ein kleines Skript, welches die Daten per Perfmon ausliest und in die entsprechende Datenbank schreibt. Anbei eine kleine txt-Datei mit dem Skript.

    Die paar Zeilen PowerShell machen die folgenden Dinge:

    - Zeile 1 definiert den Datenbank-Server
    - Zeile 2 und 3 sind Benutzername und Kennwort der Datenbank (dies könnte auch manuell eingegeben werden, damit die Daten nicht im Plaintext im Skript stehen)
    - Zeile 4 baut die Credentials so zusammen, dass sie in dem Skript nutzbar sind
    - Zeile 6 holt sich die Werte für die CPU-Auslastung und den verwendeten Speicher
    - Zeile 7 und 8 speichern den reinen Wert (z.B. 41,52 für die prozentuale CPU-Auslastung)
    - Zeile 10 bis 13 schreibt diese Werte in ein Array und definiert dafür den Namen, der später in Grafana als Datenquellwert angewählt werden kann (z.B. cpu active).
    - Zeile 15 schreibt die beiden Werte in die InfluxDB

    Sind alle Daten korrekt eingetragen, wird ein ersten Datenwert in die Datenbank geschrieben. Diesen Wert önnen wir uns nun in einem neuen Dashboard anzeigen lassen. Final wird es dann so sein, dass über einen geplanten Task kontinuierlich Daten in die Datenbank geschrieben werden, mit Hilfe dieser Punkte können wir uns dann einen Graph erzeugen.

    Das erste Dashboard erzeugen

    Wir wechseln nun zurück in die Grafana-Oberfläche und erzeugen ein neues Dashboard. Als erstes geben wir die Query-Daten ein, damit das Dashboard weiß, von wo und welche Daten es sich holen soll. Sobald die Daten korrekt eingetragen sind, können wir den einen erzeugten Punkt sehen.

    Nachdem nun die korrekte Datenquelle angegeben wurde, können wir nun mit der Formatierung der Anzeige beginnen. Dazu wechseln wir in der linken Seitenleiste auf die Visualisierung.

    Hier können wir allerlei Einstellungen vornehmen, die unsere Anzeige verändert und so anpasst, dass wir die Daten optimal sehen können. Ich stelle fast immer unter "Stacking & Null value" die Option "Connected" ein, damit die Punkte untereinander verbunden werden und es keine Null-Werte gibt (die kann es natürlich geben, aber wenn man die RAM-Größe beobachtet, wird diese ja nicht auf Null fallen, nur weil gerade in diesem Moment nichts gemessen wurde :) )

    An dieser Stelle sind wir am Ende von Teil 1 angekommen, die Grund-Infrastruktur steht soweit. Im zweiten Teil werden wir uns anschauen, welche relevanten Perfmon-Werte wir uns anschauen und protokollieren sollten. Mit diesen Werten werden wir dann ein Dashboard bauen, welches uns die Latenzen und IOPS-Werte der Volumes anzeigt. Danke fürs Lesen und bis zum nächsten Mal :)

    Der Beitrag Monitoring eines S2D Clusters mit Grafana, InfluxDB und PowerShell (Teil 1) erschien zuerst auf Hyper-V Server Blog.

    Carsten Rachfahl [Hyper-V]: Webinar What’s new in Hyper-V 2019 am 29. März um 11 Uhr (Deutsch) and 5 pm (Englisch)

    • ​Deutsch Sprachiges Webinar
    • ​Englisch sprachiges Webinar

    ​At the 29th of March 5 pm CET+1, our next Webinar is about What's new in Hyper-V 2019. First I thought this would be a short Webinar, but after collecting the slides, it is much more as I thought.


    Here is the Agenda:

    • Hyper-V in Server
    • Hyper-V in Client
    • Hyper-V in Azure
    • check
      Demo
    • Q&A

    To sign-up click on the picture or here! Don't worry that you maybe have no time to attend this Webinar if you sign-up you will get a link to the recording afterward.

    Carsten


    Der Beitrag Webinar What’s new in Hyper-V 2019 am 29. März um 11 Uhr (Deutsch) and 5 pm (Englisch) erschien zuerst auf Hyper-V Server Blog.

    faq-o-matic: Cloud & Datacenter Conference Germany am 21. und 22. Mai in Hanau

    imageCarsten Rachfahl und sein Team laden auch in diesem Jahr wieder zur “Cloud & Datacenter Conference Germany” (kurz: CDC) nach Hanau. Erneut umfasst die Konferenz zwei Tage, und zwar den 21. und den 22. Mai 2019.

    Die Konferenz bietet mehr als 50 Sessions ausgewiesener IT-Experten – darunter wieder die Crème de la Crème der IT-Community mit einer hohen Anzahl an Microsoft-MVPs und bekannten hochkarätigen Sprechern. Der Congress Park Hanau hat sich bereits im letzten Jahr als hervorragende Location für eine IT-Konferenz dieser Art empfohlen.

    Nähere Details und Tickets gibt es hier:

    [Cloud & Datacenter Conference Germany – Die Zukunft Ihrer IT gestalten]
    https://www.cdc-germany.de/

    SharePointPodcast: SPPD407 Frühlingserwachen

    Die Shownotes zum Frühlingsanfang. 

    Termine

    Tipps

    Themen

    Teams

    Carsten Rachfahl [Hyper-V]: Webinar Window Server 2019 – ReFS + DeDup am 8. März um 11 Uhr (Deutsch) and 5 pm (Englisch)

    • ​Deutsch Sprachiges Webinar
    • ​Englisch sprachiges Webinar

    At the 8th of March 5 pm CET+1, our next Webinar is about ReFS and DeDup. ReFS as new filesystem offer great possibilities especially with Hyper-V and is a must for every Storage Spaces Direct implementation. Windows Server 2019 finally provides the option to use ReFS and Deduplication together.


    Here is the Agenda:

    • ReFS overview
    • ReFS and Hyper-V
    • ReFS and S2D
    • check
      DeDup and Compression
    • Performance
    • check
      Demo
    • Q&A

    ​To sign-up just click on the picture or here! Don't worry that you maybe have no time to attend this Webinar if you sign-up you will get a link to the recording afterwards.

    Carsten


    Der Beitrag Webinar Window Server 2019 – ReFS + DeDup am 8. März um 11 Uhr (Deutsch) and 5 pm (Englisch) erschien zuerst auf Hyper-V Server Blog.

    Don't contact us via this (fleischfalle@alphasierrapapa.com) email address.