TechNet · Englische TechNet Blogs · TechNet Deutschland · itproblogs.de · .NET Blogs

Hans Brender: No Update to Windows 10 1903, if KFM is installed

Blog 72

If you wait for the Update from Windows 10 Version 1809 to 1903, one possible reason is, that you have KFM Known Folder Move installed. This prevents, that you will not receive the install file. And you should NOT install it manually.

Microsoft knows about the bug and there is no workaround. They will have a fix available in late May.

Remarks:

So KFM has issues with Windows 10 1809, so there might still be some issues with KFM and the implementation in Windows.  So as an Windows Insider I  have tested it on one device, but unfortunately, no KFM installed.

 

Source: Microsoft

Hans Brender: European SharePoint Office 365 & Azure Conference at Prague

ESPC19-02

It’s a long time until December 2019. Starting at 2nd of December with Full day classes and end at 5th of December. Prague, Czech Republic hosts the ESPC 2019 this year.

I will speak there about

Intelligent Acceleration of Daily Work with OneDrive

Maybe we see us there ?

Hans Brender: SharePoint Top 25 Influencers 2019

SharePoint Top25 Influencers 2019

Während der European SharePoint, Offdice365 & Azure Conference, kurz ESPC im Herbst 2018 wurde ich auf den 4. Platz gewählt (Europa).

Umso mehr freut es mich, bei der Verleihung der weltweiten Influencer auf der SPC 2019 in Las Vegas auf den 7.Platz gelandet zu sein. Es freut mich, Teil dieser Community zu sein. Vielen Dank an harmon.ie.

During ESPC 2018, i was nominated and voted as #4 of the Top European SharePoint Influencers.

During SPC 2019  I was ranked as #7 of the world wide SharePoint Influencers. It’s an honor for me, be part of this community.

Thanks to harmon.ie

SharePoint Top25 Influencers 2019

Michael Greth: Webinar Mails und Dokumente schneller und besser in SharePoint/Teams speichern*

Speichern von Mails, Mail-Anhängen und Dokumenten in SharePoint/Teams/Office 365? Dabei auch noch einfach und schnell den richtigen Inhaltstypen auswählen und Metadaten ergänzen…..? Was sich eigentlich ganz simpel anhört ist, für die Anwender in der Praxis gar nicht so trivial.

Ulrich Boddenberg, der seit über 15 Jahren SharePoint-Projekte begleitet, hat einige nützliche Tools entwickelt. Eines …

Continue reading

Carsten Rachfahl [Hyper-V]: VMs booten nach Umzug auf Windows Server 2019 nicht mehr

Hallo, Jan hier. Ich komme gerade von der CDC Germany 2019 wieder und müsste eigentlich schnellstens ins Bett, aber ich habe gerade noch eine ziemlich gute und wichtige Sache, die ich hier noch kurz loswerden möchte. Vielleicht hilft es ja dem ein oder anderen, der auch an diesem Problem hängt.

Das Problem

Wenn man eine oder mehrere Hyper-V VMs der Generation 2 von einem Windows Server 2012 R2 oder Windows Server 2016 auf einen Hyper-V unter Windows Server 2019 umzieht, kann es vorkommen, dass die VMs nicht mehr booten können und folgende Fehlermeldungen im Eventlog auftauchen:

Critical - Hyper-V-Worker - 18604 - None
"VM" has encountered a fatal error but a memory dump could not be generated. Error 0x2. If the problem persists, contact Product Support for the guest operating system. (Virtual machine ID XXX)

Critical - Hyper-V-Worker - 18560 - None
"VM" was reset because an unrecoverable error occurred on a virtual processor that caused a triple fault. If the problem persists, contact Product Support. (Virtual machine ID XXX)

Das Problem ist auch bei Microsoft bekannt, Ben Armstrong hat hierzu einen Blogpost im Januar 2019 veröffentlicht: 

Als temporäre Lösung konnte man die MAC-Adresse der betreffenden VMs umstellen, danach starteten die VMs wieder. Das ist aber, je nach System, keine Lösung (Linux, Lizenzen auf MAC-Basis usw...)

Die Lösung

Microsoft hat gestern (21.05.2019) ein Update veröffentlicht: ​May 21, 2019—KB4497934 (OS Build OS 17763.529)

In den Changelos-Informationen befindet sich unter anderem folgender Satz:

Addresses an issue that prevents a Generation 2 virtual machine from starting on a Windows Server 2019 Hyper-V host. In the Microsoft-Windows-Hyper-V-Worker-Admin event log, Event ID 18560 displays, “VM name was reset because an unrecoverable error occurred on a virtual processor that caused a triple fault.”

Heißt folglich: Nach der Installation des Updates sollte das Problem gelöst sind. Ich konnte es aktuell noch nicht testen, aber die Beschreibung deutet schon ganz stark darauf hin, dass die Probleme damit beseitigt sind. Denkt bitte daran, dass Update zu testen vorher, da es erst ganz frisch erschienen ist und vermutlich noch nicht wirklich viele Installationen gemacht und zur Not dokumentiert wurden. Aber zum Glück haben wir ja alle nen eigenes Test-Cluster nur für solche Zwecke laufen ;)

Der Beitrag VMs booten nach Umzug auf Windows Server 2019 nicht mehr erschien zuerst auf Hyper-V Server Blog.

Michael Greth: SPC 19 SharePoint stärker denn je

Starke Überschrift, aber es ist schon sehr bemerkenswert zu sehen, wie der Brand „SharePoint“ nicht nur als Wort funktioniert. Im Rahmen von Microsoft 365 ist SharePoint eine unglaublich starke Position nicht nur als technisches Backend, sondern auch als Kern von Content und Collaboration. SharePoint bietet heute dem Anwender Funktionen, von denen  wir früher, in der …

Continue reading

faq-o-matic: CDC-Folien: Design for Change – Active Directory für das Cloud-Zeitalter

Auf der Cloud & Datacenter Conference Germany 2019 habe ich die Session “Design for Change – Active Directory für das Cloud-Zeitalter” mit fast 100 Leuten im Publikum gehalten. Hat Spaß gemacht, vielen Dank!

Die Folien zu meinem Vortrag finden sich hier, auch diesmal inklusive der Notizen:

[CDC-Folien: Design for Change – Active Directory für das Cloud-Zeitalter – michael wessel Blog]
https://blog.michael-wessel.de/2019/05/22/cdc-folien-design-for-change-active-directory-fuer-das-cloud-zeitalter/

Michael Greth: Heute um 21:00 Uhr gibt es SharePoint News

Heute um 21:00 Uhr wird Jeff Teper in seiner Keynote auf der SharePoint Conference NA in Las Vegas erzählen, was es neues zu SharePoint, Teams, Yammer, OneDrive & Co gibt – livestreaming gibt es hier  – ich bin gespannt.



SharePointPodcast: SPPD410 Freikarte für SharePointKonferenz Wien zu gewinnen

Es gibt mal wieder etwas zu gewinnen im SharePointPodcast – eine Freikarte für die SharePoint Konferenz Wien am 25.-26.6. und wir blicken gespannt auf die Ereignisse der nächsten Wochen – der SPC19 in Las Vegas und dem Collabsummit in Wiesbaden.

Aktion

Termine

Webinar

Themen

Talk

faq-o-matic: storage2day: Fachkonferenz mit Super-Frühbucherrabatt

imageDer heise-Verlag richtet im September 2019 zum ersten Mal die neue hochkarätige Fachkonferenz “storage2day” aus. Die zweitägige Konferenz vom 18. bis 19. September 2019 bietet ein anspruchsvolles Programm mit Sessions zu Storage- und Rechenzentrumsthemen. Ein optionaler Workshoptag vor der Konferenz bietet Gelegenheit, bestimmte Themen praxisorientiert zu vertiefen.

Das Feld der Sprecherinnen und Sprecher setzt sich zusammen aus Fachleuten verschiedener Herkunft – Praktiker, Analysten, Hersteller beleuchten eine große Bandbreite an Aspekten zu den Konferenzthemen. Auch unser Blog ist vertreten, sogar mit zwei Vorträgen.

Ein paar Tage lang gilt noch der “Super-Frühbucherrabatt”: Wer bis zum 26. Mai 2019 sein Ticket bucht, spart gegenüber den Normalpreis satte 300 Euro. Nähere Informationen und die Tickets gibt es hier:

[storage2day 2019 – Die Konferenz zu Speichernetzen und Datenmanagement ::]
https://www.storage2day.de/

Michael Greth: Der Weg zum Microsoft Modern Secure Workplace

Es ist der Alptraum eines jeden Systemadministrators. Die Systeme wurden gehackt, der Hoster meldet ein Datenleck oder man steht selbst in der Pflicht, Datenschutz nachzuweisen. Deswegen auf Modern Workplace Lösungen verzichten? Keineswegs!

Sicherheit bietet die Verschlüsselung von Dateien, aber sie muss für den Anwender einfach und transparent im Hintergrund stattfinden, damit sie auch wirklich genutzt …

Continue reading

Michael Greth: DSGVO Armageddon

Die DSGVO hat uns nicht nur mehr Datenschutz gebracht, sondern auch einige teils exotische Auswüchse. Auf der re;public19 habe ich mir den Vortrag von Katharina Nocun und  Lars dP Hohl  „Best of DSGVO-Armageddon“ angehört. Eine gute Zusammenfassung über all die Kuriositäten und Missverständnisse im Rahmen der Einführung der EU-Datenschutzgrundverordnung wie Visitenkarten, geschwärzte Kindergartenbilder oder Livestreams …

Continue reading

Michael Greth: Die wichtigsten Infos von der BUILD 2019

Auf der Entwicklerkonferenz BUILD gibt Microsoft jedes Jahr einen Einblick in die neuesten Technologien, Visionen und Produkte auf dem Microsoft Ökosystem. Das heißt entweder mal 2 Stunden Keynote schauen oder das Book Of News herunterladen, in dem alle Ankündigungen schriftlich zusammengefasst sind.

Download Book Of News BUILD 2019

Michael Greth: SharePointPodcast vor Ort Modernes Intranet mit wizdom-intranet.com

Rückblick auf die Intranet Reloaded in Berlin #intreleu – Ich habe mit Dan Thomsen über den Wizdom-Intranet-Baukasten gesprochen und wie man die Komplexität in Office 365 für den Anwender reduzieren kann.

Michael Greth: Connect Share Lead – Vernetzt Arbeiten mit Isabel de Clercq

Auf der Intranet Reloaded habe ich mit Isabel De Clercq über ihr Buch „Vernetzt Arbeiten – Soziale Netzwerke in Unternehmen“ und ihre Ideen zum New Way Of Work gesprochen.

Michael Greth: MSBUILD – Public Viewing der Eröffnungskeynote

Heute startet in Seattle die Microsoft Entwicklerkonferenz BUILD. Die Eröffnungskeynote wird live gestreamt und quer durchs Land finden sich Usergroups und Meetups zum Public Viewing zusammen – hier die Übersichct aus der Techwiese

Die Public Viewing-Termine im Überblick
  • München: Microsoft Build Community Live Viewing bei Microsoft Deutschland (ab 16:30 Uhr)
  • Köln: Microsoft BUILD Keynote Viewing Party beim …

    Continue reading

Hans Brender: SharePoint: Restore of files from document libraries

Restore of Files from doclibs in SharePoint Online

Another self-service, once you have captured an encryption virus, or accidentally deleted one or more files or even entire folders. It has been around for OneDrive for Business for a while, and this service is currently rolled out on all tenants in Office 365. The procedure is the same everywhere.

Use a browser to navigate to the document library where you want to restore files.SharePoint Online : Settings

Then click on the gear icon. Now you see all the settings and there is also the item “Restore this library”". (If it does not show up yet, it’s not currently available in your tenant).

Click on Restore…

SelfServcice Portal: Restore of files  in SharePoint Online

brings us the image of time restriction and selection known from OneDrive for Business.
The procedure is, as I said, not only for all document libraries, but also for the documents that you have stored in OneDrive for Business.

Hans Brender: SharePoint: Wiederherstellen von Dateien in Dokumentenbibliotheken

Widerherstellen von Dateien in Dokumentbibliotheken von SharePoint Online

Ein weiterer Self-Service, wenn man sich einmal einen Verschlüsselungsvirus eingefangen hat, oder versehentlich ein oder mehrere Dateien oder gar ganze Ordner gelöscht hat. Für OneDrive for Business gab es das schon länger, derzeit wird dieser Service auf allen Tenants in Office 365 ausgerollt. Die Vorgehensweise ist überall gleich.

Navigieren Sie mit einem Browser zur Dokumentenbibliothek, wo sie Dateien wiederherstellen möchten.

SharePoint Online : Eigenschaften

Klicken Sie dann auf das Zahnradsymbol. Jetzt sehen Sie alle Eigenschaften und dort taucht auch das Wiederherstellen auf. (Wenn es noch nicht auftaucht, dann ist es derzeit noch nicht in ihrem Tenant verfügbar).

Ein Klick auf Wiederherstellen…

SelfServcice Portal Widerherstellen in SharePoint Online

bringt uns das von OneDrive for Business bekannt Bild der zeitlichen Einschränkung und Auswahl.

Die Vorgehensweise gilt wie gesagt nicht nur für alle Dokument Bibliotheken, sondern auch für die Dokumente, die Sie in OneDrive for Business abgelegt haben.

Ist das ein Backup

Die Antwort ist schlichtweg ein NEIN. Das ganze kommt aus einer seit Jahren in SharePoint existierenden Technologie mit den Namen Versionierung

Wir eine Datei in einer Dokument Bibliothek in SharePoint Online gespeichert und ist dort Versionierung eingeschaltet, so wird jede Änderung, egal ob in der Date (Änderung am Dokument oder aber beim erneuten Abspeichern oder auch bei einer Umbenennung. Dabei spielt es keine Rolle, ob das

  • Im Windows Explorer
  • In Office (Word, Excel, PowerPoint)
  • von anderen Programmen (Apps) wie Paint. Notepad, …
  • im Web-Browser ihrer Wahl
  • Programme, die die API von OneDrive benutzen

Solange die Datei in einer Dokument-Bibliothek mit eingeschalteten Versionierung gespeichert ist, werden alle Änderungen in verschiedenen Versionen abgespeichert.

Und genau auf diese Versionen setzt die Restore Funktionalität auf. Das ist weitaus mehr, als viele Backup-Programme können. Werden versehentlich mehrere Dateien gelöscht, können diese auf den vorherigen letzten Stand zurückgesetzt werden. Mit ein paar simplen Klicks.

Ohne den Administrator zu fragen.

    Michael Greth: 15 Minuten Zeit ? Das ist Microsoft Teams

    Photo by Drew Coffman on Unsplash

    An Microsoft Teams kommt man nicht mehr vorbei, zumindest wenn man mit Office 365 unterwegs ist.

    Aya Tange, Product Marketing Manager für Microsoft Teams, zeigt in diesem Tutorial auf der Microsoft Ignite Tour in Amsterdam in 15 Minuten, was Teams ist und wie man mit Teams arbeitet.

    New to Microsoft …

    Continue reading

    Marc Grote: Artikel fuer die Printausgabe des IT Administrator (www.it-administrator.de) – “Neue Sicherheitsfunktionen in Windows Server 2019”

    Hallo Leutz,

    fuer die Mai 2019 Ausgabe der Print Ausgabe des IT Administrator habe ich einen Artikel zum Thema “Neue Sicherheitsfunktionen in Windows Server 2019” geschrieben.
    Weitere Informationen findet man hier: https://www.it-administrator.de

    Gruss Marc

    Carsten Rachfahl [Hyper-V]: Storage Spaces Direct Quicky: sind die Storage Repair Jobs fertig?

    Wenn wir in Kundenprojekten Storage Spaces Direct implementieren habe ich oft beim Kunden ein Aha Erlebnis was ich mit euch teilen möchte. 

    Folgendes Scenario: wir haben eine Storage Spaces Direct Cluster zu patchen. Wie geht man vor? Bei Hyper-V verschiebt man die VMs auf einen Anderen Host, installiert die Patche und bootet das System. Wenn der Host wieder da ist wiederholt man den Prozess bei dem nächsten Host und so weiter.

    Das ist keine gute Idee bei einem Storage Spaces Direct System!

    Falls ihr diese Vorgehen anwendet lauft ihr Gefahr in große Schwierigkeiten zu kommen. Ihr fragt warum? Nun nach dem Join des bootenden Hosts in den Cluster müssen noch Repairjobs im Storage Spaces Layer laufen die alle Datenänderungen die nicht auf den bootenden Host geschrieben werden könnten durchführt. Diese Repairjobs dauern in der einige Minuten und können bei großer Belastung auch bis zu einer Stunde dauern.

    Die Gefahr ist nun das Ihr einen zweiten Knoten bootet während die Daten der Volumes noch nicht vollständig repariert sind. Wenn das passiert ist man bei Verwendung eines 2-wege Spiegel jetzt bereits in Schwierigkeiten (die Volumes wären jetzt offline und alle VMs gehen in den "Pause Critical" Zustand. Erst wenn der zweite Knoten wieder den Cluster joined können die Volumes wieder online genommen werden). Wenn wir einen drei-wege Spiegel benutzen passiert das zwar nicht, aber bei einem Ausfall eines Storage Devices in einem Dritten Knoten sind dann auch die Daten nicht zugreifbar.

    Die Frage ist also wie vermeide ich das? Ganz einfach wir müssen warten bis die Repair Jobs abgeschlossen sind und alle Volumes wieder Healthy bevor wir uns den nächste Knoten vornehmen.

    Die Storage Repairjobs kann man zum einen mit dem Windows Admin Center im Hyper-converged Scenario und zum anderen mit mit Powershell sehen.

    Bei PoweShell sind hierbei zwei CmdLets wichtig:

    Get-VirtualDisk

    ​​Get-StorageJob

    Wenn Ihr gerne seht was im Cluster passiert und vielleicht auch den Fortschritt der Repairjobs sehen möchte, der kann folgende kleine PowerShell Zeile helfen:

    do {Get-VirtualDisk | ft; Get-StorageJob | ft; sleep 3} while($true)

    Die verwendete "do { } while($true)" Schleife ist hierbei eine "Endlos Schleife" die alle CmdLets zwischen den beiden "{}" Klammern ausführt bis die Schleiefenverabeitung abbrochen wird. Ihr könnt diese beliebig für eure Zwecke erweitern.

    Ich verwende z.B. oft eine Variante des Befehls, der mir zusätzlich die Cluster Knoten und die Nicht Healhy Disks anzeigt:

    do {Get-ClusterNode|ft; Get-VirtualDisk|ft; Get-StorageJob|ft; get-Physicaldisk | where HealthStatus -ne Healthy|ft; sleep 3} while(1)

    Ich wünsche euch viel Spass beim experimentieren.

    Der Beitrag Storage Spaces Direct Quicky: sind die Storage Repair Jobs fertig? erschien zuerst auf Hyper-V Server Blog.

    faq-o-matic: Google-Kontakte importieren: CSV-Feldnamen

    In einen Google-Account kann man vorhandene Kontakte aus einer CSV-Datei importieren. Leider gibt es dazu im Google-GUI fast keine Hinweise, weshalb der Vorgang zunächst oft fehlschlägt. Der Grund dafür: Google erwartet ganz bestimmte Feldnamen in der Datei und akzeptiert keine Abweichungen. Eine Zuordnung lässt sich beim Import leider nicht vorgeben, weshalb man die Quelldatei bearbeiten muss. Nur wie heißen die Felder?

    Ein Blogpost gibt Auskunft:

    [CSV-Dateien in Google Kontakte importieren – Jörgs Blog]
    https://joergnapp.de/csv-dateien-google-kontakte-importieren/

    Michael Greth: Kostenlose Whitepaper und E-Books SharePoint Server 2019 und Migration

    Kompakte Zusammenfassungen, Best-Practice, Tipps und Anleitungen: deshalb liebe wir Whitepaper und E-Books, und ein paar aktuelle kostenlose Downloads habe wir euch hier zu den Themen SharePoint Server 2019 und Migration zu Office 365 zusammengestellt.

    faq-o-matic: ADModify herunterladen und ausführen

    Alte Hasen in der IT erinnern sich gern an ADModify.NET, mit dem man recht komfortabel Massenänderungen an Objekten in Active Directory ausführen kann. Bei uns gibt es auch einen Artikel dazu:

    [Massenänderungen mit ADModify | faq-o-matic.net]
    https://www.faq-o-matic.net/2005/10/01/massenaenderungen-mit-admodify/

    Leider gibt es das Tool nicht mehr ohne Weiteres zum Download, weil Microsoft 2018 seine Open-Source-Plattform Codeplex eingestellt hat. Dort findet man nur noch einen Archiv-Download …

    … aber der enthält eben doch die ausführbare Version. So geht’s:

    • Lade dir das Archiv herunter:
    • https://archive.codeplex.com/?p=admodify
    • Entpacke es in einen Ordner. Im Ordner „Releases“ enthält der Unterordner „1“ die letzte Version. Beide Dateien, die dort liegen, benennst du um, sodass sie „.zip“ als Extension tragen. Die Fassung in dem Zip, das mit 035… anfängt, scheint aktueller zu sein.
    • Also das Zip ebenfalls entpacken, dort kannst du dann die Admodify.exe starten. Auf einem neueren Windows musst du evtl. noch die .NET-3.x-Features aktivieren (enthält das angeforderte .NET 2.0).

    Das Tool ist sehr leistungsfähig, du kannst dort ein Set an Objekten mit einem LDAP-Filter auswählen, die gewünschten Änderungen per GUI vornehmen und es dann loslaufen lassen. Jede Änderung landet in einer Undo-Datei, sodass man sie auch wieder rückgängig machen kann.

    Einsatz natürlich auf eigenes Risiko!

    Sollte Microsoft den Codeplex-Download vollständig entfernen, findet sich hier vorsichtshalber das Archiv von der Seite – da es Open Source ist bzw. war, dürfte das OK sein:

    Note: There is a file embedded within this post, please visit this post to download the file.

    Es sei bei der Gelegenheit aber noch auf ein anderes Tool hingewiesen, das Norbert Fehlauer noch besser findet:

    http://www.wisesoft.co.uk/software/bulkadusers/default.aspx

    Hans Brender: OneDrive: new Symbols in Version 19.074.0416.0001

    new OneDrive Icons

    I can only smile about that. but many are happy about it. About the new icons and icons. And in the new insider version 19.074.0416.0001 (Office) of the Next Generation Sync Client (OneDrive.exe), the new Icon of the OneDrive also moves into the notification area of the Task Bar.

    new OneDrive Icons

    The old symbol has not disappeared everywhere yet. Also in the Insider Windows version 1903, the old symbol is still visible in various places. It is well known that taste can be disputed, but lacking functionality is not. And Microsoft would do well to keep up the good work and push the integration of SharePoint libraries into Windows Explorer (presentation level) and the associated intelligence in Office products.

    I can not say anything about new functionality. As usual, nothing is said about the insider versions.

    I do not know when the new icons will be integrated into the production ring for all other users

    all OneDrive versions

    Hans Brender: OneDrive: neue Symbole in Version 19.074.0416.0001

    Neue OneDrive Icons

    ich kann darüber nur Lächeln, aber viele freuen sich darüber. Über die neuen Symbole und Icons. Und in der neuen  Insider-Version 19.074.0416.0001 (Office) des Next Generation Sync Client (OneDrive.exe) zieht das neue Icon des OneDrive auch in der Benachrichtigungszeile ein.

    neue OneDrive Icons

    Noch ist das alte Symbol nicht überall verschwunden. Auch in der Insider-Windows Version 1903 ist das alte Symbol noch an diversen Stellen zu sehen. Über Geschmack lässt sich bekanntlich streiten, über fehlende Funktionalität jedoch nicht. Und Microsoft tut gut daran, hier nicht locker zu lassen und Integration von SharePoint Bibliotheken in den Windows Explorer (Präsentation-Ebene) und die damit verbunden Intelligenz in Office-Produkte weiter voran zu treiben.

    Über neue Funktionalität kann ich nichts berichten. Wie üblich wird über die Insider-Versionen nichts bekannt gegeben.

    Ich weiß nicht den Zeitpunkt, wann die neuen Symbole für alle anderen Benutzer in den Produktions-Ring integriert werden

    alle OneDrive Versionen

    SharePointPodcast: SPPD409 Das prall gefüllte Osternest

    Es ist mal wieder an der Zeit, die wichtigsten Ereignisse, Artikel und Ankündigungen der letzten Wochen zu sortieren und euch zu Gehör zu bringen.

    Ich habe spannende Artikel und Anleitungen herausgesucht, die etwas umfangreicher sind, aber auch tiefer in die jeweiligen Themen einführen. Und ich gebe Euch Feedback zu verschiedenen Veranstaltungen, die ich in den letzten Wochen besuchen konnte.

    Termine

    Themen

    • SharePoint Roadmap Pitstop: March 2019 in der INTRAZONE
      • Organization news
      • Organize news in a custom order (pinning)
      • Make a site an “Authoritative news site”
      • Share and coauthor documents with LinkedIn connections
      • Page templates
      • Sticky headers for lists and libraries
      • Updated sharing page for the SharePoint admin center in Office 365
      • Yammer tab in Microsoft Teams
      • Planner updates-Copy a plan
      • Microsoft 365 “Live Events” [GA]
      • The new Microsoft 365 admin center
    • SharePoint, Yammer und Stream – zusammen sind wir stark!

    Trends

    Tipps

    Tricks

    Talk

    faq-o-matic: AD-Dokumentation: José in Version 3.12

    Nach längerer Zeit gibt es endlich mal wieder ein Update von José, unserem Dokumentationstool für Active Directory. Die neuen Version 3.12 umfasst:

    • CSS-Dateien nach UTF-8 konvertiert, um Firefox-/Chrome-kompatibel zu sein
    • Neuer Batch-Aufruf für reine Metadaten
    • AD-Schema 88 (Windows Server 2019) und Exchange-Schema 2016 CU6-12, 2019
    • bei GPO-Links: das GPO-Icon verlinkt auf einen GPMC-Report. Wenn dieser im Unterordner „GPMC-Reports“ liegt und den DisplayName als Dateinamen trägt, wird er geöffnet. Ergänzend gibt es ein PowerShell-Skript, das die Reports erzeugt.
    • Standard-Reports und zugehörige Definitionen angepasst

    Wie immer finden sich der Download und weitere Informationen auf der José-Seite:

    https://www.faq-o-matic.net/jose/

    Michael Greth: Webinar Der Weg zum Microsoft Modern Secure Workplace*

    Es ist der Alptraum eines jeden Systemadministrators. Die Systeme wurden gehackt, der Hoster meldet ein Datenleck oder man steht selbst in der Pflicht, Datenschutz nachzuweisen.

    Termin Webinar 9.5.2019 14 Uhr

    Die Szenarien sind vielfältig. Gemeinsam haben sie jedoch, dass der Systemadministrator deutlich ruhiger schlafen kann, wenn er weiß, …

    Continue reading

    SharePointPodcast: SPPD408 Der gute Ton

    Das Ostern 2019 Special kommt diesmal mit zwei Interviews von der Deutschen Podcaster Konferenz Subscribe10.

    Rund 250 Podcastende, Medienschaffende und sonstige Teilnehmenden trafen sich Ende  März in Köln beim Deutschlandfunk zu einem spannenden Wochenende und Erfahrungsaustausch.

    Ich habe zwei Interviews mit Georg Holzmann (oben links) von auphonic und Sebastian Reimers von Studio-Link mitgebracht, um euch ein paar nützliche Tools für besseren Ton vorzustellen.

    Angebote der Community

    Die Links

     

     

     

     

    Hans Brender: aOS Session: Intelligent acceleration of daily work with OneDrive

    aOS Luxemburg 2019

    Want to meet me? I’m speaking on 05/16/2019 in Luxembourg about OneDrive. The exact session title is

    Intelligent acceleration of daily work with OneDrive

    You may join the event and register here.

    Cu there ?

    faq-o-matic: CDC Germany 2019: Die Agenda ist online

    imageIn wenigen Wochen findet die vierte Cloud & Datacenter Conference Germany statt: Am 21. und 22. Mai bietet die Konferenz IT-Technik und IT-Strategie auf höchstem Niveau.

    Jetzt hat das Organisationsteam die Agenda auf der Webseite veröffentlicht. Mehr als 50 Vorträge in sechs parallelen Tracks bieten Know-how von den besten Speakern der IT-Community.

    [Cloud & Datacenter Conference Germany – Die Zukunft Ihrer IT gestalten]
    https://www.cdc-germany.de/#agenda

    faq-o-matic: Windows 10 1809: Fehlender Doppelpunkt verhindert Anmeldung

    Wir haben gerade das 1809 LTSC beim Testen und sind dabei auf ein sehr merkwürdiges Fehlverhalten gestoßen. Beim Anmelden eines Benutzers kommt die Meldung “Windows konnte keine Verbindung mit dem Dienst Benutzerprofildienst herstellen”.

    Das ganze Problem wird von einem Doppelpunkt ausgelöst, der nicht vorhanden ist. Es geht dabei um das Home-Verzeichnis im AD:

    clip_image001

    Trage ich hier einen Doppelpunkt ein, so ist das Anmelden ohne Problem möglich.

    clip_image002

    Hier gab es den entscheidenden Hinweis:

    https://social.technet.microsoft.com/Forums/en-US/855b1a3f-80dd-463d-8005-5935bf7da36e/some-domain-users-get-quotuser-profile-service-failedquot-when-trying-to-login-after-october?forum=win10itprogeneral

    faq-o-matic: Active Directory wird 20: Herzlichen Glückwunsch!

    Vor genau 20 Jahren, am 9. April 1999, hat Microsoft seine eigene produktive Windows-Domäne mit gut 27.000 Benutzerkonten nach Active Directory migriert. Dies war die erste ernsthafte Installation des damals neuen Windows-Verzeichnisdienstes. Damit dürfen wir den 9. April 1999 wohl als den “Geburtstag” des Active Directorys ansehen – und wir gratulieren herzlich zum Jubiläum!

    Auf dem Blog des hannoverschen IT-Beratungshauses michael wessel gibt es mehr zum AD-Geburtstag:

    https://blog.michael-wessel.de/2019/04/09/active-directory-wird-20-herzlichen-glckwunsch/

    Michael Greth: Whitepaper How to minimize the impact of cloud outages on your business with real-time monitoring

    In Ergänzung zu unserem Webinar „Kurzschluss, Cloudausfall – Mal wieder kalt erwischt? “ hat Panagenda ein Whitepaper zusammengestellt, in dem anhand von aktuellen Beispielen von Cloud-Ausfällen ein Überblick über deren mögliche Auswirkungen gegeben wird. Zusätzlich gibt es wertvolle Tipps, mit welchen Maßnahmen man das Risiko für das Unternehmen minimieren kann.

    Download Whitepaper  How to minimize …

    Continue reading

    Carsten Rachfahl [Hyper-V]: Aus der Praxis: Austausch einer defekten NVMe in einem S2D Cluster

    ​Bei einem Kunden von uns hat eine NVMe einen IO Error angezeigt und musste daraufhin ​ausgetauscht werden. Die NVMe war als Caching Device in einen 4 Knoten S2D Cluster verbaut. Ich möchte euch hier kurz schildern, wie wir auf den Fehler aufmerksam wurden und welche Schritte notwendig waren, um die NVMe ​zu ersetzen.

    ​Kurz zur Hardware, es sind 4 Fujitsu Server mit je 4 x Intel P3700 800GB NVMe's und 20 Seagate 2TB HDDs für den Storage Spaces Direct Pool.

    Fehlersuche:

    ​Als ersten Indiz haben wir festgestellt, dass Repairjobs laufen, ohne dass einer der Server neu gestartet wurde. Daraufhin habe ich ​mit  "​Get-PhysicalDisk" die Festplatten überprüft und musste feststellen, dass ein Caching Device und wechselnde Festplatten IO Errors anzeigen. ​​​​Unten ein kurzes Beispiel der Ausgabe.

    ​Anhand der Seriennummern konnten alle fehlerhaften Festplatten ​einem Host ​zugeordnet werden. Die NVMe zeigte dauerhaft den I​O Error an, bei den HDDs  ​tauchte der Fehler sporadisch auf. Aber ich konnte die IO Errors auf den HDDs auf 5 Stück eingrenzen und damit war mir klar, dass diese Festplatten alle der defekten NVMe zugeordnet waren. ​Auf der Suche nach weiteren Infos zur Usache, ​​bin ich auch noch auf folgende Eventlog Einträge ge​stoßen.

    Austausch der NVMe:

    Vor dem Austauch, wurden alle Rollen ​von dem betroffenen Host verschoben und der Host auf "Pause" gesetzt und heruntergefahren.

    Der Fujitsu Support hat sich entschlossen, den Controller für die NVMe's und die fehlerhafte NVMe auszutauschen. ​Nachdem der Server wieder hochgefahren war, ergab ein weiterer  "​Get-PhysicalDisk" Befehl dass nun 2 NVMe und 10 HDDs auf "Lost Communication" standen. Die neue NVMe war nicht zu sehen.  Alle Festplatten befinden sich in dem Server, bei dem gerade die Komponenten ​getauscht wurden.

    ​Was war die Ursache für die fehlen der Festplatten? Es musste ja etwas mit dem Tausch der Komponenten zu tun haben. Letztlich hat sich herausgestellt, dass zwei der vier NVMe's nicht richtig gesteckt waren. Als dieser Mangel beseitigt war, wurden alle NVMe (die alte und auch die neue) korrekt angezeigt. Bei den HDDs waren nach wie vor 5 Festplatten auf "Lost Communication"

    ​Wir sehen, die defekte NVMe wird mit "Lost Communication" angezeigt und die neue NVMe ist noch nicht im Storagepool. An dieser Stelle ein dickes Danke schön für den sehr hilfreichen Blogpost von Jan-Tore Pedersen der genau beschreibt, welche weiteren Schritte nun zu tun sind. 

    ​Als nächster Schritt muss die ​defekte NVMe auf "retired" gesetzt werden.

    ​Jan-Tore Pedersen beschreibt ​in seinem Blogpost, dass die neue NVMe nun per PowerShell Befehl zum StoragePool hinzugefügt werden muss. Das habe ich versucht, doch ich bekam daraufhin folgenden Fehler angezeigt.

    ​Die neue NVMe war bereits als Caching Device im Storagepool. Das erfolgte wohl automatisch nachdem ich die d​efekte NVMe auf "retired" gesetzt hatte.

    ​Eine weitere Überprüfung der Festplatten mit "​Get-PhysicalDisk"  zeigt, dass die 5 HDDs, die der ​defekten NVMe zugeordnet waren, ​immer noch mit "Lost Communication anzeigten werden. ​Die HDDs müssen in einem weiteren Schritt der neuen NVMe zugeordnet werden.

    ​Es dauerte ein paar Minuten, bis alle Festplatten wieder mit "OK" und "Healthy" angezeigt werden. Jetzt muss nur noch die ​defekte NVMe aus dem StoragePool entfernt werden.

    ​Zum Abschluss überprüfen wir mit "Get-StorageJob" , ​ob die Repair Jobs angelaufen sind. Es kann einige Zeit dauern, bis alle Repair Jobs abgearbeitet wurden, aber das soll uns nicht daran hintern, den Knoten wieder aus dem Pause Modus ​zu nehmen und ihm seine Rollen ​zu übertragen.

    So, ich hoffe, ich konnte euch mit dieses Blogpost zeigen, wie eine NVMe aus einem S2D Cluster getauscht werden kann und welche Probleme dabei auftreten können. Bedenkt immer, dass all diese Befehle mit Vorsicht und Bedacht ausgeführt werden müssen, da ja meist ein Produktivsystem davon betroffen ist.

    Viel Erfolg bei eurer Arbeit und bis zum nächsten Mal

    Petra

    Der Beitrag Aus der Praxis: Austausch einer defekten NVMe in einem S2D Cluster erschien zuerst auf Hyper-V Server Blog.

    Michael Greth: Was tun wenn die Cloud ausfällt?

    Eigentlich sollte die „Cloud“ ja immer verfügbar sein, die Praxis aber zeigt, dass es immer wieder zu Ausfällen kommt. Ob und wie man sich davor schützen kann, worauf man achten sollte und welche präventiven Maßnahmen sinnvoll sind, besprechen Michael Greth (SharePointCommunity MVP) und Stefan Fried (panagenda) im Video „Kurzschluss, Cloudausfall – Mal wieder kalt erwischt?“ …

    Continue reading

    Hans Brender: Cloud & Datacenter Conference Germany–21. & 22.5. 2019 Hanau

    Mr. OneDrive auf der CDC 2019 in Hanau

    es ist demnächst wieder soweit. Am 21. & 22. Mai 2019 trifft man sich in Hanau auf der Cloud & Datacenter Conference Germany. Der Veranstaltungsort ist genau der gleiche wie im letzten Jahr. Und Carsten Rachfahl hat wieder viele bekannte Sprecher eingeladen und die Veranstaltung wird, so glaube ich, auch in diesem Jahr ein Erfolg werden. Ein bisschen darf auch ich beitragen mit einem Slot zu, na klar, richtig, zu OneDrive.

    OneDrive beschleunigt mit Intelligenz die tägliche Arbeit

    so lautet der Titel. Diesen Vortrag habe ich zum ersten Mal auf der Microsoft IgniteTheTour in Hongkong in englischer Sprache gehalten. Hier also die deutsche Premiere.

    Wer mich also sehen möchte und dazu noch jede Menge andere MVPs, der muss sich ein jetzt hier anmelden.

    Man sieht sich…

    Hans Brender: OneDrive | Update for GPO team site libraries to sync automatically

    Group Policy: Configure team site libraries to sync automatically

    I have written an article about “OneDrive GPO: Configure team site libraries to sync automatically” and I must update this article.

    First, and that is important: If we are looking inside the OneDrive Group Policies, you will see, there is a Group Policy in both parts (Machine and User) with the same name

    Configure team site libraries to sync automatically

    I have described the GPO, which is a Machine policy. But there are other Scenario’s with more than one user and Microsoft has decided, to have the same Group Policy also in the Users Section.

    Local Group Policy Editor: Computer

    Local Group Policy Editor: User

    The name is the same. The group Policy looks like the same. The Functionality is the same. Only the Key in the Regedit is different

    Machine

    [HKLM\SOFTWARE\Policies\Microsoft\OneDrive\TenantAutoMount] "LibraryName"="LibraryID"

    User

    [HKCU\Software\Policies\Microsoft\OneDrive\TenantAutoMount]"LibraryName"="LibraryID"

     

    Why Microsoft decided to have the same Group Policy in the Users section?

    Its very easy, because if you look for devices, where different people from different departments will login, then there is the answer. If you have a machine policy, you are only may connect to team sites, where all possible users have the rights. Changing that to a User Policy, you may have to rollout several different GPOs, that will only work with this subset of AD.

    Other questions received me, thank you, and I try to give you the right answer:

    Why do we have the limit of 1000 devices?

    We have to know, how OneDrive is working. Microsoft uses Windows Push Notification Services (WNS) to sync files in real time. The main important part is: WNS informs the sync client whenever a change actually happens, eliminating redundant polling and saving on unnecessary computing power. So on the Server side:

    • A change occurs in Office 365.
    • WNS alerts the OneDrive sync client of the change.
    • OneDrive adds it to the Internal Server Changes Queue.
    • – Any metadata changes happen immediately, like renaming or deleting files.
    • – Downloading content also starts a specific session with the client.
    • Office 365 has metadata pointers directing it through Microsoft Azure.
    • The changes are processed in the order they are received.

    The previous OneDrive for Business sync client (Groove.exe) used a polling service to check for changes on a predetermined schedule. Polling can lead to system lag and slowness because it requires a lot of computing power. Using WNS is a significant enhancement.

    Now back to our question: WNS has one limit: 1000.

    This is the current limit of devices that can subscribe through the WNS pipeline to get notifications from the service about file changes. After that limit is reached, the remaining clients will go into polling mode, which means they will poll the service every few minutes to see if there are any changes.

    Why does take up to 8 hours, until the client machine receives the files?

    This is because of the potential spike of requests of mounting a team site both on the customer’s network as well as on the backend service.

    This Group Policy is in Preview. Microsoft will see on telemetry data, how this Group policy will be used. In other words. It could be change in the future

    Michael Greth: SharePoint, Yammer und Stream – zusammen sind wir stark!

    SharePoint, Yammer und Stream – zusammen sind wir stark!

    Wie das geht und wie insbesondere auch Live-Events mit Microsoft Stream Führungskräfte im Unternehmen in die Lage versetzen, mit den Mitarbeitern in Kontakt zu kommen, hat Dan Holme in seiner Session auf der Microsoft IGNITE The Tour sehr eindrucksvoll dargestellt. Die Aufzeichnung des Vortrag ist jetzt …

    Continue reading

    faq-o-matic: Powershell: Dynamische Logikabfragen

    Bei einem aktuellen Projekt benötigte ich die Möglichkeit, mehrere Werte aus einer XML-Datei mit einem ebenfalls darin definierten Logikoperator zu vergleichen. Das Szenario dazu: In dem Projekt ist eine leichtgewichtige Softwareverteilung auf Skriptbasis im Einsatz, die beim Systemstart verschiedene Applikationen aktualisiert. Hier war noch etwas mehr Logik erwünscht, um Aktivitäten nur dann auszuführen, wenn bestimmte Bedingungen erfüllt sind.

    Da der Code möglichst dynamisch und gut erweiterbar sein sollte, stellte sich heraus, dass der Logikoperator durch einen Scriptblock dynamisch in den Code eingefügt werden musste. Um dies zu ermöglichen, habe ich die Funktion Apply-CustomLogic() entworfen, welche aktuell die Operatoren „like“, „is“, „isnot“, „startswith“, „notstartswith“, „endswith“ und „notendswith“ unterstützt.

    Drei kurze Cmdlet Beispiele dazu, die mit einer Funktion auf dieser Basis arbeiten:

    Apply-CustomLogic(„startswith“,“faq-o-matic.de“,“faq“)  <- Ergebnis: $true

    Apply-CustomLogic(„endswith“,“faq-o-matic.de“,“.de“)  <- Ergebnis: $true

    Apply-CustomLogic(„notendswith“,“faq-o-matic.de“,“.de“) <- Ergebnis: $false

    Ein typisches Code-Szenario dafür wäre: Mehrere Konditionen sowie Referenzwerte müssen aus einer XML-Datei ausgelesen und dann in Powershell interpretiert werden.

    Die XML Datei beinhaltet dann folgendes:

    <check type="RegistryValue" logic="StartsWith">
       <path>Registry::HKEY_LOCAL_MACHINE\SOFTWARE\Wow6432Node\TeamViewer\</path>
       <key>Version</key>
       <value>14</value>
    </check>
    <check type="RegistryPathPresent" logic="Is">
       <path>Registry::HKEY_LOCAL_MACHINE\SOFTWARE\TeamViewer\</path>
    </check>
    
    

    Der Script-Part dazu sähe wie folgt aus:

    [..]
    #Check if a registry path is present
    if($checkType -eq "RegistryPathPresent"){
       if(
    	   !(Apply-CustomLogic -condition $check.Logic -V1 $true -V2 (Get-ItemProperty -Path $Check.Path -ErrorAction SilentlyContinue))
    	 ){
    	   Write-CustomWarning("Check $checkType for $($Check.Path)$($check.Key) is $IgnoreSoftware, supposed value is $($Check.Value), current value is $($Path.$($Check.Key))")
       }else{
    	   Write-CustomLog("Check $checkType for $($Check.Path)$($check.Key) is $IgnoreSoftware, supposed value is $($Check.Value), current value is $($Path.$($Check.Key))")                
       }
    }
    
    #Check for a specific registry value
    if($checkType -eq "RegistryValue"){
       if(
    	   !($Path = Get-ItemProperty -Path $Check.Path -ErrorAction SilentlyContinue) -or
    	   !(Apply-CustomLogic -condition $check.Logic -V1 $Path.$($Check.Key) -V2 $Check.Value)
       ){
    	   Write-CustomWarning("Check $checkType for $($Check.Path)$($check.Key) is $IgnoreSoftware, supposed value is $($Check.Value), current value is $($Path.$($Check.Key))")
       }else{
    		Write-CustomLog("Check $checkType for $($Check.Path)$($check.Key) is $IgnoreSoftware, supposed value is $($Check.Value), current value is $($Path.$($Check.Key))")
    	}
    }
    [..]
    

    Hierbei werden nun die Konditionen und Referenzwerte aus der XML-Datei gegen reale, per Powershell abrufbare Funktion oder Variablen geprüft. Um den Code dynamisch zu generieren, nutzt die Funktion die Funktion Create([string]) auf der Klasse [Scriptblock], um aus einem vorher zusammengesetzten String einen ausführbaren Code zu generieren. Dieser Code wird im Anschluss durch $scriptblock.Invoke() ausgeführt und wendet den vorher generierten Logikcode aus.

    Zu finden ist diese Funktion hier:

    https://github.com/RobinBeismann/PowerShell-Scripts/blob/master/Scripts/Snippets/Apply-CustomLogic.ps1

    Carsten Rachfahl [Hyper-V]: Monitoring eines S2D Clusters mit Grafana, InfluxDB und PowerShell (Teil 1)

    Hallo, Jan hier. Da ich in letzter Zeit einiges in Richtung Monitoring gemacht habe, führe ich diese Erkenntnisse hier mal auf und zeige euch, wie man ein Monitoring-System mit Hilfe von InfluxDB und Grafana aufbaut, um sein S2D-Cluster zu monitoren und die Performance-Werte grafisch dazustellen. Grundsätzlich ist mit dieser Lösung ein Monitoring aller möglichen Dinge machbar, ich z.B. habe die Installation im ersten Schritt dazu genutzt, die Windows 10-Verteilung in der Firma visuell darzustellen.

    Die Grundvoraussetzung

    Der Aufbau beschränkt sich in meinem Fall auf eine VM mit einem aktuellen Debian 9.8. Keine Angst, die Installation ist schnell gemacht und alle Schritte werden hier zum einfachen kopieren beschrieben.

    Die Debian Grundinstallation

    Die VM bekommt von mir 2 vCPUs, 4 GB RAM und eine 80 GB große VHDX zugewiesen. Ich nutze eine Generation 2-VM, bei der allerdings das Secure-Boot deaktiviert wurde, da Debian hier noch keine passenden Zertifikate vorhanden sind. Weiterhin sollten Sie darauf achten, dass die virtuelle Netzwerkkarte eine statische MAC-Adresse hat, da Debian es nicht so gerne hat, wenn sich die MAC-Adresse ändert. Falls es zu einer Änderung der MAC-Adresse kommt, kann es hier sein das diese dann als eth1 erkannt wird, eth1 hat keine Konfiguration usw...

    Die eigentliche Installation

    Hier gibt es eigentlich nicht viel zu beschreiben, es handelt sich um eine gewöhnliche Installation von Debian. Falls dies vollkommen unbekannt ist, gibt es haufenweise Anleitungen im Internet, z.B. von DigitalOcean oder anderen Howto-Seiten.
    - Ich bevorzuge die "Install"-Variante ohne die grafische GUI, diese geht schneller von der Hand.
    - Die Sprache bleibt bei mir auf Englisch, lediglich die Tastatur wird auf Deutsch gestellt.
    - Die komplette Platte wird verwendet, kein Volume Manager, alles auf eine Partition
    - Bei der Auswahl der Software wähle ich nichts aus außer SSH und die Standard-Systemtools (d.h. Desktop weg und Print Server weg)

    Nach der Grundinstallation beginnen wir mit dem Download und der Installation der benötigten Pakete. Vorab aktualisieren wir die Paketquellen und das gesamte System, so das alles auf dem aktuellen Stand ist.

    # Aktualisierung auf den neuesten Stand, Installation von ein paar benötigten Tools und Paketen
    apt update && apt install mc htop nano -y && apt upgrade -y && apt dist-upgrade -y
    apt-get install -y adduser libfontconfig

    # Download der Setup-Dateien
    cd /usr/src
    wget wget https://dl.influxdata.com/influxdb/releases/influxdb_1.7.4_amd64.deb
    wget https://dl.grafana.com/oss/release/grafana_6.0.2_amd64.deb

    # Installation
    dpkg -i influxdb_1.7.4_amd64.deb
    dpkg -i grafana_6.0.2_amd64.deb

    # Automatischer Start von Grafana zum Systemstart
    /bin/systemctl daemon-reload
    /bin/systemctl enable grafana-server

    Nun haben wir die reine Grundinstallation abgeschlossen und kommen zur Konfiguration der beiden Applikationen. Dazu editieren wir zuerst die config-Datei der InfluxDB-Datenbank.

    nano /etc/influxdb/influxdb.conf

    In dieser Datei müssen wir nun den Bereich "HTTP" anpassen. Wir setzen "enabled" auf "true" und aktivieren den port "8086". Das Ergebnis sieht wie folgt aus:

    Danach müssen wir den Influx-Dienst einmal durchtreten

    service influxd restart

    Nun wechseln wir in die Influx-Datenbank und legen einen neuen Benutzer sowie eine neue Datenbank an. "username" muss ersetzt werden durch einen beliebigen Username, ebenso "password" mit einem starken Passwort. Danach verlassen wir influxDB wieder.

    influx
    CREATE USER "username" WITH PASSWORD 'password' WITH ALL PRIVILEGES
    CREATE DATABASE "Datenbankname"
    exit

    Eine manuelle Test-Verbindung zur Datenbank können wir auch herstellen, hierzu kann der influx-Befehl mit Parametern genutzt werden. Klappt dies, steht einer Nutzung eigentlich nichts mehr im Weg.

    influx -username "username" -password "password"

    Die Einrichtung von Grafana

    Nachdem wir nun die Installation von Grafana und der Datenbank abschlossen haben, können wir mit der Einrichtung starten. Durch die Installation im vorherigen Schritt steht Grafana schon zur Verfügung und lauscht standardmäßig auf Port 3000. Schauen Sie kurz nach, mit welcher IP-Adresse ihr Linux-System online ist:

    ip a s

    Danach können Sie die Weboberfläche auf Port 3000 aufrufen und sich mit admin und admin anmelden. Sie werden direkt nach der ersten Anmeldung dazu aufgefordert, das Standard-Kennwort zu ändern. Tun Sie dies!

    Anbindung der Datenbank-Quelle

    Wir müssen nun die vorab installierte InfluxDB als Datenbankquelle hinzufügen, damit die Daten zur Visualisierung genutzt werden können. Direkt nach der ersten Anmeldung können wir die Option "Datenquelle hinzufügen" benutzen, alternativ geht es über das Menü auf der linken Seite.

    In den Einstellungen müssen wir die folgenden Optionen angeben:

    - Name: Hier geben wir der DB-Quelle einen Namen. z.B. InfluxDB

    - URL: Hier tragen wir die lokale Adresse mit dem Port 8086 ein, den wir zuvor aktiviert haben in der Konfiguration: http://localhost:8086

    - Auth: Hier wählen wir "with credentials" aus, damit wir eine Anmeldung an der Datenbank machen können.

    - InfluxDB Details: Hier tragen wir den Namen der Datenbank, den Benutzernamen und das Kennwort ein, was wir im Vorfeld in der Influx-Datenbank angelegt haben.

    Alle weiteren Optionen können wir leer lassen, diese werden an dieser Stelle nicht benötigt.

    Nun haben wir eine Datenbank hinzugefügt. Diese Datenbank dient später als Quelle für die Performance-Daten, die wir visualisieren möchten. Zum aktuellen Zeitpunkt befinden sich allerdings noch keine Daten in dieser Datenbank, daher werden wir nun im nächsten Schritt dafür sorgen, dass Daten in die Datenbank gelangen.

    Einen oder mehrere Server als Datenquelle hinzufügen

    Um nun an die Daten der Windows S2D-Server zu kommen, nutzen wir ein PowerShell-Modul, welches die gewünschten Daten in die vorab eingerichtete Datenbank speichert. Ich beginne in meinem Fall mit dem ersten der beiden Knoten und richte ein kleines Test-Skript ein, welches ein paar Demo-Daten ausliest und speichert. Die Installation erfolgt in einer PowerShell:

    Install-Module Influx

    Nach der Installation benötigen wir ein kleines Skript, welches die Daten per Perfmon ausliest und in die entsprechende Datenbank schreibt. Anbei eine kleine txt-Datei mit dem Skript.

    Die paar Zeilen PowerShell machen die folgenden Dinge:

    - Zeile 1 definiert den Datenbank-Server
    - Zeile 2 und 3 sind Benutzername und Kennwort der Datenbank (dies könnte auch manuell eingegeben werden, damit die Daten nicht im Plaintext im Skript stehen)
    - Zeile 4 baut die Credentials so zusammen, dass sie in dem Skript nutzbar sind
    - Zeile 6 holt sich die Werte für die CPU-Auslastung und den verwendeten Speicher
    - Zeile 7 und 8 speichern den reinen Wert (z.B. 41,52 für die prozentuale CPU-Auslastung)
    - Zeile 10 bis 13 schreibt diese Werte in ein Array und definiert dafür den Namen, der später in Grafana als Datenquellwert angewählt werden kann (z.B. cpu active).
    - Zeile 15 schreibt die beiden Werte in die InfluxDB

    Sind alle Daten korrekt eingetragen, wird ein ersten Datenwert in die Datenbank geschrieben. Diesen Wert önnen wir uns nun in einem neuen Dashboard anzeigen lassen. Final wird es dann so sein, dass über einen geplanten Task kontinuierlich Daten in die Datenbank geschrieben werden, mit Hilfe dieser Punkte können wir uns dann einen Graph erzeugen.

    Das erste Dashboard erzeugen

    Wir wechseln nun zurück in die Grafana-Oberfläche und erzeugen ein neues Dashboard. Als erstes geben wir die Query-Daten ein, damit das Dashboard weiß, von wo und welche Daten es sich holen soll. Sobald die Daten korrekt eingetragen sind, können wir den einen erzeugten Punkt sehen.

    Nachdem nun die korrekte Datenquelle angegeben wurde, können wir nun mit der Formatierung der Anzeige beginnen. Dazu wechseln wir in der linken Seitenleiste auf die Visualisierung.

    Hier können wir allerlei Einstellungen vornehmen, die unsere Anzeige verändert und so anpasst, dass wir die Daten optimal sehen können. Ich stelle fast immer unter "Stacking & Null value" die Option "Connected" ein, damit die Punkte untereinander verbunden werden und es keine Null-Werte gibt (die kann es natürlich geben, aber wenn man die RAM-Größe beobachtet, wird diese ja nicht auf Null fallen, nur weil gerade in diesem Moment nichts gemessen wurde :) )

    An dieser Stelle sind wir am Ende von Teil 1 angekommen, die Grund-Infrastruktur steht soweit. Im zweiten Teil werden wir uns anschauen, welche relevanten Perfmon-Werte wir uns anschauen und protokollieren sollten. Mit diesen Werten werden wir dann ein Dashboard bauen, welches uns die Latenzen und IOPS-Werte der Volumes anzeigt. Danke fürs Lesen und bis zum nächsten Mal :)

    Der Beitrag Monitoring eines S2D Clusters mit Grafana, InfluxDB und PowerShell (Teil 1) erschien zuerst auf Hyper-V Server Blog.

    Carsten Rachfahl [Hyper-V]: Webinar What’s new in Hyper-V 2019 am 29. März um 11 Uhr (Deutsch) and 5 pm (Englisch)

    • ​Deutsch Sprachiges Webinar
    • ​Englisch sprachiges Webinar

    ​At the 29th of March 5 pm CET+1, our next Webinar is about What's new in Hyper-V 2019. First I thought this would be a short Webinar, but after collecting the slides, it is much more as I thought.


    Here is the Agenda:

    • Hyper-V in Server
    • Hyper-V in Client
    • Hyper-V in Azure
    • check
      Demo
    • Q&A

    To sign-up click on the picture or here! Don't worry that you maybe have no time to attend this Webinar if you sign-up you will get a link to the recording afterward.

    Carsten


    Der Beitrag Webinar What’s new in Hyper-V 2019 am 29. März um 11 Uhr (Deutsch) and 5 pm (Englisch) erschien zuerst auf Hyper-V Server Blog.

    faq-o-matic: Cloud & Datacenter Conference Germany am 21. und 22. Mai in Hanau

    imageCarsten Rachfahl und sein Team laden auch in diesem Jahr wieder zur “Cloud & Datacenter Conference Germany” (kurz: CDC) nach Hanau. Erneut umfasst die Konferenz zwei Tage, und zwar den 21. und den 22. Mai 2019.

    Die Konferenz bietet mehr als 50 Sessions ausgewiesener IT-Experten – darunter wieder die Crème de la Crème der IT-Community mit einer hohen Anzahl an Microsoft-MVPs und bekannten hochkarätigen Sprechern. Der Congress Park Hanau hat sich bereits im letzten Jahr als hervorragende Location für eine IT-Konferenz dieser Art empfohlen.

    Nähere Details und Tickets gibt es hier:

    [Cloud & Datacenter Conference Germany – Die Zukunft Ihrer IT gestalten]
    https://www.cdc-germany.de/

    SharePointPodcast: SPPD407 Frühlingserwachen

    Die Shownotes zum Frühlingsanfang. 

    Termine

    Tipps

    Themen

    Teams

    Carsten Rachfahl [Hyper-V]: Webinar Window Server 2019 – ReFS + DeDup am 8. März um 11 Uhr (Deutsch) and 5 pm (Englisch)

    • ​Deutsch Sprachiges Webinar
    • ​Englisch sprachiges Webinar

    At the 8th of March 5 pm CET+1, our next Webinar is about ReFS and DeDup. ReFS as new filesystem offer great possibilities especially with Hyper-V and is a must for every Storage Spaces Direct implementation. Windows Server 2019 finally provides the option to use ReFS and Deduplication together.


    Here is the Agenda:

    • ReFS overview
    • ReFS and Hyper-V
    • ReFS and S2D
    • check
      DeDup and Compression
    • Performance
    • check
      Demo
    • Q&A

    ​To sign-up just click on the picture or here! Don't worry that you maybe have no time to attend this Webinar if you sign-up you will get a link to the recording afterwards.

    Carsten


    Der Beitrag Webinar Window Server 2019 – ReFS + DeDup am 8. März um 11 Uhr (Deutsch) and 5 pm (Englisch) erschien zuerst auf Hyper-V Server Blog.

    Carsten Rachfahl [Hyper-V]: Webinar Window Server 2019 SMB Direct Best Practices am 25. Februar um 16 Uhr (Englisch)

    • ​Deutsch Sprachiges Webinar
    • ​Englisch sprachiges Webinar

    On 25th of February will my Hyper-V Amigos compadre Didier Van Hoye join me in the Webinar "Window Server 2019 SMB Direct Best Practices". Didier nickname is "Mr. RoCE Balboa," and this is with good reason! There are not many that have spent more time with RDMA in Windows Server than @WorkingHardinIT.


    Here is the Agenda:

    • iWarp
    • RoCE
    • PCF and ETS
    • check
      Guest RDMA
    • check
      Demo
    • Q&A

    ​To sign-up just click on the picture or here! Don't worry that you maybe have no time to attend this Webinar if you sign-up you will get a link to the recording afterwards.

    Carsten


    Der Beitrag Webinar Window Server 2019 SMB Direct Best Practices am 25. Februar um 16 Uhr (Englisch) erschien zuerst auf Hyper-V Server Blog.

    Carsten Rachfahl [Hyper-V]: S2D Bechmarking, Azure Stack in Hyper-V und Hyper-V Amigos Showcast

    Die letzten 30 Tage waren turbulent - neben der Organisation der Cloud & DataCenter Conference Germany 2019 durfte ich 3 Vortrage (auf den MVPDays, dem Azure Saturday Berlin und den S2DDays) halten und eine Hyper-V Amigos Showcast aufnehmen. 

    Da von drei Aufzeichnungen existieren möchte ich diese unten aufführen damit ihr bei intresse diese Anschauen könnt.

    MVPDays - Azure Stack Development Kit - the cheap Azure Development Platform

    In dieser 30 Minuten Session erkläre und zeige ich warum das Azure Stack Development Kit in einer Hyper-V VM ein fantastischer und kostengünstiger Start mit Azure IaaS ist. Außerdem eignet sich das ASDK in einer VM auch super zum Entwickeln.


    S2DDay - Learn what Storage Spaces Direct is cabable of by benchmarking the setup

    In diesem 30 Minuten Vortrag bespreche und vor allem Demo ich welche Benchmarks wir einsetzten um eine Storage Spaces Direct Installation auf "Herz & Nieren" zu prüfen. Freut euch auf eine Demo reiche Session mit Demos wie "Livemigration mit 50 GBit/s", "IOmeter in einer VM" und "VMFleet".


    Hyper-V Amigos Showcast Episode 17 - Veeam B&R 9.5 Update 4

    In dieser Episode schauen Didier und ich uns das Update 4 von Veeam Backup & Replication 9.5 an. Wir sprechen erst einmal über die Neuerungen und werden dann in einer weiteren Folge uns einige der neuen collen Feature live testen. Hier geht's zum Beitrag und hier ist das Video.


    Der Beitrag S2D Bechmarking, Azure Stack in Hyper-V und Hyper-V Amigos Showcast erschien zuerst auf Hyper-V Server Blog.

    SharePointPodcast: SPPD406 Bemerkungen zum 14. Jahrestag

    Heute, am 7.2.2019, wird der SharePointPodcast 14 Jahre alt -übrigens am 7.2.1964 begann die “Beatlemania” in den USA – aber das ist ein anderes Thema.

    Ich blicke ein wenig zurück auf die Geschichte dieses Podcast und stelle Euch ein paar Podcasts vor, deren Macher sich vielleicht auch ein wenig von mir haben inspirieren lassen.Und verlost wird auch etwas.

    Freikarte für Collabsummit 2019

    SharePointPodcast: SPPD405 Aus der Praxis

    Im Talk mit Claudia Eichler-Liebenow von workcel spreche ich über Aspekte des modernen Intranets.
    Erfahrungen mit der Einführung und Umsetzung von Office 365, Yammer und Teams schildert Harald Rau von der Munich RE.

    Aufgenommen auf der European SharePoint, Office 365 and Azure Conference 2018 in Kopenhagen

    Und hier die Videos

    Don't contact us via this (fleischfalle@alphasierrapapa.com) email address.