TechNet · Englische TechNet Blogs · TechNet Deutschland · itproblogs.de · .NET Blogs

faq-o-matic: Zentrales Fileshare mit Azure File Services

Dieser Beitrag erschien zuerst auf Ralfs Blog.

Neben dem meistens verwendeten Blob Storage in Azure gibt es auch den File Storage, und den kann man hervorragend für ein zentrales Fileshare nutzen. Wie das geht ist Thema dieses Blogartikels.

Wir melden uns im Azure Management Portal an, und legen uns zuerst ein Speicherkonto an, falls noch keines vorhanden, das wir verwenden wollen. “Neu”, “Storage”, “Speicherkonto”:

filestorage1

Wir vergeben einen Namen und wählen ein Bereitstellungsmodell sowie ggf. weitere Optionen wie Kontoart, Leistung, Replikation und Verschlüsselung. Auch die Entscheidung für eine neue oder eine bereits vorhandenen Ressourcengruppe soll hier für den Beitrag keine Rolle spielen. Mit einem Klick auf “Erstellen” wird das Speicherkonto angelegt.

Nach erfolgter Bereitstellung die Ressource im Portal auswählen und in der Übersicht auf “Dateien” gehen:

filestorage2

Wir erstellen eine neue Dateifreigabe, zum Beispiel “install”, mit einem Kontingent von 1 GB. Diese neue Freigabe erscheint dann in der Liste der Freigaben, und nach einem Klick darauf sehen wir die darin verfügbaren Dateien (zum Start ist da logischerweise noch alles leer).

filestorage3

Auf der Registerkarte sieht man mehrere Befehle, zum Beispiel “Hochladen” oder “Verzeichnis hinzufügen”. Die Bedeutung sollte offensichtlich sein. Unter “Verbinden” zeigt uns das Azure Portal netterweise die Kommandozeile für Windows und für Linux, um die Freigabe direkt verwenden zu können:

net use [Laufwerkbuchstabe] \\demo.file.core.cloudapi.de\install /u:demo [Speicherkonto-Zugriffsschlüssel]

bzw. für Linux:

sudo mount -t cifs //demo.file.core.cloudapi.de/install [Bereitstellungspunkt] -o vers=3.0,username=demo,password=[Speicherkonto-Zugriffsschlüssel],dir_mode=0777,file_mode=0777

Wir müssen jetzt nur noch den Speicherkonto-Zugriffsschlüssel einfügen (in Anführungszeichen), und das war’s auch schon. Den Schlüssel finden wir entweder bei den Eigenschaften des Speicherkontos, also ein paar Registerkarten weiter links, oder – wiederum sehr nett von Azure – wir klicken einfach auf den Link, der auf der aktuellen “Verbinden”-Registerkarte ganz unten steht. Um die Freigabe zum Beispiel als Laufwerk X: auf einer anderen Azure-VM verfügbar zu machen, lautet das Kommando (den Key hab ich natürlich etwas gekürzt…):

net use X: \\demo.file.core.cloudapi.de\install /u:demo "XLXAroaWTRsG3Kk...UelomcTXHNaHC/zYtEQ=="

Die Freigabe ist ein Standard-SMB3-Share und kann ganz normal als solches verwendet werden. Ein paar Einschränkungen gibt es, zum Beispiel muss unter Windows der Ausgangsport 445 geöffnet werden, was leider von einigen Internet-Providern nicht unterstützt wird, aber innerhalb von Azure prima funktioniert. Unter Linux muss die Freigabe in der gleichen Region sein wie die VM, von der aus man sie mounten möchte.

Ab sofort können wir dann die Freigabe in anderen VMs nutzen, zum Beispiel um dort immer wieder verwendete Installationspakete abzulegen…

Christian Küver: 08.06.17 - Microsoft Cloud Community Summer Meeting in Dortmund

Hallo zusammen,

unser nächstes Cloud Community Summer Event steht an.

Es erwartet Euch erneut ein "Haufen" von technischen Vorträgen:

Unser Agenda

ab 08:30 Uhr
Snacks u. Getränke

09:00 - 09:30 Uhr

Begrüßung u. News aus der Community 
(Markus Klein, Hybrid Cloud Lead & MVP)

09:30 - 10:15 Uhr

Keynote - Automatisierte Verwaltung von Microsoft Azure Enterprise Umgebungen
(Fabian Pagel, Geschäftsführer - XIBIX Solutions GmbH)

10:15  - 11:00 Uhr

Das Cloud Solution Provider Programm
(Jessica Bois, Microsoft Deutschland GmbH)

Auftragsmanagement für WaaS Szenarien. Ticket, Wartung, Zeiterfassung und Abrechnung

11:15 - 12:00 Uhr

Azure Web App mit Azure SQL – Security Best Practices
(Lennart Passig, IT Architect)

12:00 - 12:45 Uhr

Monitoren heterogener IT Infrastrukturen mit OMS
(Astrit Dibrani, OMS Lead)

14:00 - 14:45 Uhr

Azure Stack - Deep Dive
(Markus Klein, Hybrid Cloud Lead u. MVP Cloud & Datacenter)

14:45 - 15:30 Uhr

Azure Site Recovery in Real World
(Eric Berg, MVP Cloud & Datacenter, IT Architect)

15:45 - 16:30 Uhr

ARM Policies - Kontrolle über die eigenen Ressourcen
(Benjamin Hüdepden, Cloud Architect)


16:30 - 17:15 Uhr

Closing Note "Mehrwerte schaffen durch Einsatz von Künstlicher Intelligenz"
(Julian Müller-Lindloff, Geschäftsführer invaluable GmbH)


ab 17:15 Uhr
Klönschnack mit unseren Experten

Anmeldung:

http://mscommunity.cloud/blogs/2107-08-06-17-microsoft-cloud-community-meets-service-provider-technologies

Beste Grüße,

Christian

faq-o-matic: Site-to-Site-VPN zwischen Clouds

Dieser Beitrag erschien zuerst auf Ralfs Blog.

Nachdem Microsoft Azure Deutschland ja eine separate Instanz der Azure-Cloud ist, mit unterschiedlichen Subscriptions, Rechenzentren, und auch ohne Verbindung zum Backbone, stellt sich die Frage, ob und wie man eine Azure Umgebung netztechnisch mit Azure Deutschland verknüpfen kann. Und genau das soll Thema dieses Blogposts sein.

Um Netze nach und in Azure zu koppeln gibt es grundsätzlich mal vier Verfahren:

  • VNet Peering
  • VNet-to-VNet (V2V)
  • Site-to-Site (S2S)
  • ExpressRoute(s) (nur der Vollständigkeit halber hier, würde aber zu weit führen)

Schauen wir uns also die Möglichkeiten mal an …

VNet-Peering

Eine Voraussetzung für VNet-Peering ist, dass sich beide VNets in derselben Region befinden. Da dies bei AZure und AZure Deutschland offensichtlich nicht der Fall ist, müssen wir das hier auch nicht weiter betrachten. Wen VNet-Peering trotzdem interessiert, der findet hier einen tollen Artikel dazu.

VNet-to VNet (V2V)

VNet-toVnet (V2V) ähnelt dem im folgenden Abschnitt beschriebenen S2S, nur liegen hier beide VNets mit ihren Endpunkten in Azure. Man kann also V2V zum Beispiel verwenden, um Netze in unterschiedlichen Azure-Regionen verbinden zu können, selbst wenn diese in unterschiedlichen Subscriptions angelegt sind (dann halt nur via PowerShell, aber wen stört das schon…). Das Aufsetzen ist super einfach und hier prima beschrieben, aber leider müssen für V2V beide Subscriptions innerhalb der gleichen Azure Umgebung liegen, also beide in Azure oder beide in Azure Deutschland. Damit scheidet V2V für unsere geplanten Zwecke auch aus…

Site-to-Site (S2S)

Normalerweise verwendet man S2S, um zwischen Azure und der lokalen (on-premise) Netzwerkumgebung einen verschlüsselten Tunnel herzustellen. Man vereint beide Netzwerke also zu einem, indem man jeweils ein Gateway definiert und beide mit den Infos versorgt, wo sich der andere Endpunkt befindet und wie man miteinander redet (IPSec Parameter, Adressen etc). Auch hier gibt es eine einfach nachzuvollziehende Anleitung, von der wir hier nur in Stichworten die Reihenfolge der notwendigen Schritte betrachten:

  1. Virtuelles Netzwerk erstellen
  2. Adressraum definieren
  3. Subnetze erstellen
  4. Gateway-Subnetz erstellen
  5. Gateway für VNet erstellen
  6. Gateway für lokales Netz erstellen (quasi der Platzhalter für ihr lokales Gerät)
  7. lokales VPN-Gerät konfigurieren
  8. Verbindung herstellen

Um VNets zwischen Azure und Azure Deutschland zu koppeln, bereitet man in beiden Umgebungen alles vor (Schritt 1-5 aus obiger Liste), um das VNet mit einem normalen VPN-Gerät zu verbinden, und gibt dann einfach die beiden Gateways bei der jeweils anderen Konfiguration als Partner an (Schritt 6). Oder anders ausgedrückt: Statt Schritt 7 wird einfach nochmal Schritt 1-6 in der anderen Umgebung durchgeführt. Man tut also quasi so, als ob der andere Endpunkt ein on-premise Gateway ist. Nachdem beide angelegt sind, führt man Schritt 6 in Azure aus und gibt als Adresse die öffentliche IP des Gateways in Azure Deutschland an, und noch einmal Schritt 6 in Azure Deutschland mit Angabe der öffentlichen IP des Azure-Gateways. Und dann direkt noch Schritt 8, und das war’s. ALles klar? Nein? ok, dann hier nochmal:

  • Schritt 1-5 für Azure durchführen
  • Schritt 1-5 für Azure Deutschland durchführen
  • Schritt 6 in Azure mit Eingabe der öffentlichen IP des Gateways in Azure Deutschland (aus dem vorherigen Schritt)
  • Schritt 6 in Azure Deutschland mit Eingabe der öffentlichen IP Adresse des Gateways in Azure
  • verbinden mit Schritt 8 (und Schritt 7 entfällt)

Ab sofort können dann VMs, die man in einem der beiden VNets anlegt, über den IPSec-Tunnel mit ihren IP-Adressen miteinander kommunizieren.

Caveat

Zwischen V2V und S2S gibt es Unterschiede bei den Preisen für Netzwerkverkehr. Bitte unbedingt vorher nachlesen!

Der Tunnel selbst führt über das normale Internet, daher sind Ausfälle oder schwankende Bandbreiten nicht auszuschließen, also genau wie bei S2S-Verbindungen zwischen Azure und on-premises.

Hans Brender: OneDrive und SharePoint Online | geändertes Teilen

OneDrive for Business, Microsoft

Am 8.Mai hat Microsoft die Änderungen im Nachrichten-Center von Office 365 veröffentlicht. Ich habe es natürlich gleich getestet, aber es war noch nicht auf meinem Tenant ausgerollt worden. Und es auch mit dem heutigen Datum noch nicht auf allen Tenants verfügbar. Deshalb habe ich es auch versäumt, einen Beitrag darüber zu schreiben. Zuerst, für all die Leser, die mit den Microsoft Bergriffen nicht klarkommen, das gilt nicht für OneDrive Personal, sondern nur für die Premium-Variante, also OneDrive for Business und alle Dokument-Bibliotheken in SharePoint Online, also in bestimmten Paketen von Microsoft Office 365.

Wer hat schon einen Überblick über all seine geteilten Links?

Viele Administratoren fordern bei der professionellen Variante eine Liste, woraus ersichtlich ist, welcher Mitarbeiter mit wem was teilt. Für mich mach das wenig Sinn. Denn was macht der Administrator einer 10.000 Mitarbeiter großen Firma mit einer solchen Liste? Ein kleines Rechenbeispiel: Nicht alle Mitarbeiter teilen viele Dateien, da mag es welche geben, die gar nichts teilen, andere dagegen teilen viele Dateien. Nehmen wir nur einmal 3 Links pro  Benutzer: Dann kommen wir auf eine Liste von 30000 Links. Und nochmal, was macht der Administrator mit dieser Liste?

Aktivitäts-Liste von OneDrive  im Admin-Center von Office 365

Viel besser ist es, für bestimmte Freigabe-Links einen zusätzliche Haken zu setzen. Und den Link nach einer bestimmten Zeit automatisch verfallen zu lassen. Damit schließe ich potenzielle Lücken. Und muss nicht daran denken…

Microsoft hat in Office 365 die Möglichkeiten geschaffen, zum einen Unternehmensrichtlinien, was externe Links angeht, umzusetzen, aber auch Vorgaben festzulegen, was ein Benutzer beim Erstellen eines Links sieht.

Da wären zum einen im Office Admin-Center die  Einstellungen, die für das gesamte Unternehmen gelten.

SharePoint Admin Center in Office 365

Die obigen Einstellungen bedeuten:

Der Administrator erlaubt den Benutzern die Freigabe für authentifizierter externe Benutzer und die Verwendung von anonymer Zugriffslinks, bei Verwendung von anonymen Zugriffslinks laufen diese nach 60 Tagen ab. Anonyme Zugriffslinks gestatten dem Empfänger bei Dateien das Anzeigen, bei Ordnern das Anzeigen, Bearbeiten und Hochladen. Die Voreinstellungen des Standardlinks ist ein anonymer Zugriff.

Diese Einstellungen finden Sie im Office 365 Admin Center unter: SharePoint – Freigabe oder für OneDrive for Business unter: OneDrive – Freigabe.

Freigabe im OneDrive Admin Center in Office 365

Freigabe im OneDrive Admin Center in Office 365

Also kann der Office 365 Administrator Vorgaben für alle Benutzer vorgeben, um die Sicherheit- und Compliance-Vorgaben des Unternehmens zu wahren.

 

Wie sieht das beim Benutzer aus:

Link-Einstellungen in Office 365

beim Teilen mit jedermann (ohne Windows Anmeldung) kann der Empfänger des Links die Datei ansehen, aber nicht bearbeiten. Und am 20.Juli 2017 funktioniert der Link nicht mehr.

Link-Einstellungen in Office 365 wenn ich Benutzer der Firma auswähle (alle, dürfen diese die Datei auch bearbeiten, wenn ich den Haken gesetzt habe.
Link-Einstellungen in Office 365 Ich kann die Datei jedoch auch nur einer bestimmten Person freigeben, hier nur Ansicht, weil der Haken zur Bearbeitung nicht gesetzt ist
Link-Einstellungen in Office 365 Wenn ich die zeitliche Beschränkung (vorgegeben vom Administrator) überschreiten will, weist mich das System darauf hin, dass das nicht möglich ist.
Teilen bei OneDrive Personal Premium Dies ist der Dialog bei OneDrive Personal mit Premium Funktion, also einem Abo

Selbstverständlich funktioniert das auch mit Ordnern und den darin enthaltenen Dateien. Das das System noch Probleme mit der eingestellten Sprache hat ( hier Deutsch und nicht Mittw. sondern Wed) wird das Team in Redmond bestimmt noch ändern.

Warum funktioniert das nicht mit OneDrive (Personal)?

Nun, der Synchronisations-Client für beide Cloud-Speicher heißt Next Generation Sync Client. Der tatsächliche Speicher ist unterschiedlich:

Dienst Speicher
OneDrive (Personal) Azure Files
OneDrive (Personal) mit Premium (Abo) Azure Files, eigenes Rechte-System
OneDrive for Business Azure blob storage; aber über SharePoint
SharePoint Online Azure Blog Storage, über SharePoint

Das Rechtesystem von Azure Files/SharePoint sorgt also für das automatische “Schließen”  des Links nach Ablauf der eingestellten Zeit.

 

Zusammenfassung

Endlich hat Microsoft dem Administrator eine Möglichkeit gegeben, Sicherheitsvorgaben für alle Benutzer der jeweiligen  Firma vorzugeben. Jetzt sollte ich das auch im Windows Explorer einstellen können, das kommt im Herbst. (und der Artikel früher, versprochen)


Arnd Rößner: Wie die BImA 6.000 Nutzer mit 8MAN verwaltet

Wie die BImA 6.000 Nutzer mit 8MAN verwaltet – 8man

Christian Küver: Neue Herausforderung

Hallo zusammen,


in letzter Zeit war es hier etwas still geworden und es wird höchste Zeit dies zu ändern :-)


Bei mir gab es Änderungen in meiner Position und meinem Arbeitgeber: Seit April darf ich mich freuen als Technical Lead Office 365 bei der orange networks GmbH zu unterstützen.


Schaut doch einfach mal vorbei: https://orange-networks.com/


Besonders würde ich mich freuen die ein oder andere Anfrage zu unseren neuen Office 365 Workshops zu erhalten, erreichbar unter der passenden URL http://droffice365.de



Es sind kontinuierliche Blog Posts über aktuelle Projekte zu Office 365 bzw. Azure Themen geplant, also schaut die nächsten Wochen mal wieder vorbei.


Beste Grüße,


Christian

Carsten Rachfahl [Hyper-V]: Kerberos Delegierung zur Hyper-V Livemigration mit Windows Server 2016

Wer mehrere Hyper-V Hosts einsetzt, ohne diese zu einem Failover Cluster zu konfigurieren, kommt bei der Livemigration von einer oder mehreren VMs teilweise in Situationen, bei denen die Livemigration nicht gestartet werden kann und mit einem Fehler 0x8009030D abbricht. Die Fehlermeldung zeigt dann fehlende Anmeldeinformationen und zeigt zusätzlich noch auf, welche Schritte unternommen werden müssen, damit dies nicht mehr passiert.

Fehler beim Herstellen einer Verbindung mit dem Host “HYPERV3”: Die Anmeldeinformationen, die dem Paket übergeben wurden, wurden nicht erkannt. (0x8009030D).

Als Screenshot sieht die Fehlermeldung wie folgt aus:

Die Lösung für dieses Problem habe ich bereits mehrfach hier im Blog beschrieben, mit Windows Server 2016 ändert sich allerdings eine Kleinigkeit bei der Konfiguration. Der Vollständigkeit halber hier die Links zu den beiden Artikeln:

​Mit dem Windows Server 2016 gibt es eine kleine Änderung, bei der Konfiguration muss statt Kerberos nun die Option "use any authentication protocol" gesetzt werden. Microsoft hat dies auch selbst in dem folgenden Beitrag beschrieben:

​Ich habe das Skript aus dem Beitrag für den Server 2012 R2 mal erweitert und um eine Zeile erweitert, um diese Option automatisch zu setzen.

#region Beschreibung und Kommentare
# Setze Berechtigung Delegierung für die Hyper-V Server
# written by Karl-Heinz Lambers and Jan Kappen
# www.hyper-v-server.de – j.kappen@rachfahl.de
# Version 0.2 – 16.05.2017
#endregion

#region Name von SOFS und Domain
$SOFS = “<Name_des_SOFS>”
$Domain = “contoso.local”
#endregion

#region Import der benötigten Module
Import-Module ActiveDirectory
#endregion

#region Hyper-V Bereich
$Servers = “<Host1>”, “<Host2>”, “<Host3>”, “<Host4>”
$Servers | foreach-object {
$Server1 = $_
Write-Host $Server1 -foregroundcolor green

$Servers | foreach-object {
$Server2 = $_

if ($Server1 -ne $Server2) {
Write-Host “`t$Server2” -foregroundcolor yellow
Get-ADComputer $Server1 | Set-ADObject -Add @{“msDS-AllowedToDelegateTo” = “Microsoft Virtual System Migration Service/$Server2.$Domain”, “cifs/$Server2.$Domain”, “Microsoft Virtual System Migration Service/$Server2”, “cifs/$Server2”}
Get-ADComputer $Server1 | Set-ADAccountControl -TrustedForDelegation:$false -TrustedToAuthForDelegation:$true
}
}
}
#endregion

#region SOFS Bereich
$Servers = “<Host1>”, “<Host2>”, “<Host3>”, “<Host4>”
$Servers | foreach-object {
$Server = $_

Write-Host “`t$SOFS” -foregroundcolor yellow
Get-ADComputer $SOFS | Set-ADObject -Add @{“msDS-AllowedToDelegateTo” = “cifs/$Server.$Domain”, “cifs/$Server”}
Get-ADComputer $SOFS | Set-ADAccountControl -TrustedForDelegation:$false -TrustedToAuthForDelegation:$true
}
#endregion

Der Beitrag Kerberos Delegierung zur Hyper-V Livemigration mit Windows Server 2016 erschien zuerst auf Hyper-V Server Blog.

Torsten Meringer: Scan Failed with Error 0x80240fff

https://support.microsoft.com/en-us/help/4015219/windows-10-update-kb4015219 (oder ein entsprechendes Updates, welches dies ersetzt) behebt folgenden Fehler im Zusammenhang mit der Installation von Software Updates mit ConfigMgr:

ScanAgent.log

ScanJob({226369D4-8D82-4F14-8F95-1D8537A9C4D9}): CScanJob::OnScanComplete -Scan Failed with Error=0x80240fff ScanAgent
ScanJob({226369D4-8D82-4F14-8F95-1D8537A9C4D9}): CScanJobManager::OnScanComplete- failed at CScanJob::OnScanComplete with error=0x80240fff ScanAgent

WUAHandler.log

Async searching completed. WUAHandler
OnSearchComplete – Failed to end search job. Error = 0x80240fff. WUAHandler
Scan failed with error = 0x80240fff. WUAHandler

WindowsUpdate.log (per Powershell cmdlet Get-WindowsUpdateLog)

Two Swap OSUpgrades are found, Update1 = {21EF4840-5A10-46E4-A8C3-B5B58C6D320C}.201, Update2 = {63C75E6F-F33A-4D45-8FFB-8BBDBD20ACC2}.202
FilterInappropriateOSUpgrade failed, hr=80240FFF
Exit code = 0x80240FFF
* END * Finding updates CallerId = CcmExec  Id = 9
*RESUMED* Search ClientId = CcmExec
Updates found = 0
Exit code = 0x00000000, Result code = 0x80240FFF
* END *   Search ClientId = CcmExec
ISusInternal:: DisconnectCall failed, hr=8024000C

Mit folgender SQL Query erhält man die Updates, die das Problem verursachen (die IDs sind pro SCCM-Site eindeutig, also in jeder Umgebung anders):

select
Title, Description
from
v_UpdateInfo
where CI_UniqueID in
('21EF4840-5A10-46E4-A8C3-B5B58C6D320C',
'63C75E6F-F33A-4D45-8FFB-8BBDBD20ACC2')

 

Der Beitrag Scan Failed with Error 0x80240fff erschien zuerst auf Torsten's Blog.

faq-o-matic: In Kürze druckfrisch: Das Hyper-V-Buch in der dritten, vollständig neuen Auflage

In wenigen Tagen erscheint beim Rheinwerk Verlag die dritte, völlig überarbeitete Auflage des Buchs zu Hyper-V. Das bewährte Autorenteam Nicholas Dille, Marc Grote, Nils Kaczenski und Jan Kappen hat das umfassende Werk zu Hyper-V für Windows Server 2016 umfassend neu bearbeitet und auf den aktuellen Stand gebracht. Völlig neu dabei sind Themen wie Container und Docker, Storage Spaces Direct oder Just Enough Administration. Natürlich verfolgt das Buch auch weiterhin das Ziel, sowohl für Einsteiger als auch für Kenner das passende Experten-Know-how bereitszustellen.

Als Vorgeschmack hier unser Video zum Buch:

Hans Brender: Podcast | MVPCoffeeParty #03 – Build 2017 and my first PC

MVP Coffee Party; Build 2017 and my first PC

This is the 3rd episode of the english talk of MVPKaffeeKlatsch or MVPCoffeeParty. The first one was made with Raphel Köllner from the Ignite 2016, the second one was our talk with the two Brazilian MVPs called The Brazilian Connection and buuum: Here is the third one.

Build 2017 and my first PC

So Raphael an I were the Hosts for David Smith:

David Smith

David is an Insider MVP, has made a lot of Podcast an live in Ontario, Canada.


Hans Brender: Vorbei

Vorbei

Auch wenn ich in der 5. Folge meiner Artikelreihe “Ich bin zurück” geschrieben habe, dass ich jetzt ins Marketing gewechselt bin, hat dieser Ausflug nur 5 Monate angehalten. Und: Mein Engagement mit der US-Firma in Kirkland wurde im April beendet.  Genau so schnell, wie man einen Job bekommet, “Können Sie schon nächsten Montag?”, genau so schnell stehst Du wieder dem freien Arbeitsmarkt zur Verfügung. “You are fired”. Bleibt ein Rückblick. Und mit dem Abstand von 6 Wochen ein Rückblick mit weniger Emotionen.

Wer die ganze Geschichte lesen will, dies ist der 6.Teil. Am Ende des Artikels sind die Links zu den fünf Vorherigen.

Vorbei 

Eines habe ich in meinen “alten” Jahren gelernt. Junge Leute, die in Manager-Positionen sitzen, vertragen keine Kritik. “Das wusste ich noch nicht” ist vielleicht die banalste Antwort. Manchmal bekommst Du nicht die Wahrheit übermittelt. Die unterschiedliche Kultur veranlasst den amerikanischen Kollegen überhaupt nicht darüber nachzudenken. Ich erledige meinen Job. Das was mir aufgetragen wird. Nicht mehr. Nicht weniger. Mit den nötigen Emotionen. “It’s amazing”. Gemeinsames Klatschen.  Feierabend. Tschüss.  Diskussion ja. Kritik? Kommt darauf an. “Es lag nicht an Dir”.  Trotzdem hat der Mohr seine Schuldigkeit getan. Und Du weißt immer noch nicht, warum Du eigentlich gehen durftest. Wenn innerhalb von 2 Jahren die Mitarbeiterzahl verdreifacht wird, kommt es natürlich vor, dass neue Manager-Ebenen entstehen. Dieses schnelle organische Wachstum bringt so manche Probleme mit sich. Was gestern noch als richtig galt, ist morgen Schnee von gestern. Viele Europäer, insbesondere wir Deutschen kommen mit diesen Kultur Schocks nicht zurecht. Mir hat das nichts ausgemacht. Ich liebe Änderungen. Aber ich kann nicht verstehen, wie mit Mitarbeitern umgegangen wird. Es waren einmal 4 MVP’s, die bei BitTitan ihr Geld verdient haben. Jetzt ist es nur noch einer. Und das in der schwierigen Zeit einer Transformation, den hier hat BitTitan bereits jetzt angesetzt. Nicht mehr nur die klassische Migration, sondern die Automation. Von außen ist also so eine Entscheidung nicht zu ergründen. Und von bestimmten Personen bekommst Du keine Antwort (mehr).

Was also habe ich mitgenommen?

Zum einen, dass die Amerikaner keine Ahnung von der deutschen Kultur haben. Zum Anderen haben Sie trotz der Hilfsmittel in Outlook immer noch Probleme außerhalb ihrer Zeitzone. Was die Adaption von neuer Software angeht, können wir Deutsche uns aber auch eine Scheibe abschneiden. Nach dem Motto “Just Do it” wird bei einer Mittelstandsfirma  einfach ein Programm wie “Microsoft Teams” ausprobiert und für gut erachtet. Geht ganz schnell. Und kam Ultra gut an im Marketing. Was ich damit sagen will: technische Innovationen bei einer technischen Firma. Passt. Was mir nicht gefällt: Die Lobhudelei auf Personen. Auf Ereignisse wie 1 jähriges, 2 jähriges bei der Firma. Über Produkte. Über Personen. Dieses typische “Amazing”. Und mittlerweile ist mir auch klargeworden: Bei den meisten ist “der, die, das” schon wieder vergessen, nachdem das “Amazing” den Mund verlassen hat. Viele Ex-Kollegen waren/sind sehr oberflächlich. Kollegen aus dem europäischen Raum haben da ein anderes Verhältnis. Ist wohl auch eine Kulturfrage. Über Land und Leute kann ich nicht viel sagen. Waren ja immer nur ein paar Tage/Wochen. Ich habe auch etwas mitgenommen. Die Sprache. Viele Vokabel. Jeden Tag ein paar neue. Ich habe immer noch Schwierigkeiten, meinen Burger selbst zusammen zu stellen. Dazu war ich zu selten vor Ort. Mein Wortschatz hat sich wesentlich verbessert. Keine Angst vor fremden Leuten: Einfach drauf los reden. Und kein Mensch verbessert Dich. Es sei denn, Du forderst jemanden dazu auf. Mittlerweile gibt es den MVPKaffeklatsch nicht nur in deutscher Sprache, sondern die ersten Ausgaben in englischer Sprache. Und im Marketing? Eine ganze Menge, denn die letzten Monate waren nicht mehr Exchange und Co. bei der Migration mein Hauptthema, sondern Marketo , On24 und Co. Auch hier muss an bestimmten Stellen tricksen. Den “fast”-Perfektionismus eine Exchange Servers haben diese Produkte noch nicht erreicht. Mitgenommen habe ich aber auch die Erkenntnis, was Du zum zweiten Mal anfasst, nicht noch einmal manuell durchführen. Automatisierung mit verschiedenen Cloud Produkten. So sind meine sozialen Netzwerkaktivitäten zum größten Teil automatisiert. Und ich kann meine Zeit den wichtigen Dingen widmen.

Was folgt?

Ich bin offen. Für fast alles. Für die Rente ist es mir persönlich noch zu früh. Aber Bits und Bytes möchte ich auch nicht mehr anfassen. Dazu habe ich zu viel Erfahrung. Es muss also schon eine Firma sein, die sich mit der Cloud beschäftigt. Mit der richtigen, was heißen soll, ich bin noch für über ein Jahr Microsoft MVP und möchte diesen Titel auch behalten. Also Azure und Office 365. Deutschland, Europa, USA? Der Standort ist mir eigentlich egal, ein Umzug kommt für mich nicht in Frage, denn mit den richtigen Produkten kannst Du von überall in der Welt arbeiten. Ich kann begeistern. Ob in der Community oder in einem Business-Meeting. Wer also ein gescheites Produkt oder Dienstleistung im Portfolio hat, der kann sich gerne melden.

 

Teil 1: Mein erster Arbeitstag
Teil 2: Meine erste Arbeitswoche
Teil 3: nach drei Wochen
Teil 4: Nach neun Monaten 
Teil 5: Ich bin zurück


faq-o-matic: SQL Server: E-Mail-Benachrichtigungen per PowerShell einrichten

Wie sonst auch in der IT ist ein Datenbankserver nicht frei von Fehlern oder Problemen. Um schnell auf Fehler reagieren zu können, ist es notwendig, schnell über Störungen des Betriebs informiert zu werden. Innerhalb des SQL Servers übernimmt der SQL Server Agent (nicht in der Express Edition vorhanden) diese Aufgabe.

Vorbereitungen

Damit der SQL Server Agent Benachrichtigungen versenden kann, muss “Datenbank-Mail” eingerichtet sein. Weitere Informationen zu Einrichtung von Datenbank-Mail findet man im Technet unter https://technet.microsoft.com/de-de/library/ms175887(v=sql.105).aspx. Ich plane auch zum Thema “Einrichtung von Datenbank-Mail über Powershell” noch einen Beitrag.

Des Weiteren muss der SQL Server Agent gestartet sein (Dienst-Starttyp Automatisch) und für den Mailversand vorbereitet. https://msdn.microsoft.com/de-de/library/ms186358.aspx

Verbindungsaufbau

Zunächst muss ein Verbindungsobjekt zur SQL-Server-Instanz angelegt werden. Hier sind die Unterschiede zwischen der Standardinstanz und einer benannten Instanz zu beachten.

Import-module sqlps -DisableNameChecking 

# Herstellen der Verbindung zum SQL Server

$sqlServer = 'SERVERNAME\INSTANZNAME' # bei benannten Instanzen
$sqlServer = 'SERVERNAME' # Bei der Standardinstanz
[System.Reflection.Assembly]::LoadWithPartialName('Microsoft.SqlServer.SMO') | Out-Null
$server = New-Object 'Microsoft.SqlServer.Management.SMO.Server' ($sqlServer)
$Job = $server.JobServer

Anlegen eines Operators

Operatoren sind im SQL Server Platzhalter für einzelne Personen oder Gruppen, an die Benachrichtigungen gesendet werden können. Für jeden Operator kann man definieren, für welche Aufträge und Fehler eine Benachrichtigung erfolgen soll. Hier soll nun ein Operator mit dem Namen MeinName erstellt werden.

$Name = "MeinName"
$Mail = "Mein.Name@Test-adresse.de"
$operator = New-Object Microsoft.SqlServer.Management.Smo.Agent.Operator -ArgumentList $Job, $Name
$operator.EmailAddress = $Mail
$operator.Create()

Wenn man mehrere Operatoren erstellen möchte, kann man den Codeabschnitt mehrfach hintereinander mit verschiedenen Werten für $Name und $Mail ausführen.

Warnungen erstellen

Damit ein Operator auch Benachrichtigungen zu Fehlern oder Störungen erhalten kann, müssen hierfür zunächst die gewünschten Warnungen einmalig erstellt werden. Im Beispiel werden für die Fehlerschweregrade 17 – 25 und für die Fehlernummern 823 – 825 die entsprechenden Warnungen angelegt.

for($i=17; $i -le 25;$i++)
{
    if(!($Job.Alerts.Contains("Fehler Level $i")))
    {
        $Warnung = New-Object Microsoft.SqlServer.Management.Smo.Agent.Alert -ArgumentList $Job, "Fehler Level $i"
        $Warnung.Severity = $i
        $Warnung.IsEnabled
        $Warnung.Create()
        Write-Host -ForegroundColor Green "Warnung Fehler Level $i angelegt"
    }
  }
if(!($Job.Alerts.Contains("823")))
{
      $Warnung = New-Object Microsoft.SqlServer.Management.Smo.Agent.Alert -ArgumentList $Job, "823"
      $Warnung.MessageID = "823"
      $Warnung.IsEnabled
      $Warnung.Create()
      Write-Host -ForegroundColor Green "Warnung 823 angelegt"
}
if(!($Job.Alerts.Contains("824")))
{
      $Warnung = New-Object Microsoft.SqlServer.Management.Smo.Agent.Alert -ArgumentList $Job, "824"
      $Warnung.MessageID = "824"
      $Warnung.IsEnabled
      $Warnung.Create()
      Write-Host -ForegroundColor Green "Warnung 824 angelegt"
}
if(!($Job.Alerts.Contains("825")))
{
      $Warnung = New-Object Microsoft.SqlServer.Management.Smo.Agent.Alert -ArgumentList $Job, "825"
      $Warnung.MessageID = "825"
      $Warnung.IsEnabled
      $Warnung.Create()
      Write-Host -ForegroundColor Green "Warnung 825 angelegt"
}

Operator mit Warnungen „verheiraten“

Nachdem man nun den Operator erstellt hat und alle Warnungen angelegt sind, muss man nur noch definieren, für welche Warnungen der Operator eine E-Mail bekommen soll. Im Beispiel sollen alle vorhandenen Operatoren für alle erstellten Warnungen eine Benachrichtigung erhalten. Dies lässt sich in der PowerShell sehr einfach über zwei Foreach-Schleifen realisieren.

# Auslesen aller vorhandenen Warnungen und Operatoren
$Alarme = $job.Alerts
$Operatoren = $Job.Operators

# Verbinden von allen Warnungen mit allen Operatoren

foreach($Operator in $Operatoren)
{
    foreach($Alarm in $Alarme)
    {
       $Alarm.AddNotification($Operator.Name,[Microsoft.SqlServer.Management.Smo.Agent.NotifyMethods]::NotifyEmail)
       Write-Host -ForegroundColor Green "Warung $alarm mit $operator verbunden"
    }
}

Wenn schon Verbindungen zwischen Operator und Warnung bestehen, wird ein Fehler ausgelöst. Dieser Fehler beeinflusst aber die weitere Funktion des Skripts aber nicht. Aus Gründen der besseren Lesbarkeit habe ich hier auf eine entsprechende Fehlerbehandlung verzichtet.

Das Skript wurde mit PowerShell 5 auf Windows Server 2012 R2 und Windows Server 2016 gegen SQL Server 2012, 2014 und 2016 getestet.

Hans Brender: OneDrive Files On-Demand (the new smart files)

OneDrive for Business, Microsoft OneDrive, Microsoft

OneDrife files On-Demand

During Build 2017 Microsoft announced OneDrive Files On-Demand. Announced. This feature of the Next Generation Sync Client will be available for all with the “Windows 10 Fall Creators Update”. So we have to wait till autumn. If you are a Windows Insider you will get the version earlier). So what we will get is nothing new. That’s a new Version of smart files.  If have written a lot of articles about Smart files (during these days only in German language)

12/29/2016 OneDrive (for Business) | Wish list for 2017
12/31/2014 OneDrive (for Business) | wish list for 2015
11/16/2014 OneDrive und Windows 10 Preview | Ende der Smart Files?
01/31/2014 OneDrive – SkyDrive | Online – Offline – Smart Files | Windows 8.1
10/03/2013 SkyDrive Smart Files für Windows 8.1

For those, who do not remember “Smart Files” or “OneDrive Files On-Demand”, I will write some words:

You now have more cloud storage available, more than you have locally. With the Next Generation Sync Client this issue was solved with selective sync. But people do not see in the windows explorer, that there are more folder in the cloud. With placeholders for those folders and files you see all and with one click you may sync the files, if you want it. So that we have had with Smart files and Groove. But only for the Personal Edition of OneDrive (the old name was SkyDrive), But we all know the bad implementation of the old Groove client and also the issues with the smart files.

You have the choice to wish changes also with OneDrive and OneDrive for Business with UserVoice. And Microsoft is reading this channel. And have now implemented the old “Smart Files” technology. But on a better way. There is a lot of things, Microsoft has to do with the Sync Client. Before we have had “Groove”, there was a product called SharePoint Workspace 2010, part of Office 2010. And there you could sync also Metadata, IRM protected files….

But back to now and OneDrive Files On-Demand:

Dialog for OneDrive Files On-Demand The mechanism must be easier and stable,so each user may handle it.

To do that, a deeper integration into the OS is indispensable.

the placeholder, small pictures must be saved separate from the files. Such an implementation is not so easy.

Defaults.  Microsoft was a little overzealous in 8.1 and made everything online only by default.  This time they are more focused on what is right for the scenario.

So you are also may hide one or more folder, so you do not have to scroll down a lot of folder with “Online only”. That’s very important for Enterprise companies.

What happens if a file is very large (like a video), is clicked? Can I play the video while downloading? 

You will need to wait until the files has completely downloaded. With that said, you will receive prompt asking if you want to stream the video in via the browser.

Which Version of Windows 10 will be supported?

Microsoft will support all Windows 10 (also Windows S) versions.

Will this require me to upgrade to a new version of the OneDrive (The Next Generation Sync Client) when this becomes available?

The answer is NO. I have described it in other articles, that the Next Generation Sync Client has it’s own Update mechanism.

So here you see the the behavior:

OneDrive Files On-Demand

If you want to hear more, register for  the SharePoint Virtual Summit on May 16, 2017


Hans Brender: OneDrive Files On-Demand

OneDrive for Business, Microsoft OneDrive, Microsoft

OneDrive Files On-Demand

Auf der Build 2017 wurde am 11.05.2017 OneDrive Files On-Demand angekündigt. Angekündigt. Wird erst im Herbst für die Allgemeinheit mit dem “Windows 10 Fall Creators Update” zur Verfügung stehen. (Windows Insider erhalten dieses Feature früher). Ist ja nicht unbedingt neu. Denn es ist die Widerauferstehung der Smart Files. Und darüber habe ich in der Vergangenheit schon den einen oder anderen Artikel geschrieben.

28.12.2016 OneDrive (for Business) | Wunschliste für 2017
31.12.2014 OneDrive (for Business) | Wunschliste für 2015
16.11.2014 OneDrive und Windows 10 Preview | Ende der Smart Files?
31.01.2014 OneDrive – SkyDrive | Online – Offline – Smart Files | Windows 8.1
03.10.2013 SkyDrive Smart Files für Windows 8.1

Für diejenige, die mit dem Begriff “Smart Files” oder jetzt “Onedrive Files On-Demand” nichts anfangen können, hier ein kurzer Abriss.

Wir haben heute oft mehr Cloud-Speicher zur Verfügung als  auf unseren neuen Geräten lokalen Plattenspeicher. Mit dem Next Generation Sync Client wurde das Problem (teilweise) gelöst, weil wir die selektive Synchronisation erhalten haben und somit auswählen können, welche Dateien wir aus der Cloud synchronisieren können. Der einzige Haken dabei: Ich sehe im Windows Explorer nicht, ob noch weitere Ordner/Dateien in der Cloud vorhanden sind. Mit Platzhaltern an Stelle der echten Dateien könnte da Abhilfe geschaffen werden. Und genau dieses Prinzip gab es bereits. Allerdings nur für OneDrive (SkyDrive) in der Personal Edition. Und wir kennen das Dilemma der Synchronisation mit dem alten Groove-Client (alles oder nichts) und der Implementierung der Smart Files.

Nun gibt es ja mit UserVoice einen Kanal für Wünsche. Und hier schaut Microsoft auch rein. Und nachdem der Next Generation Sync Client jetzt doch sehr zufriedenstellen läuft, geht es um weitere Implementierungen. Denn so erstaunlich es klingt, der Vorgänger des Groove Client, das Produkt SharePoint Workspace 2010, Teil von Office 2010 konnte schon wesentlich mehr, z.B. Synchronisation von Metadaten, Synchronisation von IRM, … Aber zurück zur jetzigen Zeit und zu OneDrive Files On-Demand

Dialog für OneDrive Files On-Demand Der Mechanismus muss einfacher sein, damit jeder Benutzer damit klarkommt

Das bedingt jedoch eine viel tiefere Integration in das Betriebssystem.

Die Platzhalter, kleine Bilder, müssen separat abgespeichert werden von den tatsächlichen Dateien. Diese Implementierung hört sich leichter an als man sie sich vorstellen kann.

Die Default-Einstellung wird “Online-Only” sein.

Es wird eine Einstellung “Hide” geben, die es erlaubt, Verzeichnisse auszublenden. Das ist im Firmenumfeld wichtig.

Wird eine große Datei, z.B. ein Video  welches nur Online gespeichert ist, durch einen Klick aufgerufen, wird ein Dialog erscheinen, der den Benutzer frägt, ob er das Video via Web-Browser streamen möchte oder er den etwas längeren Download abwarten möchte.

Für welche Betriebssysteme wird es OneDrive Files On-Demand geben?

Es werden alle Windows 10 Versionen (auch Windows S) unterstützt. Zu anderen Betriebssystemen liegen mir noch keine Informationen vor.

Muss ich irgend etwas installieren?

Nein, wie schon öfter beschrieben, erfolgt ein Update des Next Generation Sync Client selbstständig.

Die nachstehende Animation zeigt das Verhalten:

Wer mehr erfahren möchte: Hier geht’s zur Anmeldung des SharePoint Virtual Summit am 16.Mai 2017


Carsten Rachfahl [Hyper-V]: Interesse an OpenStack mit Hyper-V – dann kommt zum OpenStack Community Day in Frankfurt

Hört ihr auch in der IT News immer wieder von gescheiterten OpenStack Projekten? Oder das OpenStack wenn überhaupt nur etwas für große Firmen mit einer Horde von Entwicklern ist?

Wie so oft sind diese Aussagen nur Halbwahrheiten.

Wir möchten euch zeigen das man OpenStack gerade mit Hyper-V sehr elegant und kostengünstig implementieren und noch viel wichtiger betreiben kann. Gemeinsam mit der Firma Cloudbase Solutions (die Treiber Kraft hinter der OpenStack Hyper-V Integration) und Cisco veranstalten wir am 31. Mai in Eschborn bei Frankfurt den ersten OpenStack Community Day.

Interesse? Dann schaut auf der Event Website vorbei und meldet euch auf dem kostenlosen Event an.

Der Beitrag Interesse an OpenStack mit Hyper-V – dann kommt zum OpenStack Community Day in Frankfurt erschien zuerst auf Hyper-V Server Blog.

Thorsten Christoffers: Talentschmiede 2.0 oder Bewerbungsverfahren a la sepago

Am Freitag (28.04.2017) fand in den Räumlichkeiten der sepago Köln die zweite Talentschmiede statt. Die erste wurde im Jahr 2015 durchgeführt, wodurch aus dem damaligen Kreis der Kandidaten zwei neue Kollegen gewonnen werden konnten; die sogenannten Himmelsstürmer. Die Talentschmiede ist ein...

Hans Brender: Build 2017 | OneDrive für Programmierer

OneDrive für Entwickler

Auf der Build 2017 gab es zwei Session, die sich mit Zugriff zu OneDrive, OneDrive for Business, Team Sites und Groups beschäftigen

B8016 Build file collaboration and sharing experiences with OneDrive, SharePoint and Microsoft Graph
B8015 Microsoft Graph: Build better apps with the API to your organization

und weitere Informationen gibt es hier und hier


Hans Brender: Podcast | MVPKaffeeklatsch–The Brazil Connection

MVPKaffeklatsch

2 month ago, there were 2 MVPs from Brazil, flying over the ocean and live and work now in Berlin.

Sara Barbosa Sara Barbosa
Microsoft MVP
Office Servers and Services
Marcos Freccia Marcos Freccia

Microsoft MVP
Data Platform

Raphel and me talking about their journey, their work…. so you may listen here

The Brazil Connection – two Brazil MVPs in Germany

Old Episodes in German language

Episode 15 Updates, Upgrades und die Zahl PI
Episode 14 Social, Trump & Hillary
Episode 13 Ein MVP auf Reisen
Episode 12 Sommerpause
Episode 11 Max und Nora
Episode 10 Community for Live
Episode 09 Feedback
Episode 08 Office365 Konferenz
Episode 07 SchmuttiMutti
Episode 06 Gregor zu Besuch mit der Software von Steven Hawking
Episode 05 Alles Gamer
Episode 04 Eiskaffee bei 32 Grad
Episode 03 Irish-Coffee für Peter
Episode 02 Old Shatterhand
Episode 01 MVP Kaffeklatsch


Carsten Rachfahl [Hyper-V]: Microsoft Storage Spaces Tiering Statikstiken unter Windows Server 2012 R2 und Windows Server 2016

Wie bekomme ich eigentlich bei den Microsoft Storage Spaces heraus, wie das alles so funktioniert und ob es überhaupt funktioniert?

Diese Frage haben wir uns vor einiger Zeit auch schon gestellt, daraufhin hat mein Kollege Carsten Rachfahl ein Skript geschrieben, welches die Statistiken auswirft und in einer Datei abspeichert:

​Wie erhält man die Microsoft Storage Spaces Autotiering Statistiken?

Das Skript aus dem Juni 2014 hat mittlerweile ein paar Jahre auf dem Buckel und ist auch nicht mehr für den Betrieb unter Windows Server 2016 nutzbar, da die Parameter unter der aktuellen Server-Version erweitert wurden. Zeit als, das Skript auf einen aktuellen Stand zu bringen. In diesem Zuge habe ich auch direkt zwei äußerst wichtige Anpassungen gemacht:

  • Ich habe einen kleinen Installer erstellt, der per PowerShell den benötigten Order C:\tools abfragt und anlegt, falls dieser nicht vorhanden ist. Danach wird das Skript an den besagten Ort kopiert und letztendlich wird vollautomatisch der geplante Task angepasst, der für den Tiering-Vorgang zuständig ist.
  • Das Skript fragt nun ab, welche Version von Windows eingesetzt wird. Das bedeutet, dass dieses Skript nun sowohl unter Windows Server 2012 R2 als auch unter Windows Server 2016 funktioniert.
Wichtig: Wenden Sie das Script nur an, wenn Sie mit einem geplanten Tiering arbeiten. Dies ist bei Windows Server 2012 R2 der Fall, unter Windows Server 2016 kann es durch das Design (z.B. bei S2D mit einer Hybrid Disk) sinnlos sein, dass der Task angepasst wird, da ein dauerhaftes Tiering zum Einsatz kommt.

Download des Skripts

Wir beginnen mit dem Download des Skripts: AutoTiering2016.zip

"Download"-Flag an der Datei entfernen

Nach dem Download der Datei können Sie, je nach OS, in den Eigenschaften der Datei erkennen, dass diese als "aus dem Internet heruntergeladen" gekennzeichnet ist.

Setzen Sie einen Haken bei "Unblock" und bestätigen Sie die Auswahl mit "OK". Nun können wir das Archiv entpacken, enthalten sind zwei Dateien:

Installer.ps1
AutoTiering.ps1

Kopieren Sie die beiden Dateien bzw. den Ordner am besten lokal auf Ihre Dateiserver-Knoten in ein temporäres Verzeichnis.​

Ausführung der Installer-Datei

Öffnen Sie auf dem ersten Storage Spaces (oder Storage Spaces Direct) Server eine administrative PowerShell (Keine ISE, da hier der Pfad nicht korrekt bestimmt werden kann :( ), navigieren Sie zu dem Pfad, an dem die Dateien liegen, und führen Sie die Installer.ps1-Datei aus.

Nach der Installation sieht der Task wie folgt aus:

Sie können die erfolgreiche Installation nun wie folgt testen: Sie warten entweder bis zum nächsten geplanten Durchlauf des Tasks, oder Sie starten den Vorgang manuell. Bei beiden Varianten erhalten Sie unter C:\Windows\Logs eine neue Datei, in der Sie die Statistiken sehen können.

Der folgende TechNet-Artikel beschreibt die Ausgabe sehr gut, auch wenn er offiziell "nur" für Windows Server 2012 R2 gilt: Monitor Storage Tiers Performance in Windows Server 2012 R2

Der Beitrag Microsoft Storage Spaces Tiering Statikstiken unter Windows Server 2012 R2 und Windows Server 2016 erschien zuerst auf Hyper-V Server Blog.

Dieter Rauscher: Keynote der Microsoft Build 2017 Konferenz

Anbei ein Hinweis auf die Liveübertragung der beiden Keynotes der Microsoft Build 2017 Konferenz heute und morgen:

Die Build 2017 live verfolgen
Im Livestream können ihr die Keynotes der Microsoft Build 2017 mitverfolgen:

Build 2017 // Tag 1
Am Mittwoch, 10. Mai 2017, voraussichtlich ab 17 Uhr CET
[In Kalender eintragen]

Build 2017 // Tag 2
Am Donnerstag, 11. Mai 2017, voraussichtlich ab 17:30 Uhr CET
[In Kalender eintragen]

Die Aufzeichnungen der Keynotes sowie aller technischen Vorträge stehen Ihnen wie gewohnt kurz nach der Konferenz kostenlos auf Channel 9 zur Verfügung.

Viele Grüße
Dieter


Dieter Rauscher
MVP Enterprise Mobility

faq-o-matic: Windows Server 2016 Performance Tuning Guide

Vor einigen Tagen hat Microsoft den “Windows Server 2016 Performance Tuning Guide” veröffentlicht. Dabei handelt es sich um eine Sammlung von Dokumenten, die für verschiedene Szenarien Anregungen geben, mit denen sich die Leistungsfähigkeit von Windows-Servern erhöhen lässt. Neben der Online-Version ist der Guide auch als PDF verfügbar.

[Windows Server 2016 Performance Tuning Guidelines | Microsoft Docs]
https://docs.microsoft.com/en-us/windows-server/administration/performance-tuning/

Wer sich den Ratgeber zu Gemüte führt, sollte im Blick behalten, dass die Hinweise dort sehr generisch sind und sich vor allem an Umgebungen mit hohen Lastprofilen orientieren. Nicht jeder Tipp ist für jede Umgebung geeignet. Es geht sogar noch weiter, denn einige der Angaben sind für kleinere oder mittelgroße Umgebungen auch eher hinderlich. Als Orientierung ist der Guide aber sehr nützlich.

Carsten Rachfahl [Hyper-V]: Hyper-V Storage Migration schlägt fehl – One or more arguments are invalid (0x80070057)

Ein Kunde von uns hat mir von einem Fehler berichtet, der ihm bei einer Migration einer VM aufgefallen ist. Es ging um eine Storage-Migration der Daten einer VM. Die Daten sollten geplant von einem SMB3-Share auf einen anderen SMB3-Share verschoben werden, die VM hat eine Größe von mehreren TB.

Der virtuelle Server wird in einem Hyper-V Cluster betrieben, zusätzlich ist für die VM die Hyper-V Replica Funktionalität eingeschaltet.​​

Nachdem die Daten der VM per PowerShell mit Hilfe des Move-VMStorage Befehls verschoben wurden, gab es am Ende des Vorgangs eine Fehlermeldung, die wie folgt aussieht:​​

PS C:\> Move-VMStorage -vmname <VMName> -DestinationStoragePath \\<SOFS>\vDisk1\VMs\<VMName>

Move-VMStorage : Storage migration for virtual machine '<VMName>' (<ID der VM>) failed with error 'One or more arguments are invalid' (0x80070057).

Migration did not succeed. Could not complete mirror operation for the VHD file '\\<Anderer SOFS>\vDisk1\VMs\<VMName>\Virtual Hard Disks\Disk1.vhdx': 'One or more arguments are invalid'('0x80070057').

A parameter that is not valid was passed to the operation.

An dem neuen Speicherplatz der VM-Daten lag zwar eine Kopie der VHDX-Dateien, die VM hat allerdings noch mit dem alten Speicherplatz weitergearbeitet. Dieser Vorgang wurde sichtbar, weil sich die Änderungszeiten der VHDX-Dateien an dem alten Speicherplatz noch geändert haben, das Datum der "neuen" bzw. kopierten Dateien wurde nicht mehr angepasst.

Im Failover Cluster Manager wird zu diesem Zeitpunkt der neue Speicherort angezeigt, obwohl dieser nicht genutzt wird. Startet man die VM nun durch oder fährt sie herunter, wechselt der aktive Datenträger und nimmt nun die kopierten VHDX-Dateien. Gab es zwischen dem Verschiebe-Vorgang und dem Neustart der VM einen zeitlichen Verzug, kommt es hier in diesem Fall zu einer Rücksetzung der VM, da die VHDX-Dateien vom Zeitpunkt des Verschiebens genutzt werden.

Lösen kann man dieses Problem, indem man die "alten" VHDX-Dateien wieder anhängt bzw. an den neuen Speicherplatz verschiebt. Der Vorgang ist bisher nur bei sehr großen VMs passiert, einen wirklichen Grund für dieses Verhalten haben wir bisher nicht feststellen können. Mir ist dieses Verhalten bisher nicht untergekommen, im Verdacht steht die Hyper-V Replikation, die bei diesem Vorgang nicht manuell gestoppt wurde. Möglicherweise tritt der Fehler nicht auf, wenn man die Hyper-V Replica vor dem Move-Vorgang deaktiviert und danach wieder per Hand einschaltet.

Der Beitrag Hyper-V Storage Migration schlägt fehl – One or more arguments are invalid (0x80070057) erschien zuerst auf Hyper-V Server Blog.

Scolab: Privaat statt Staat – SharePocalypse 43

Amazon Echo Look: Hurra, endlich ein Grund um Amazon neben Tönen auch Bilder zu liefern! Burger King kapert Google Home. Uber spioniert seine User aus um Behördenvertreter zu erkennen. EU Experten sagen: Microsoft gefährdet die digitale Souveränität. Private sind so … Weiterlesen

Der Beitrag Privaat statt Staat – SharePocalypse 43 erschien zuerst auf Scolab.

faq-o-matic: Windows Server 2016: Cluster mit Integrations-Ansatz

Microsoft als modernes Unternehmen bemüht sich um Integration und Diversity. Da darf natürlich auch die hauseigene Software nicht zurückstehen: Im Failovercluster gibt es daher nun eigene Plätze für Behinderte.

image

Oder sollte das nur ein Übersetzungsfehler für “disabled” sein …?

(Danke auch für den Hinweis an Norbert Fehlauer!)

Hans Brender: Azure Cologne Meetup – OneDrive Deep Dive

Azure Cologne Meetup OneDrive for Business, MicrosoftOneDrive, Microsoft

mit um die 100 Teilnehmern war das Azure Munich Meetup mit dem gleichen Titel recht erfolgreich, hier gibt es noch Bilder. Deshalb wollen wir das ganze im Westen ebenfalls anbieten. Und das noch vor den Sommerferien in NRW, die ja am 17.7.2017 beginnen,

Es war schon schwierig, einen geeigneten Termin zu finden, und der Ort ist noch nicht bestätigt.

OneDrive Deep Dive

und auch hier gilt: Was hat den OneDrive / OneDrive for Business mit Azure zu tun?
Die Antwort gibt es am 13.7.2017 ab 17:00 Uhr in xxxxxx  in Köln.

Und hier geht es zur Anmeldung: Also gleich anmelden oder Termin vormerken


Carsten Rachfahl [Hyper-V]: Zugriffsfehler bei einem Scale-Out File Server Cluster – Error 0x80090322

Wir hatten bei einem Kunden vor kurzem eine geplante Neuinstallation der beiden Hardware Server in einem Scale-Out File Server Cluster. Bei diesem Vorgang sollte der erste Server in den Wartungsmodus gesetzt werden, danach mit einem neuen OS ausgestattet werden und letztendlich wieder in das bestehende Cluster aufgenommen werden. Der Wartungsmodus auf dem ersten Server hat problemlos funktioniert, alle Datenträger, der Pool, die Rolle und die Core Cluster-Ressourcen wurden erfolgreich auf den zweiten Server übernommen und die Neuinstallation konnte beginnen.

Nachdem der Server A wieder mit Windows Server 2012 R2 installiert war, begann die Installation der Updates und die Einrichtung von Netzwerk und was sonst noch so alles anfällt. Zum Schluss wurde der Server wieder (erfolgreich) in das Failover Cluster aufgenommen, zuvor wurde ein Test gegen Server B gemacht, allerdings ohne den Speichertest, da dieser die Speicher-Ressourcen temporär offline genommen hätte.

Als nächsten Schritt habe ich nun Server B in den Wartungsmodus gesetzt und kurz gewartet, bis alle Ressourcen verschoben wurden. Dies hat auch problemlos und fehlerfrei funktioniert, allerdings hat nach kurzer Zeit das Monitoring angeschlagen und gemeldet, dass einige VMs nicht mehr erreichbar sind. Nach einem kurzem Blick auf das Hyper-V Cluster zeigte sich, dass dort einige Fehler auftauchten und das einige VMs nicht mehr liefen. Ich habe dann den Storage-Knoten B wieder in den Betriebsmodus genommen und sämtliche Ressourcen wieder auf Server B geschwenkt, danach war ein Zugriff von Hyper-V wieder möglich und die VMs wurden durch das Failover Cluster wieder online geschaltet.

Wir haben danach​ noch diverse weitere Fehler bekommen bei unterschiedlichen Tätigkeiten. Das anlegen von einem Share zum Beispiel wurde mit dem folgenden Fehler abgeschlossen:

WinRM cannot process the request. The following errir with error code 0x80090322 occured while using Negotiate authentication: An unknown security error occured.

Beim auslesen von den aktuellen Share-Informationen gab es zusätzlich die folgende Fehlermeldung:

Error retrieving SMB share information: WinRM cannot process the request. The following error with error code 0x80090322 occurred while using Negotiate euthentication: An unknown security error occurred.

​Im Eventlog traten noch weitere Fehler auf, die in Richtung Kerberos hinweisen:

The Kerberos client received a KRB_AP_ERR_MODIFIED error from the server Computername$. The target name used was HTTP/computername$. This indicates that the target server failed to decrypt the ticket provided by the client. This can occur when the target server principal name (SPN) is registered on an account other than the account the target service is using. Ensure that the target SPN is only registered on the account used by the server. (...)

Nach einer Ausgabe und Überprüfung der SPNs im Active Directory des Kunden und einem Vergleich zu unseren SOFS-Objekten gab es keine Unterschiede, ein bisschen komisch ist allerdings der Eintrag, der auf einen fehlenden HTTP-Eintrag verweist. Nach einer kurzen Suche habe ich eine Seite gefunden, die genau diesen Fehler beschreibt:

https://nocentdocent.wordpress.com/2014/12/29/sofs-logical-configuration-reference/

Im unteren Teil des Artikels findet sich unter Known issues die Lösung für unser Problem. In das SOFS-Objekt muss ein neuer SPN eingetragen werden mit dem folgenden Befehl:​

Setspn -A http/<<SOFS DistributedNetworkName fqdn>> <<SOFS DistributedNetworkName>>

Beispiel:

setspn -a ldap/sofs.contoso.com sofs

Nach einer Eintragung von diesem Wert war ein Schwenk der Ressourcen von Server B auf Server A wieder problemlos möglich, es gab keinerlei Fehler mehr und die Hyper-V Hosts konnten problemlos auf alle Shares zugreifen. Das anlegen von einem neuem Share war auch problemlos möglich, ebenso der Aufruf von vorhandenen Freigaben.

Interessant finde ich, dass dieser Eintrag bisher in keiner unserer Umgebungen (bzw. in den Kunden-Umgebungen) benötigt wurde und ich auch bei einer Neuinstallation bzw. einem Wechsel der Knoten dieses Problem bisher nie hatte. Ich habe die Neuinstallation bzw. den Austausch von Knoten bisher schon bestimmt zehn Mal oder mehr gemacht, weiterhin ist dieser Weg auch der empfohlene Weg bei einem Upgrade auf Windows Server 2016, Stichwort ​Rolling Cluster Upgrade. Durch diesen kleinen Eintrag im Computerobjekt der SOFS-Rolle wurde das Problem gelöst, das zählt :)

Der Beitrag Zugriffsfehler bei einem Scale-Out File Server Cluster – Error 0x80090322 erschien zuerst auf Hyper-V Server Blog.

Carsten Rachfahl [Technik]: Probleme mit Let’s Encrypt Zertifikat auf Android Handys

Ich hatte bei unseren Webseiten vor kurzem das Problem, dass trotz einem ordnungsgemäßen Aufruf der Seiten eine Fehlermeldung auf mobilen Endgeräten mit Android kam. Die Handys haben immer die Meldung geschmissen, dass das genutzte Zertifikat nicht gültig ist und man musste daher immer auf "Ja, ich bin mir absolut sicher, was ich hier tue" klicken, was nicht gerade toll ist und bei Endbenutzern vielleicht zu einer Unsicherheit führt.Die tl:dr-Variante: Let's Encrypt nutzt ein Zwischenzertifikat, was im Webserver mit ausgeliefert werden muss, danach funktioniert auch der Aufruf auf Android-Geräten :)Wenn wir uns in einem Browser auf meinem Notebook mal eine unserer Webseiten anschauen, sehen wir die folgenden Zertifikate:Das markierte "X3"-Zertifikat ist das "Problem", dieses ist auf einem Android-Handy scheinbar nicht hinterlegt und führt zu einer Warnmeldung. Wir nutzen Apache auf unserem Webserver, um WordPress zu betreiben, die folgende Konfiguration sorgt dafür. dass auch die Android-Handys funktionieren: (...)SSLEngine onSSLCertificateFile /etc/letsencrypt/live/<Domain>/cert.pemSSLCertificateKeyFile /etc/letsencrypt/live/<Domain>/privkey.pemSSLCertificateChainFile /etc/letsencrypt/live/<Domain>/chain.pemInclude …

Weiterlesen

Hans Brender: I’m speaking at the European SharePoint Office 365 & Azure conference

European SharePoint Conference

I’m proud to speak at the European SharePoint Office 365 & Azure Conference in Dublin, Ireland. Conference will start at 13th of November 2017 and ends at 16th November 2017.

My session is T6 on Tuesday, 14th of November, 2017 and is called

Working with OneDrive for Business

 

European SharePoint Office 365 & Azure Conference

So you will meet so many well known speakers from around the globe.
And here you may book. May we see us in Dublin?


faq-o-matic: Hyper-V-VMs zu Demozwecken erzeugen

Um in Hyper-V-Laborumgebungen Dinge zu entwickeln oder zu demonstrieren, brauche ich manchmal einfach eine Anzahl “ganz kleiner” VMs. Meist reichen dabei Hüllen aus – nur die VM-Konfiguration, aber kein installiertes Betriebssystem. So eine VM kann man dann konfigurieren, starten und beenden, auch wenn sie nichts Sinnvolles macht.

Das folgende Skript erzeugt in einem Rutsch solche VM-Hüllen. In der Variablen $VMPrefix legt es die Namen der VMs fest, die dann numerisch hochgezählt werden (mit diesen einheitlichen Namen kann man dann die VMs auch schnell wieder löschen). Die Angabe $VMCount enthält die Anzahl der VM-Hüllen. Die Konfigurationsdateien legt Hyper-V im Standardpfad für VMs ab.

$VMPrefix = 'BlankVM-'
$VMCount = 15
$Counter = 1
while ($Counter -le $VMCount) {
  $Number = $Counter.ToString().PadLeft(2, '0')
  New-VM -Name ($VMPrefix + $Number) -MemoryStartupBytes 32MB -NoVHD
  $Counter += 1
}

Hier der Download:

Note: There is a file embedded within this post, please visit this post to download the file.

image

faq-o-matic: Windows 10 Version 1703: Keine neuen RSAT

Für die neue Windows-10-Version 1703 (“Creators Update”) stellt Microsoft keine neuen Remote Server Administration Tools (RSAT) bereit. Dieses Mal funktionieren die Tools der Vorgängerversion 1607 weiterhin. Man findet sie hier:

[Download Remote Server Administration Tools for Windows 10 from Official Microsoft Download Center]
https://www.microsoft.com/en-us/download/details.aspx?id=45520

Wer von Version 1607 direkt auf 1703 aktualisiert und die RSAT bereits installiert hatte, wird feststellen, dass das Upgrade sie entfernt hat. Das liegt an einem Fehler in der Kompatibilitätsprüfung der Upgrade-Routine. Hier hilft es, die RSAT einfach neu zu installieren.

Thorsten Christoffers: Azure Global Bootcamp 2017

On April 22 the annual Azure Boot Camp event took place worldwide. I was happy to be a part of this important event in 2017. I decided to talk about one of my favorite Azure technologies: Azure OMS Log Analytics. I held my presentation in Lingen in a very pleasant atmosphere at it.emsland...

Carsten Rachfahl [Hyper-V]: Webinar Storage Spaces Direct Part 3 – Deep Dive 2 (English)

On the 8th of May, we will have our third Part of our Storage Spaces Direct Series. After we did our first Depp Dive sesson on the 10th of April (availible in our Webinar Archive) we look deper into Storage Spaces Direct.

In this part we will cover the following topics:

  • Performance
  • Helpfull PowerShell CmdLets
  • Error Handling
  • Demo
  • Q & A

If you want to participate in the webinar click on the picture or here to register. If you are not sure if you can make it register anyway and you will receive a link to the webinar recording afterwards.

Der Beitrag Webinar Storage Spaces Direct Part 3 – Deep Dive 2 (English) erschien zuerst auf Hyper-V Server Blog.

Carsten Rachfahl [Hyper-V]: SCOM 2016 – Management Pack für Storage Spaces Direct

Zu den vielen Neuerungen im Windows Server 2016 gehört auch Storage Spaces Direct. Nun werden wir in Kunden Projekten immer wieder gefragt wie sich diese Umgebung Monitoren lässt. Ich möchte euch die Möglichkeit des Monitorings der Storage Spaces Direct Umgebung anhand des neuen Manangement Pack für Storage Spaces Direct für den System Center Operations Manager 2016 (SCOM) vorstellen.

Über diesen Link könnt ihr das Management Pack für Storage Spaces Direct herunterladen. Das Download enthält zwei Dateien:

  • “Microsoft System Center 2016 MP for Storage Spaces Direct.msi” “
  • “MS Server 2016 Storage Spaces Direct MP Guide.docx”

Die aktuelle Version des Management Packs ist:

Werfen wir noch einen Blick in das Worddokument und vergewissern uns, dass alle Voraussetzungen für die Installation das Storage Spaces Direct Management Pack erfüllt sind.

In unserer Umgebung setzen wir einen System Center Operations Management Server 2016 mit Update Rollup 2 und den akutellen Windows Patches ein. Mit diesem Management Pack für Storage Spaces Direct möchten wir unseren 2 Knoten Storage Spaces Direct Hyper-converged Cluster überwachen.

Wir installieren die .MSI – Datei auf unserem System Center Operations Management Server. Im Anschluss importieren wir den Storage Spaces Direct Management Pack in der System Center Operations Management Konsole wie folgt:

 

Der Management Pack für Storage Spaces besteht aus vier Management Pack Dateien die wir alle markieren und importieren.

Sollten Management Packs fehlen, die für diesen Management Pack benötigt werden,  wird dies durch das System angezeigt und die fehlenden Management Packs können mit installiert werden.  Nach erfolgreicher Installation können wir uns nun anschauen, was der Management Pack für die Storage Spaces Direct alles beinhaltet.

Im Bereich des Monitoring unter der Gruppe “Storage” wurde die neue Gruppe “Storage Spaces Direct 2016” angelegt. Diese Gruppe enthält bereits nützliche Tools um einen schnellen Überblick über den Zustand unserer Storage Spaces Direct Umgebung zu bekommen. Wir werden uns diese jetzt im Einzelnen näher anschauen. Doch hier einmal die Übersicht.

Unter  “Active Alerts” werden alle Meldungen angezeigt die durch dem Management Pack für Storage Spaces Direct 2016 erzeugt werden. Um Alerts zu erhalten habe ich mal einen der S2D-Knoten heruntergefahren.

Nun welche Meldungen werden uns hier angezeigt?

unter “Critical” wird uns gezeigt dass der Server S2D1 nicht erreichbar ist  – genau diesen habe ich für unser Beispiel herunter gefahren. Diese Meldung wird geschlossen sobald der Server wieder erreichbar ist.

bei “Warning” werden wir darüber informiert, dass auf unseren drei Cluster Shared Volumes nicht alle Daten voll redundant sind. Auch das ist korrekt, da durch das herunterfahren des S2D1 Servers die lokalen Festplatten des Server, die ja auch dem Storage Pool “S2D-Cluster” zugewiesen wurden im Moment nicht zur Verfügung stehen. Auch diese Warnmeldungen werden nachdem die Daten wieder voll redundant sind automatisch geschlossen.

bei “Information” bekommen wir mitgeteilt, dass für den Restore der bis dahin erzeugten Daten, bereits drei Jobs (für jedes CSV einer) darauf warten die Daten auf die dann wieder zur Verfügung stehenden Festplatten zu schreiben. Diese Informationsmeldungen bleiben stehen und müssen manuell geschlossen werden.

Als nächstes werfen wir einen kurzen Blick in die “Active Faults” – wie der Name schon sagt, werden uns hier nur die aktiven Fehler des überwachten Storage Spaces Direct Clusters angezeigt.

Es sind die gleichen Meldungen, die wir bereits bei den “Active Alerts” gesehen haben mit dem Unterschied, dass die Informations Meldungen fehlen – klar das sind ja keine Fehler.

Für alle, die die Alerts Sammlung anpassen möchten, das geht per rechts Klick über die Properties bzw. Eigenschaften. Ich zeige euch kurz was als Standard bei den “Active Faults” eingestellt ist. Über den Punkt “Display” können die Spalten ausgewählt werden, deren Informationen im Überblick mit angezeigt werden sollen.

Unter “File Shares”  werden die Freigaben angezeigt die bei einem Storage Spaces Direct System mit der SOFS-Rolle angelegt wurden. Da wir ein Hyper-converged System haben – d. h. die Hyper-V Rolle ist direkt auf diesem System installiert – können wir keine SOFS-Freigaben anlegen und somit ist diese Ansicht bei uns leer.

“Ongoing Jobs” ist der nächste Punkt auf unserer Übersicht – wir können uns hier schnell einen Überblick verschaffen, ob auf unserem Storage Spaces Direct System Restore Jobs anstehen bzw. gelaufen sind – den wie bereits unter “Active Alerts” beschrieben, werden diese Infos nicht automatisch geschlossen, wenn die Jobs abgearbeitet wurden.

Unter “Performance” können jede Menge Performance Counter ausgewählt werden – die uns je nach Anforderung Auskunft über den Zustand des Storage Spaces Direct System geben können. Als Beispiel habe ich mal die IOPS Total und IOPS Write für die Darstellung ausgewählt. Im zweiten Bild sind alle Performance Counter aufgelistet die zur Verfügung stehen. Die Performance Counter für das Volume steht natürlich für jedes angelegt CSV Volume zur Verfügung.

Beim Blick auf das Dashboard “Storage Spaces Direct 2016” bekommen wir einen guten Überblick über den Zustand der Storage Spaces Direct Umgebung – im Augenblick ist alles auf “Critical”. Der weitere Bildausschnitt zeigt noch einen detaillierteren Überblick über das System.

Im Detailüberblick werden uns unter Monitoring auch Performance Werte mit angezeigt. Ich habe in der  Zwischenzeit den S2D Node  wieder gestart und so können wir uns die Werte ansehen, wenn alles im grünen Bereich liegt :-) .

Unter “Storage Subsystems” wird uns der Zustand des Storage Pools angezeigt. Leider nicht mehr  – so bekommen wir keine Informationen darüber, welche Festplatten dem Pool zugeordnet sind (Typ, Fabrikat, Größe usw.), noch in welchem Status sich die Festplatten befinden. All diese Daten stehen im Failover Cluster Manager zur Verfügung. Da bedarf es wohl noch einiger Erweiterungen des Management Packs oder man muss auf Management Packs der Hardware Hersteller zurück greifen.

“Volumes” ist der letzte Punkt in unserer Übersicht – hier wird uns der Status unser Cluster Shared Volumes (CSV) angezeigt.  Auch hier fehlt jede weitere Info, z.B. wie viel Speicherplatz steht noch zur Verfügung usw.

Damit wären wir am Ende der Übersicht – ich denke wir bekommen schon eine ganze Menge angezeigt über diesen neuen Management Pack für Storage Spaces Direct – doch einige wichtige Punkte fehlen mir noch in dem Monitoring. So werden gerade in unserer Umgebung auch die Virtuellen Maschinen nicht mit überwacht. Wir erinnern uns beim Storage Spaces Cluster musste der System Center Virtual Machine Manger dazwischen geschaltet werden damit dieser überwacht werden konnte. Das fällt bei dem neuen Storage Spaces Direct Management Pack weg.

Ich werde mich bei Gelegenheit auf die Suche machen, mit welchen weiteren Management Packs das Storage Spaces Direct Cluster noch besser überwacht werden kann. Bis dahin

Viel Spaß

Der Beitrag SCOM 2016 – Management Pack für Storage Spaces Direct erschien zuerst auf Hyper-V Server Blog.

Torsten Meringer: OS Upgrade Task Sequence vs. Windows 10 pro OEM

Mit ConfigMgr Current Branch kann man ja bekannterweise mit einer „Upgrade an operating system from an upgrade package“-Task Sequenz das Betriebssystem auf eine höhere Version aktualisieren. Eigentlich keine große Zauberei, ABER …

Ich hatte genau dieses Szenario (Upgrade von Windows 10 1511 / 10586 / Threshold 2 und 1607 / 14393 / Redstone auf 1703 / Creator’s Update / 15063) probiert und hatte prompt Erfolg. Zumindest auf meinen virtuellen Testmaschinen. Ein erster Test auf „echten“ Rechnern schlug reproduzierbar fehl. Das Fehlerbild dabei: die Tasksequenz läuft an, startet das Windows Setup für das Upgrade durch den Schritt Upgrade Operating System

Executing command line: „C:\windows\ccmcache\xy\SETUP.EXE“ /ImageIndex 1 /auto Upgrade /quiet /noreboot /postoobe „C:\windows\SMSTSPostUpgrade\SetupComplete.cmd“ /postrollback „C:\windows\SMSTSPostUpgrade\SetupRollback.cmd“ /DynamicUpdate Disable /compat IgnoreWarning

und initiiert dann einen Reboot. Die Tasksequenz wurde nach dem Reboot jedoch nicht fortgesetzt – das Windows Setup hingegen lief planmässig weiter, so dass das Endresultat ein Computer mit aktuellem 1703er Windows war.

Sofort zu sehen war, dass die Dienste SMS Agent Host und der Task Sequence Agent im Status „Disabled“ waren:

SMS Agent Host disabled

 

ConfigMgr Task Sequence Agent Disabled

Weiterhin befand sich der SCCM Client im Provisioning Mode (HKEY_LOCAL_MACHINE\SOFTWARE\Microsoft\CCM\CcmExec: ProvisioningMode: true):

Registry ProvisioningMode

Alle drei Zustände sind tatsächlich während der Task Sequenz erwünscht und korrekt, jedoch sollte ein Mechanismus dafür sorgen, dass der korrekte Zustand nach dem Betriebssystem-Upgrade wiederhergestellt wird. Einen Hinweis zur „Lösung“ (*) findet man in der Command Line, die die TS ausführt (siehe oben, Stichwort: SetupComplete.cmd und SetupRollback.cmd).

Also sorgt Windows dafür, dass die SetupComplete.cmd ausgeführt wird. Meistens. Also wirklich fast immer. Die „Lösung“ (*) steht in C:\Windows\Panther\UnattendGC\Setupact.log:

[windeploy.exe] Client OS edition and OEM license detected and no enterprise edition detected, will not run SetupComplete.cmd
[windeploy.exe] Not allowed to run the Setupcomplete.cmd, will not run SetupComplete.cmd

Die Meldung ist eindeutig. Windows meint, dass ein OEM-Lizenzkey erkannt worden und es keine Enterprise Version (Pro in meinem Fall) ist.
Das Verhalten ist laut https://msdn.microsoft.com/en-us/windows/hardware/commercialize/manufacture/desktop/add-a-custom-script-to-windows-setup auch so gewollt:

Windows Setup scripts: Setupcomplete.cmd and ErrorHandler.cmd are custom scripts that run during or after the Windows Setup process. They can be used to install applications or run other tasks by using cscript/wscript scripts.

%WINDIR%\Setup\Scripts\SetupComplete.cmd: This script runs immediately after the user sees the desktop. This setting is disabled when using OEM product keys. It runs with local system permission.

%WINDIR%\Setup\Scripts\ErrorHandler.cmd: This script runs automatically when Setup encounters a fatal error. It runs with local system permission.

Also Sackgasse an dieser Stelle – zumindest für das Upgrade von Windows 10 Pro mit einem OEM-Key mittels Task Sequenz. Servicing Plans können als Alternative verwendet werden.

Auf meinen Test-VMs ist der Fehler nicht aufgetreten, da Windows gar nicht aktiviert worden ist.

(*) eine „Lösung“ kann ich aktuell nicht bieten. Das Thema habe ich mit der Product Group diskutiert und warte auf Feedback.

 

Der Beitrag OS Upgrade Task Sequence vs. Windows 10 pro OEM erschien zuerst auf Torsten's Blog.

Arnd Rößner: WSUS Server auf Server 2016 – der lange Weg zum Update

Kürzlich habe ich ein schon überfälliges Update eines WSUS-Servers von Server 2012 auf 2016 gemacht. Alles neu macht er Mai, dachte ich, also keine Migration, sondern Neuinstallation. Mal “Kurz” ein OS-Template hochziehen und die WSUS-Rolle drauf – Dachte ich zumindest.   Ein Windows Server 2016 Image war schnell Deployed auch die WSUS-Rolle ließ sich schnell […]

Arnd Rößner: Mobil bis ins hohe Alter: Microsoft HoloLens unterstützt thyssenkrupp bei der Produktion individuell gefertigter Treppenlifts

thyssenkrupp visualisiert und konfiguriert Mobilitätslösungen mit Kunden in Echtzeit auf Basis von Microsoft HoloLensDie Lieferzeiten für die maßgeschneiderten Produkte reduzieren sich um den Faktor vier Um maßgeschneiderte Home-Mobility-Lösungen liefern zu können, setzt thyssenkrupp auf Microsoft HoloLens. Die Mixed-Reality-Brille ermöglicht Kunden in Echtzeit die Visualisierung eines Treppenlift-Produkts im eigenen Zuhause. Durch die Beschleunigung verschiedener Prozessschritte sind […]

Arnd Rößner: Die digitale Transformation ist in Deutschland angekommen, der Reifegrad variiert jedoch stark

IDC MaturityScape Benchmark Assessment zur digitalen Transformation in Deutschland zeigt, dass der Handlungsbedarf in Deutschland hoch bleibt 64 Prozent der befragten Unternehmen haben die Notwendigkeit zu handeln erkannt und erste digitale Projekte gestartetNur 16 Prozent leben bereits die digitale Transformation und sind dadurch führend am MarktJedes fünfte Unternehmen (19 Prozent) steht der Digitalisierung skeptisch gegenüberMicrosoft […]

faq-o-matic: cim Lingen 2017: Call for Participation

cim lingen: Community in MotionDie cim in Lingen (community in motion), eine der schönsten Konferenzen der IT-Community, wird in diesem Jahr zum 13. Mal stattfinden. Am Samstag, dem 9. September 2017, erwarten die Organisatoren wieder 300 Interessierte zu ihrem hochkarätigen Event. Wie immer ist die Teilnahme kostenlos.

Wer sich als Sprecher mit einer Session beteiligen möchte, ist jetzt aufgerufen, einen Vorschlag einzureichen. Der “Call for Participation” läuft bis zum 15. Juni. Hier gibt es Näheres:

[cim lingen | community in motion | Call for Participation – news]
http://www.cim-lingen.de/news/call-participation_17.html

Carsten Rachfahl [Hyper-V]: Live Migration – Error 21502

Eine altbekannte Fehlermeldung in neuer Umgebung.
Bei Tests mit der VMGroup im FailoverCluster 2016 bin ich einmal mehr bei der Live Migration einer VM auf dem Error 21502 gestoßen.

Die VM hatte ich vor der Live Migration der VMGroup “Hyper-V Collection” hinzugefügt und auch wieder entfernt. Bei der Abfrage ob die VM einer VMGroup angehört wurde mir keine VMGroup angezeigt.

Dennoch schlägt die Live Migration fehl und zeigt an, dass die VM noch einer VMGruop angehört. Jetzt ist guter Rat teuer – wo steht diese Info hab ich mich gefragt. Bei den Eigenschaften der VM finde ich ja dazu nichts mehr. Nun, so dachte ich mir ich nehme die VM mal aus dem Failover Cluster und schau was der Hyper-V Manager bei der Live Migration macht. Gedacht getan und wie so oft ist hier das Verhalten ein anderes wie im Failover Cluster.
Ich rufe über den Hyper-V Manager den Wizard für die Live Migration auf und klicke die einzelnen Schritte durch – verschiebe die VM – wähle meinen Zielserver aus – verschiebe nur die VM ………
hier die Zusammenfassung der ausgewählten Optionen:

Es dauert kurz und dann zeigt mit der Hyper-V Manager ebenfalls an, dass hier noch verweise VMGroup Mitgliedschaften vorhanden sind, doch jetzt kann ich auswählen, dass diese verwaisten VMGroup Mitgliedschaften entfernt werden sollen.

Wieder wird eine kurze Zusammenfassung angezeigt und im Anschluss funktioniert die Live Migration der VM wieder einwandfrei – auch nachdem ich die VM wieder im Failover Cluster hochverfügbar gemacht habe.
Viel Spaß und weiterhin viel Erfolg

Der Beitrag Live Migration – Error 21502 erschien zuerst auf Hyper-V Server Blog.

faq-o-matic: PowerShell ISE Presenter

Ein sehr spezielles Tool hat der schweizerische IT-Trainer Claudio Spizzi veröffentlicht. Der PowerShell ISE Presenter klinkt sich als Add-on in die Windows-eigene PowerShell-Oberfläche ein und unterstützt dafür einen Präsentationsmodus. Mit der Tastatur oder auch mit einer Präsentations-Fernbedienung kann man Befehl für Befehl durch ein Skript gehen und einzelne Zeilen ausführen.

PowerShell ISEPresenter

[PowerShell ISE Presenter – Claudio Spizzi]
https://spizzi.net/2016/10/18/powershell-ise-presenter/

Carsten Rachfahl [Hyper-V]: Webinar Storage Deep Dive – Storage QoS und Storage Replica

Am 8. Mai  findet das Webinar Storage Deep Dive - Storage QoS und Storage Replica statt. Diese beiden Themen runden dann unsere Storage Spaces Direct Webinar Serie ab (wer diese verpasst hat findet alle schon gehaltenen Webinare in unserem Webinar Archiv).

Diesmal wird es um folgende Inhalte gehen:

  • Storage QoS
  • Storage Replica
  • Demo
  • eure Fragen

Zum Anmelden clickt Ihr auf das Bild oder hier! Wenn Ihr keine Zeit habt meldet euch trotzdem an dann bekommt Ihr nach dem Webinar eine Mail mit dem Link zur Aufzeichnung!

Der Beitrag Webinar Storage Deep Dive – Storage QoS und Storage Replica erschien zuerst auf Hyper-V Server Blog.

SharePointPodcast: SPPD369 Microsoft ToDo, Talk mit Claus Quast


Die Toolbox im Microsoft Ecosystem hat ein neues Spielzeug – Microsoft To-Do ist als Preview da und Wunderlist wird in Rente geschickt. Also im Prinzip soll das so sein, in meinem Office365 Tenant ist aber To-Do aber noch nicht ausgerollt Trotzdem gebe ich mal eine kleine Einschätzung zum Thema „Microsoft und Aufgabenverwaltung“.

Im Talk ist Claus Quast zu Gast, mit dem ich auf der CeBIT 2017 über Office365 im Public Sector, IoT und der Bedeutung von Visio gesprochen habe.

Und natürlich auch wieder die Hinweise auf die Community Events.

Fotos meiner Hörer, wenn sie den SharePointPodcast hören.

nn
« 1 von 4 »

Flattr this!

Hans Brender: Azure Munich Meetup | Recap

Azure Meetup Munich: OneDrive Deep Dive

Am Donnerstag den 18.4.2017 füllte sich der große Raum, den uns Microsoft zur Verfügung gestellt hat, mit knappen hundert Leuten, die zuerst mir und dann Markus Klein 3 Stunden zugehört haben.

Mir hat es Spaß gemacht, die Leute waren ausgeruht, war ja auch Ostern und neugierig. Vielen Dank für das Feedback, das mich auf den unterschiedlichen Wegen erreicht hat.

Eine Bilderstrecke hänge ich hier dann dran, zwischendurch waren wir via Facebook live, hier der Link dazu, für die, die nicht dabei sein konnten.

Der Gastgeber Christian Waha stellt vor...

OneDrive: Next Generation Sync Client OneDrive: Next Generation Sync Client

90 Slides: OneDrive Deep Dive

gute gelauntes PublikumOneDrive for Business in Teams


Carsten Rachfahl [Hyper-V]: In 3 Wochen ist die Cloud & Datacenter Conference Germany in München

Mittlerweile sind wir auf der Zielgerade: in 3 Wochen am 4. und 5. Mai ist es soweit! unsere Microsoft Cloud und Intrastruktur Konferenz findet im Microsoft Office in München statt!

Deshalb möchte ich euch in diesem Post unseren letzten Stand zur Konferenz mitteilen.

Überigens: es gibt immer noch Karten! Also wer noch nicht dabei ist sollte nicht zögern und eine Karte buchen!

Pre-Event Hyper-V Community

Wir haben mit der Hyper-V Community am 3. Mai ein Super Pre-Event! Schaut euch nur die Sprecher an:

Sowas hats in Deutschland noch nicht gegeben! Wer an Hyper-V interesiert ist das diese Event definitiv nicht verpassen!

Die Hyper-V Community findet ebenfals im Microsoft Office in München Schwabing statt und die verfügbaren Plätze sind begrentzt.

Agenda und Vorträge

Die Agenda steht! Die 32 Fachvorträge und 2 Keynotes sind alle besetzt. Dabei muß ich sage, unsere Sprecher können sich wirklich sehen lassen:

  • 23 Microsoft MVPs (davon sind 4 Microsoft Regional Director)
  • 5 Microsoft Sprecher (darunter Mr. Hyper-V Ben Armstrong)

Zusätzlich wird das Programm noch von useren 8 Goldsponsoren aufgefüllt die ebenfalls Konferenz relevante Themen präsentieren.

Stöbert doch selbst mal in der Agenda und schaut wer alles zu welchem Thema spricht!

Video Aufzeichnung

Die gute Nachricht: wir haben uns entschlossen in die Aufzeichnung der Vorträge zu investieren! Allerdings werden wir die Vorträge nicht frei ins Internet stellen, sondern nur den Konferenz Teilnehmern zugänglich machen.

Also wenn Ihr euch zwischen den super Vorträgen nicht entscheiden könnt, dann wählt den aus, wo Ihr die meisten Fragen habt und schaut euch den/die andren dann gemütlich zuhause an.

Bonus für die Teilnehmer

Wir haben uns einige besondere Boni für die Konferenz Teilnehmer überlegt:

  • Sonderangebot für den Hyper-V PowerKurs und den Storage Spaces Direct PowerKurs
  • Zugriff auf alle Vortrags-Aufzeichnungen
  • Eine weitere große Überraschung!

Der Beitrag In 3 Wochen ist die Cloud & Datacenter Conference Germany in München erschien zuerst auf Hyper-V Server Blog.

Mark Heitbrink: Datenschutz: gp-pack PaT - Privacy and Telemetry

complete GP Ruleset, additional Scripts and ADM Template

Mark Heitbrink: 1703 - Creators Update: Datenschutz und Telemetrie

Änderungen des Creators Update

Marc Grote: Windows Server 2016 Storage Spaces Direct Cluster – Workshop bei der Fa. Netz-Weise in Hannover

Hallo Leutz,

im Rahmen der “IT Jogging Veranstaltungen” der Fa. Netz-Weise (http://www.netz-weise.de) darf ich am 01.06.2017 in der Zeit von 18:30 – 21:00 Uhr einen Workshop zum Thema “Windows Server 2016 Storage Spaces Direct Cluster” halten.

Titel: Windows Server 2016 Storage Spaces Direct Cluster
Abstrakt:
In diesem IT Jogging wird die Konfiguration und Administration eines Storage Spaces Direct Cluster mit Windows Server 2016 demonstriert.
Inhalte:
Failover Cluster Neuerungen in Windows Server 2016
Storage Spaces Direct Architektur
Administration eines S2D Clusters
Storage-Erweiterung des S2D Cluster
S2D Troubleshooting

Anmeldung hier: (http://www.netz-weise.de)
Download Praesentation: (WS2016-S2D)

Gruss Marc

Arnd Rößner: Windows 10 Creators Update: Startschuss für den weltweiten Rollout

Ab heute wird das Windows 10 Creators Update weltweit ausgerollt. Das dritte große Update der Plattform ist für Kunden mit Windows 10 Devices kostenlos erhältlich und wird sukzessive über Windows Update verfügbar. Bei der Installation profitieren Anwender erstmals von flexibleren Optionen: Eine neue Benachrichtigung informiert über die Verfügbarkeit des Updates und lässt Nutzer den Zeitpunkt […]

Arnd Rößner: Windows 10 Creators Update: Neuheiten für Unternehmenskunden

Mit dem Creators Update wird das dritte große Update für Windows 10 ab dem 11. April 2017 für Kunden weltweit verfügbar. Firmenkunden profitieren durch umfangreiche Erweiterungen und neue Funktionen in den Bereichen IT-Verwaltung, Sicherheit und Datenschutz. Windows 10 ist die bisher am schnellsten wachsende Windows Version im Unternehmensumfeld und läuft mittlerweile auf mehr als 400 […]

Scolab: Luftbus 2.0 für Europa – SharePocalypse 42

I double Dare you: ‚Digital Transformation’-Hype. IBM will vom Home Office nichts mehr wissen. Amazon’s Tippfehler blockieren die Welt. Kein Recht auf Online Privacy in den USA. Digital Transformation-Hype – Realität vs. Hype Ich kann es nicht mehr hören! Aber … Weiterlesen

Der Beitrag Luftbus 2.0 für Europa – SharePocalypse 42 erschien zuerst auf Scolab.

Don't contact us via this (fleischfalle@alphasierrapapa.com) email address.