TechNet · Englische TechNet Blogs · TechNet Deutschland · itproblogs.de · .NET Blogs

Arnd Rößner: Danke Internet Provider für Optimierung

Seit “Optimierungen” an unserem Privaten DSL Anschluss Heute sieht das nun so aus: Viele Grüße Arnd Rößner mehr [...]

Willmar Heinrich: Erfahrungen mit einer Dokumentenverwaltung

Bei einer Dokumentenverwaltung denkt man eigentlich immer gleich an das große Unternehmen, die Verwaltung, die ihre Ordner voller Dokumenten zunehmend in eine rechnergestützte Verwaltung überführen will. Alles soll an einem Platz sicher gespeichert sein, schnell recherchierbar sein, Zugriffsberechtigungen sollen verwaltet sein und alles letztendlich nicht nur durch einen ausgebildeten Archivar, sondern “jeden” handelbar sein. Das […]

faq-o-matic: Umfrage zu Hyper-V

Microsoft führt derzeit eine kurze Umfrage zu Hyper-V durch. Die (englischsprachigen) Fragen drehen sich darum, wie Kunden Hyper-V nutzen, um das Feedback zu Windows Server 2012 R2 und um die Zukunftsaussichten der Microsoft-Virtualisierung.

[Microsoft Hyper-V Survey]
https://www.instant.ly/s/G5bPn/nav#p/186a0

TechNet Austria [MS]: Windows 10 Technical Preview Build 10061 ist da

Wer bereits Windows 10 Technical Preview installiert hat, kann seit heute die neueste Version Build 10061 herunterladen und installieren. Diese Meldung wurde vor kurzem in Blogging Windows veröffentlicht: Windows 10 Technical Preview Build 10061 now available.

image

Hierzu muss in den Settings der Windows Update-Mechanismus auf “Fast ring” eingestellt sein.

image

Nach dem Download kann dann Version “fbl_impressive Enterprise (oder Professional) 10061” installiert werden.
Das Ganze dauert natürlich ein wenig.

image

In Build 10061 sind Verbesserungen in den virtuellen Desktops, im Start, in der Taskbar und im Action Center enthalten und es sind neue Calendar und Mail-Apps vorhanden. Des weiteren wurden viele Fixes durchgeführt, etwa in Hyper-V und Project Spartan und u.a. auch für Visual Studio und Universal Apps.

Die Details hierzu findet ihr in der Ankündigung.

Ganz viel Content zu Windows 10 findet ihr dann ab nächster Woche, wenn http://www.buildwindows.com stattfindet (und viel Neues verfügbar sein wird, siehe auch Live-Streaming-Events im Kino)!

Viel Spaß mit Windows 10 Technical Preview Build 10061!

Carsten Rachfahl [Private Cloud]: Videointerview: Toni Pohl–Mastering Office 365 Development

So, kommen wir zu den Entwicklern in meiner Videoreihe zu der Office 365 Konferenz (09.-10.01.2015 in den Räumen von Microsoft Köln) und wir starten mit Toni. Sein Thema: Mastering Office 365 Development. In seinem Vortrag ging es darum Office 365 aus der Sicht des Entwicklers zu betrachten. Er findet, dass Software as a Service ein […]

faq-o-matic: Outlook 2013 gewaltsam zurücksetzen

Dieser Tage hatte ich ein Problem mit Outlook 2013. Irgendeine Netzwerkunterbrechung hatte dazu geführt, dass die OST-Datei meiner Exchange-Mailbox defekt war. Outlook beendete sich – und ließ sich danach nicht mehr starten.

Als erfahrener Anwender weiß man, dass es in solchen Fällen meist hilft, das Outlook-Profil zu löschen und ein neues zu erzeugen. Der Nachteil: Die Anpassungen sind weg, und evtl. zusätzlich eingebundene Mailboxen, PST-Dateien oder sowas muss man neu einbinden. Und, natürlich: Im Cache-Mode lädt Outlook erst mal die ganze Mailbox vom Exchange-Server neu herunter.

Ging aber nicht. Ein Klick auf das Outlook-Icon brauchte Outlook danach nicht zum Starten. Seltsamerweise tauchte es in der Taskliste im Taskmanager auf, aber kein Fenster weit und breit. Auch das Icon auf der Taskleiste zeigte kein laufendes Programm.

Die nächsten Versuche: Abgesicherter Modus – ging nicht. Löschen der alten OST-Dateien im Benutzerprofil – half nicht. Outlook-Reparaturinstallation – half nicht.

Geholfen hat dann: Löschen des gesamten Outlook-Schlüssels in der Registry, und zwar: HKEY_CURRENT_USER\Software\Microsoft\Office\15.0\Outlook

Danach startete Outlook wie beim ersten Mal mit Abfrage des (neuen) Profils, des Benutzernamens und der Einrichtung der Mailbox.

Scolab: SharePoCalypse 22 – LOL und LIKE – Ismael salzte nach

Die Konsequenzen der Digitalisierung! Sind die 145’000 ehemaligen Mitarbeiter von Kodak jetzt bei Instagram? Benötigt die digitale Revolution mehr Regulierung? Die ‚Meerkat’ reisst die Technologie-Presse und Blogger mit in den Tod. Was haben die Blechtrommel und Moby Dick eigentlich mit … Weiterlesen

Arnd Rößner: Set-CalendarProcessing

Mit dem Cmdlet Set-CalendarProcessing können Sie Kalenderverarbeitungoptionen für Ressourcenpostfächer ändern. Dazu zählen die Kalenderautomatik, der Assistent zum Buchen von Ressourcen und die Kalenderkonfiguration. Beachten Sie, das dieses Cmdlet nur für Ressourcenpostfächer gilt. Set-CalendarProcessing – Link Viele Grüße Arnd Rößner mehr [...]

Michael Greth: SharePoint 2016 Anmerkungen zu den News aus Redmond

SharePointPodcast 321:

Endlich legt Microsoft mal “Butter bei die Fische”, nimmt Stellung zur Zukunft von SharePoint On-Premise und gibt konkrete Termine zum SharePoint Server 2016 bekannt. Grund genug sich die Ankündigungen etwas genauer anzuschauen und meinen Senf dazu zu geben. Und im Gespräch erfahrt ihr etwas über “WorkingOutLoud”.

Anzuhören im SharePointPodcast 321

Torsten Meringer: WSUS/SUP-Synchronisationsprobleme April 2015

Falls die Updates vom Patchday April 2015 nicht auftauchen sollten (Stichwort: WSUS- bzw. SUP-Sychronisation), dann findet man hier die Lösung: https://support.microsoft.com/en-us/kb/3058255

Der Beitrag WSUS/SUP-Synchronisationsprobleme April 2015 erschien zuerst auf Torsten's Blog.

Carsten Rachfahl [Technik]: Installation des Windows Live Writer unter Windows 10 Technical Preview

Ich habe gerade versucht, den Live Writer unter meinem Windows 10 in der Technical Preview zu installieren. Dabei musste ich feststellen, dass die Installation mit dem Fehler OnCatalogResult: 0×80190194 gar nicht erst beginnt. Ich habe das Problem wie folgt gelöst: Installation von .Net Framework 3.5 Dies ging wie gewohnt per cmd / PowerShell und dem […]

faq-o-matic: Windows Server 2012 Update Policy

Microsoft hat die Verhaltensweise des Windows Server 2012 in einem grundlegenden Punkt verändert.

Sind in einer GPO feste Zeiten für die automatische Installation von Updates vorgegeben, so wurden die Server Versionen (2008 und älter) nach der Installation neugestartet, wenn dies für die vollständige Installation der Updates erforderlich war.

Als Beispiel sei gewünscht, dass der Windows Server jeden Dienstag um 03:00 Uhr Updates installiert. Dazu mussten folgende Einstellungen in der GPO gesetzt werden:

clip_image002

Hier verhält sich Windows Server 2012 auf folgende Weise anders:

  • es findet kein automatischer Neustart im Anschluss an die Installation von Updates statt
    • dies soll laut Microsoft Datenverlust in der Nacht vorbeugen
  • Es gibt einen 3-Tages-Counter, der zu einem Neustart führt
    • der Counter beginnt dann zu zählen, sobald ein Userkonto diesen sieht
    • der Neustart kann nicht abgebrochen werden!

In diesem 3-Tages-Counter besteht eine Riesengefahr, die wir leider im produktiven Umfeld erlebt haben. Gegeben sei, dass Updates um 03:00 Uhr Dienstag installiert werden. Zu vollständigen Installation müsste ein Neustart durchgeführt werden. Am Dienstagmorgen um 10:00 Uhr meldet sich ein Admin an einem betroffenen Server an und bekommt die Meldung des 3 Tages-Counters zu sehen. Ab diesem Zeitpunkt hat man jetzt 72 Std. Zeit den Server neu zu starten. Tut man dies nicht, findet ein automatischer Neustart am Freitagmorgen um 10:00 Uhr statt. Dieser Neustart kann nach meiner Kenntnis nicht abgebrochen werden!

Damit sich Windows Server 2012 analog zu vorherigen Versionen verhält muss folgende neue GPO Option gesetzt werden:

clip_image004

Nähere Informationen:
http://blogs.technet.com/b/wsus/archive/2013/10/08/enabling-a-more-predictable-windows-update-experience-for-windows-8-and-windows-server-2012-kb-2885694.aspx

PS: In einem VMWare-Umfeld kam es dann noch vor, dass Windows Server 2012 VMs nach einem Neustart in eine Bootschleife gelaufen sind. Ursache ist ein TimeStampCounter, der nicht zurückgesetzt wird.

Nähere Info
http://kb.vmware.com/selfservice/microsites/search.do?language=en_US&cmd=displayKC&externalId=2092807

Willmar Heinrich: Skype for Business–wo bleibt es…?

Am 5.April schrieb ich, dass am 14.4. das neue Skype for Business kommt. Nach nochmaliger Lesung der Quellen war es wohl doch eher: Microsoft beginnt zu verteilen… Erwartungsgemäß tat sich an meinen Rechnern am 14. April natürlich nichts. Am 18.4. begann ein Rechner, eine Menge Updates zu ziehen (via intune), dabei war auch das Update […]

Carsten Rachfahl [Hyper-V]: Videointerview mit Bradley Bartz über das Windows Azure Pack

Videointerview with Bradley Bartz about Windows Azure Pack Thumb2 ArrowDiesmal hatte ich das Glück Bradley Bartz (Principle Program Manager in der Microsoft Azure Gruppe) für ein Interview vor meine Kamera zu bekommen. Bradley spricht in dem Interview über die Anforderung der heutigen IT, agiler zu sein als in der Vergangenheit und über das Problem der Schatten-IT. Eine Lösung für dieses Problem ist die Microsoft “One Cloud” Strategie. Hierin bietet Microsoft so Bradley für die on-premise IT mit dem Windows Azure Pack alles was benötigt wird um zu verhindern das Workloads unbeaufsichtigt in die Public Cloud verlagert werden.

Ich habe wie immer im Interview viel gelernt und hoffe das gilt genau so für Euch. Viel Spaß beim Interview.

Carsten Rachfahl [Hyper-V]: IT Camp Infrastruktur-Modernisierung Dateien

imageAm 16. April fand vorerst das letzte Microsoft IT Camp Infrastruktur-Modernisierung statt. Da uns immer wieder Teilnehmer nach den verwendeten Dateien gefragt haben ist es nun an der Zeit diese zum Download bereitzustellen. Einfach auf die Bild links klicken und das ZIP Archive herunterladen.

imageWer nicht bei einer der Micrsooft IT Camp zur Infrastruktur Modernisierung dabei war oder generell wissen möchte was so ein IT Camp ist, der kann sich dieses kleine TechNet Video dazu ansehen. Hier schildert Didier Van Hoye (Microsoft Hyper-V MVP und mein Hyper-V Amigos Showcast Partner) seine Eindrücke über dieses IT Camp an dem er letzten November in Berlin teilgenommen hat. Ich bin am Anfang übrigens auch noch ein paar Mal zu sehen und zu hören, also bitte nicht erschrecken. Zwinkerndes Smiley

Hans Brender: Office 365 | Roadmap – more storage

OneDrive for Business, Microsoft

I have written a Blog Post about the problematic of storage in “Team sites”. SharePoint architects know what I mean, Storage in Team-Sites is restricted to 10 GB storage + 500 MB for each user. If we look for the big data, customers store on her fileservers, then we see, there is a problem, brining these data to SharePoint (Online). And, of course, it makes no sense,copying all these files in the same structure (1:1) to SharePoint. Not every user needs everything. Therefore we should deal with the concept of SharePoint and libraries. On the other hand, require, for example, Field staff access to these documents and they do not always have an Internet connection. This fits the concept of OneDrive for Business. Local synchronization. But we also know that the old "Groove client" has its pitfalls. No selective synchronization and the restrictions (20000/5000) as well as limitations of the entire file name and limitations of certain characters in the file names are new challenges, not only for administrators, but also for all users. Microsoft is working on that, and with the NGSC, Next Generation Sync Client, is on the way. But such a thing takes time.

On the Server side (SharePoint Online), in the Microsoft Cloud, we will have the restriction about 10 GB + … And of course, you may purchase more storage.

storage in SharePoint Online for Team-Sites

Microsoft knows that, and in contrast to the Sync client, there has to be changed not so much. Apart from (many) hard drives, because somewhere all these data must be saved (SQL Azure). And in the official Microsoft Office roadmap there is an entry under "developing" with the label

Storage and file upload improvements for Sites and OneDrive for Business”.

palnned storage in SharePoint Online for Team-Sites

On the server side (SharePoint Online) the customer will have a free contingent of
1 TB + 500 for each user. Moreover, the current limit of 2 GB file size should be raised to 10 GB. This in turn relates to SharePoint Online and the underlying SQL structure and the synchronization client. The transfer of data from SQL Server to SQL Azure (see Advanced File Encryption (video), synchronization) Microsoft may already currently able to handle files >2GB <10 GB. But Microsoft has to be change the current sync client OneDrive for Business(Groove.exe). The new sync client is not ready, the old one makes some trouble. And if and when a change is made here that knows only Microsoft itself.

This currently remains really only wait and continue to work on the architecture of team sites. Because this is the first requirement. Also for migration


Hans Brender: Office 365 | Roadmap – mehr Speicher geplant

OneDrive for Business, Microsoft

Ich habe über die Problematik der Team-Sites (wenig Speicher) und der “MySites” (viel Speicher) ja schon geschrieben. SharePoint-Architekten wissen, was ich meine. Speicher für Team-Sites sind eingeschränkt. Eine Firma erhält 10 GB Speicher + 500 MB für jeden Benutzer. Wenn wir uns aber die großen Datenbestände auf den File-Servern anschauen, reicht das nicht. Nicht falsch verstehen: Es macht keinen Sinn, die in den Jahren gewachsene File-Server Struktur 1:1 zu übernehmen und auf den SharePoint zu bringen. Nicht jeder Benutzer braucht alles. Deshalb muss man sich schon mit dem Konzept von SharePoint und den Bibliotheken beschäftigen. Auf der anderen Seite aber benötigen z.B. Außendienst-Mitarbeiter Zugriff zu diesen Dokumente und nicht immer steht eine Internet-Verbindung zur Verfügung. Hier passt das Konzept von OneDrive for Business. Lokale Synchronisation. Aber wir wissen auch, dass der alte “Groove-Client” so seine Tücken hat. Keine selektive Synchronisation und auch die Beschränkungen (20000/5000) sowie Einschränkungen des gesamten Dateinamens und Einschränkungen von bestimmten Zeichen im Dateinamen stellen nicht nur Administratoren, sondern auch den Benutzer vor neue Herausforderungen.  Daran arbeitet Microsoft, und mit dem NGSC, Next Generation Sync Client, ist man auf dem besten Weg. So etwas aber braucht seine Zeit.

Auf der Server Seite (SharePoint Online), also in der Microsoft Cloud, also dem Rechenzentrum stehen die Speicheranforderungen einer Firma von derzeit 10 GB + ….  natürlich ebenfalls im Weg. Natürlich kann Speicher dazugekauft werden…

Speicher in SharePoint Online für Team-Sites

Microsoft hat dies erkannt, und im Gegensatz zum Synchronisations-Client muss auf der Server-Seite nicht viel geändert werden. Abgesehen von zusätzlichen Festplatten, denn irgendwo muss das ganze ja in SQL-Azure ja abgelegt werden.

Und in der offiziellen Microsoft Office Roadmap gibt es  einen Eintrag im Bereich “in Entwicklung” mit der Bezeichnung

Storage and file upload improvements for Sites and OneDrive for Business”.

geplanter Speicher in SharePoint Online für Team-Sites

Auf der Server-Seite (SharePoint Online) soll das den Firmen zustehende Kontingent auf
1 TB + 500 MB pro Benutzer angehoben werden.

Außerdem soll die derzeitige Beschränkung von 2 GB Dateigröße auf 10 GB angehoben werden. Das wiederum bezieht sich auf SharePoint Online und der darunter liegenden SQL Struktur und dem Synchronisations-Client. Durch die Verlagerung der Daten vom SQL-Server auf SQL Azure (siehe Advanced File Encryption (Video), Synchronisation ) ist Microsoft vielleicht schon derzeit in der Lage, Dateien  > 2GB < 10 GB zu verarbeiten. Allerdings müsste dann auch der derzeitige Synchronisations-Client OneDrive for Business (Groove.exe) eine Änderung erfahren. Und ob und wann hier eine Änderung erfolgt, dass weiß nur Microsoft selbst.

Damit bleibt derzeit wirklich nur Abwarten und weiterhin an der Architektur der Teamsites zu arbeiten. Denn das ist die erste Voraussetzung. Auch für eine Migration


SharePointPodcast: SPPD321 SharePoint 2016


321Endlich legt Microsoft mal “Butter bei die Fische”, nimmt Stellung zur Zukunft von SharePoint On-Premise und gibt konkrete Termine zum SharePoint Server 2016 bekannt. Grund genug sich die Ankündigungen etwas genauer anzuschauen und meinen Senf dazu zu geben. Und im Gespräch erfahrt ihr etwas über “WorkingOutLoud”.

Themen

Talk

Tipps

Talk 2 mit Jochen Adler Netmedia

Termine

 

Flattr this!

Mark Heitbrink: RemoteApp - Zertifikatsfehler - SHA1-Fingerprint

Beseitigen der Fehlermeldung: "Es wird versucht, ein RemoteApp-Programm zu starten, stellen Sie zunächst sicher, daß Sie dem Herausgeber vertrauen"

TechNet Austria [MS]: SharePoint 2016 Roadmap

Viele Unternehmen setzen SharePoint als Intranet, App- und Zusammenarbeits-Plattform ein. Heute hat Microsoft im Office Blog die erste offizielle Roadmap zur nächsten Version, SharePoint Server 2016, bekanntgegeben, siehe

SharePoint Server 2016 update.

image

Seth Patton, Senior Director of Product Management for the SharePoint Team, hat die Timeline veröffentlicht.

  • Demnach wird SharePoint Server 2016 im Q2 2016 öffentlich verfügbar sein.
  • Eine Public Beta ist für Q4 2015 geplant.
  • Weiters stellt Microsoft klar, dass es für die nächste Zukunft eine on premises Version von SharePoint geben wird.

Bei der kommenden Ignite-Conference (siehe auch Artikel hier)  wird Microsoft nähere Details zu SharePoint 2016 und Office 365 bekanntgeben.

Vorerst werden die Themen “Improved user experiences” (wie etwa verbesserter Zugriff von mobilen Devices  und Touch-Geräten, Office Graph und Delve), “Cloud-inspired infrastructure” (Verbesserungen durch viele Learnings in der Cloud) und “Compliance and reporting” (wie etwa der Schutz vin sensitiven Daten) als Neuerungen genannt.

image

Es wird also sehr interessant. Hier geht's zu den Details im Artikel!

Dieter Rauscher: Office 365 eMail Anlagengröße

Also für diese Nachricht von Gestern lohnt sich ein eigener Blogeintrag in jedem Fall :)

Einigen Kunden konnte ich in den vergangenen Jahren Office 365 zwar schmackhaft machen, aber davon überzeugen ging nicht. Zumeist wegen einer einzigen Limitierung: Eine eMail kann nur maximal 25 MB groß sein inklusive Anlagen. Klar kann man sagen, es ist prinzipiell quatsch, solch große eMails zu versenden beziehungsweise eMail ist kein Filetransferprotokoll. Alles fachlich richtig. Nur ist es schwer, solche Angewohnheiten zu ändern bzw. deren Notwendigkeit einzusehen.

Erfreulicherweise hat Microsoft gestern bekannt gegeben, dass dieses Limit nun auf bis zu 150 MB pro eMail angehoben werden kann!

we’re pleased to announce that we’ve increased the allowed maximum message size to 150 MB, giving Office 365 administrators the ability to set the maximum message size of their choosing from 1 MB up to 150 MB.

The default maximum message size for Office 365 mailboxes is still 25 MB, and we aren’t going to change the setting on existing accounts. It turns out that some folks want an even smaller setting than 25 MB and many don’t want to change the current setting at all. So instead of us foisting a one-size-fits-all setting onto everyone, we’re now giving Office 365 customers the freedom to choose the maximum size setting that’s right for them.

Standardmäßig ändert sich nichts, nur wer ein größeres oder auch kleineres (!) Limit setzen möchte, muss dies tun. Die Einstellung kann entweder per Exchange admin center oder per PowerShell vorgenommen werden.

Weitere Informationen:

Viele Grüße
Dieter


Dieter Rauscher
MVP Enterprise Security

Carsten Rachfahl [Hyper-V]: PowerShell-Skript zur Konfiguration der Kerberos-Delegierung

KerberosIch habe vor einiger Zeit einen Beitrag darüber geschrieben, was der Unterschied zwischen Kerberos und CredSSP bei den Einstellungen der Livemigration ist. Am Ende des Artikels habe ich kurz aufgezeigt, wie man zwei Server untereinander in der Active Directory mit PowerShell einträgt. In diesem Artikel möchte ich nun ein Skript vorstellen, welches eine nahezu beliebige Anzahl an Hosts gegenseitig konfiguriert. Dadurch spart man einiges an Zeit, da nicht immer eine 1:1-Verknüpfung eingetragen wird. Ein besonderer Dank geht an Karl-Heinz, der während einer gemeinsamen Installation einen großen Teil dieses Skripts geschrieben hat.

Das Skript muss vor der Nutzung bearbeitet werden, da die folgenden Informationen eingetragen werden müssen:

  • Name der Domäne
  • Name des Scale-Out File Server (wenn vorhanden)
  • Name der Hyper-V Hosts
  • Name des Hyper-V Failover Cluster (wenn vorhanden)

Download als txt-Datei: http://www.hyper-v-server.de/wp-content/uploads/2015/04/Kerberos_Delegation.txt

Viel Erfolg bei der Nutzung, uns hat dieses Skript einiges an Zeit erspart.

Hans Brender: OneDrive for Business | KB 2956185 (April-Patch)

OneDrive for Business, Microsoft

Microsoft does not have released a patch for OneDrive for Business on Patch day in march.But with all patches in April there is also an Patch for the sync client with KB 2956185.

But you should only install the patch, if you have installed Office 2013 as a msi-Installation. I have describe that here.

the Patch fix following issue:

When you use OneDrive for Business to synchronize a document library that contains deep folder structures, you may experience an unrepairable issue.

You will find the Groove.exe on you windows client: “X:\Program Files\Microsoft Office\Office 15”

Groove.exe (Februar Patch) Groove.exe (April-Patch)
Groove.exe, Version 15.0.4693.1000 Groove.exe, Version 15.0.4711.1000
Version: 15.0.4693.1000
from 21.01.2015
Version 15.0.4711.1000
from 18.03.2015

This update contains the files that are listed in the following tables.

OneDrive for Business, changed files

There are only 15 steps between the “old” and the “new” version, which of course suggesting that Microsoft fully concentrates on the new client (NGSC).


Hans Brender: OneDrive for Business | KB 2956185 (April Update)

OneDrive for Business, Microsoft

Nachdem es zum März Patch-Tag von Microsoft nichts neues zu OneDrive for Business veröffentlicht wurde, gibt es im April 2015 ein Update mit der KB 2956185.

Das Update gilt allerdings nur für die Benutzer, die Office als .msi Paket installiert haben. Hier habe ich beschrieben, wie man feststellt, welche Installation dem Office-Paket zugrunde liegt.

Das Paket soll Synchronisationsprobleme beheben, wenn eine Dokument-Bibliothek eine “tiefe” Ordner-Struktur enthält und diese sich nicht reparieren lässt.

Die Groove.exe findet man auf Windows Rechnern unter “X:\Programm Files\Microsoft Office\Office 15”

Groove.exe (Februar Update) Groove.exe (April-Update)
Groove.exe, Version 15.0.4693.1000 Groove.exe, Version 15.0.4711.1000
Version: 15.0.4693.1000
vom 21.01.2015
Version 15.0.4711.1000
vom 18.03.2015

Geändert wurden folgende Dateien:

Groove.exe: Version 15.0.4711.1000, Dateiänderungen

Zwischen der “alten” und der neuen Version liegen nur 17 Schritte, was natürlich darauf hindeutet, dass Microsoft sich voll auf den neuen Client (NGSC) konzentriert.


Torsten Meringer: System Center Configuration Manager Cmdlet Library

Die “System Center Configuration Manager Cmdlet Library” für SCCM/ConfigMgr 2012 R2 steht zum Download zu Verfügung: https://www.microsoft.com/en-us/download/details.aspx?id=46681. Diese enthält Updates und Bugfixes zu den Powershell-cmdlets.

Der Beitrag System Center Configuration Manager Cmdlet Library erschien zuerst auf Torsten's Blog.

faq-o-matic: Umwandeln von Registry-Dateien zu XML-Dateien für die GPP

Über die Group Policy Preferences (GPP) kann man unter anderem Registry-Einträge per Gruppenrichtlinie an Client-Rechner verteilen. Was bei einem einzelnen Eintrag manuell noch machbar ist, wird zu einer aufwändigen und fehlerträchtigen Aufgabe, wenn es um mehrere Registry-Werte geht, die man parallel verteilen muss.

Hierfür bieten die GPP einen Import-Mechanismus über XML-Dateien. Damit ist jedoch noch nicht viel gewonnen, denn eine XML-Datei ist noch viel weniger einfach “per Hand” zu generieren. Muss man aber auch gar nicht: Es ist mit einem PowerShell-Skript möglich, einen Registry-Export in eine XML-Datei umzuwandeln. Nun muss man also nur noch auf einem Muster-Client die nötigen Registry-Einstellungen vornehmen, um diese dann in eine .reg-Datei zu exportieren. Das Skript erledigt den Rest.

Mein konvertiert Registry-Dateien (sog. *.reg-Files) in XML-Dateien für den Registrierungseditor.

Es bedient alle gängigen Registry-Formate:

  • REG_SZ
  • REG_EXPAND_SZ
  • REG_MULTI_SZ
  • REG_BINARY
  • REG_DWORD
  • REG_QWORD

XML-Erzeugen

Aufgerufen wird das Skript über den Parameter „-PathRegFile“, der den Pfad zu der Reg-Datei *.reg aufzeigt.

registry-TO-xml.ps1 -PathRegfile C:\test.reg

clip_image002

Die Ausgabe der XML-Datei erfolgt in dem gleichen Ordner, falls kein Ausgabepfad angegeben wurde. Beispielausgabe: test.reg.xml.

Ein individueller Ausgabepfad kann über den Parameter „-PathXmlOut“ erreicht werden.

registry-TO-xml.ps1 -PathRegfile C:\test.reg –PathXmlOut C:\A\test.xml

Für die bequemlichen unter uns habe ich zusätzlich das Powershellskript als EXE-Datei kompiliert. Hier ist es nur nötig, die Reg-Datei einfach auf die EXE-Datei zu schieben. Nun wird in demselben Verzeichnis die XML-Datei erzeugt.
(Anmerkung: Leider meldet Avira die Skript-Exe als FalsePositive und verhindert die Ausführung. Dies kann getrost ignoriert werden.)

Import in die Gruppenrichtlinien

Um die konvertierten Reg-Einträge zu importieren, klicken Sie im Explorer mit der rechten Maustaste auf die Datei und wählen „Kopieren“. Starten Sie dann die Gruppenrichtlinienverwaltung und gehen Sie dort auf

  • Benutzerkonfiguration > Einstellungen > Windows Einstellungen > Registrierung
  • oder Computerkonfiguration > Einstellungen > Windows Einstellungen > Registrierung

Wählen Sie im Kontextmenü „Einfügen“. Bestätigen Sie die Meldung „Möchten Sie das eingefügte Dokument wirklich importieren?“ mit Ja.

clip_image003

clip_image004

clip_image005

Das Skript könnt Ihr hier herunterladen: http://www.it-explorations.de/registry-nach-xml-converter-fuer-gpp/

Mark Heitbrink: Shortcuts in Ordnern bereitstellen

z.B. in einem Ordner auf dem Desktop, im Startmenü oder in den Favoriten

Carsten Rachfahl [Private Cloud]: Videointerview: Siegfried Jagott Hybrid und Office 365–Migration von Public Folder

Siegfried Jagott, seit drei Jahren in Folge, mit dem MVP Award für Exchange ausgezeichnet, hatte in seinem Vortrag auf der Office 365 Konferenz (09.-10. Januar bei Microsoft Köln) den Schwerpunkt auf die Public Folder gelegt. Bis vor zwei Jahren existierte in der Exchange Online Welt keine Möglichkeit die Public Folder zu nutzen. Damit war für […]

Hans Brender: Migrationen – Typen, Quellen und Ziele

BitTitan

Nein, heute schreibe ich nicht nur über OneDrive for Business, aber auch das kommt bei den Migrationen natürlich vor. Heute möchte ich einmal alle Migrationen auflisten, die MigrationWiz, ein automatisierter Prozess der Firma BitTitan, durchführen kann. Es sind inzwischen so viele verschiedene Migrationen, dass man diese in fünf Kategorien packen muss:

  • Postfach
  • Öffentliche Ordner
  • Dokument
  • Persönliche Archive
  • Firmen-Archive
    Fangen wir einmal mit der Postfach Migration an. Die nachfolgende Abbildung zeigt, dass die automatisierte Prozess-Lösung Migrationen von verschiedensten am Markt befindlichen Systemen als Herkunft und Ziel beherrscht. Dass + Zeichen hinter einem Produkt bedeutet, dass Migrationen ab dieser Version bis zur neusten Version durchgeführt werden können Ein Klick auf die Abbildung führt Sie direkt zu den Erklärungen:

MigrationWiz, Postfach Migrationen

        Oft wollte Microsoft in seinem Produkt Exchange die Öffentlichen Ordner abschaffen oder abschalten, ist aber am Widerstand der Kunden gescheitert, und selbst in Office 365 gibt es sie noch:

      MigrationWiz, Öffentliche Ordner Migrationen

            Und jetzt sind wir auch bei OneDrive for Business. Aber nicht nur. Bei Migrationen von Dokumenten gibt eine große Palette von Quellen und Zielen. Neu hinzugekommen sind jetzt Box, File Server, SharePoint Server 2010 und 2013 und SharePoint Online:

          MigrationWiz, Dokument Migrationen

                          und dann kommt das weite Feld der PST-Dateien, die wir noch in Hülle und Fülle bei Firmen vorfinden:

                        MigrationWiz, PST Migrationen

                              Wenn es um große Archivierung-Produkte geht, dann hat BitTitan auch dafür eine große Auswahl, die in den kommenden Monaten nochmals erweitert werden wird.

                            MigrationWiz, Firmen Archiv Migrationen

                        Migration ist nicht gleich Migration. Aber eine Migration mit dem MigrationWiz kann ein vollautomatischer Prozess werden, egal ob es sich um 50 oder 10000 Postfächer, 2000 oder 100000 Dateien, oder um Terra-Byte große Archive handelt, die von A nach B migriert werden müssen. Einmal eingestellt und konfiguriert, können Sie sich mit vielen anderen wichtigen Dingen beschäftigen.

                          Derzeit spricht der MigrationWiz nur die englische Sprache, aber BitTitan arbeitet mit Hochdruck an verschiedenen Sprachversionen wie Holländisch, Portugiesisch, Russisch, Spanisch , Französisch, Chinesisch und natürlich auch an einer deutschen Variante.

                  Willmar Heinrich: 10 Dinge, die Sie zu Office 365 wissen sollten

                  In der aktuellen Computerwoche gibt es folgende “TIPPS & TRICKS ZU MICROSOFT OFFICE 365”: http://www.computerwoche.de/a/10-dinge-die-sie-zu-office-365-wissen-sollten,3096485 Auch für Profis durchaus lesenswert!Einsortiert unter:Admin-Tools, Office365, Wolke

                  faq-o-matic: Azure Active Directory: Identitätstypen

                  Microsoft fasst die eigene Firmenstrategie inzwischen unter dem Motto „Mobile first – Cloud first“ zusammen. Der Ansatz dieser Strategie wird zunehmend deutlich, wenn man versucht, einige neuere Lösungen aus dem Microsoft Portfolio zu implementieren. Schon beim Evaluieren stellt man schnell fest, dass manche Produkte es erfordern, über eine Variante von Microsoft Azure Active Directory nachzudenken, da ohne dieses ein Einsatz der Produkte nur eingeschränkt oder schlicht und einfach gar nicht möglich ist. Wer also in Zukunft nicht auf Microsoft-Lösungen verzichten und weiterhin innovative Lösungen aus Redmond einsetzen möchte, kommt nicht drum herum, sich mit dem Thema Microsoft Azure Active Directory zu befassen.

                  Um einen Einstieg in das Thema zu liefern, möchte ich In dieser mehrteiligen Artikelreihe von unterschiedlichen Cloud-Identitätstypen über Synchronisationsmöglichkeiten der lokalen Active-Directory-Benutzer bis hin zu hochverfügbaren Active Directory Federation Services mit der Anbindung an Microsoft Azure Active Directory beleuchten. Ebenso sollen auch Gedanken über eine mögliche Implementierungsstrategie und etwaige Sicherheitsbedenken mit einfließen.


                  Varianten der Identitäten

                  Microsoft unterscheidet bei der Verwendung von Azure Active Directory zwischen drei Arten von Identitätstypen.

                  1. “Cloud Identity“
                  2. “Synchronized Identity“
                  3. “Federated Identity“

                  Diese einzelnen Typen werde ich nun gemeinsam mit Euch beleuchten.

                  1. “Cloud Identity“

                  Die “Cloud Identity“ ist eine Kombination aus Benutzername und Passwort, welche ihren Ursprung im Azure Active Directory hat. Hierfür muss der Administrator des Azure Active Directory (AAD) pro Anwender ein neues Benutzerkonto anlegen. Dieses kann entweder manuell über das Management-Portal des AAD oder alternativ über das Microsoft Azure Active Directory PowerShell Module (http://go.microsoft.com/fwlink/p/?linkid=236297) erfolgen. Für die Anlage von mehreren Anwendern ist zusätzlich die Verarbeitung einer CSV-Datei über das Management-Portal (oder natürlich wieder per PowerShell) möglich. Nach der erfolgreichen Anlage des Benutzerkontos kann sich der Anwender mit der neuen “Cloud Identity“ an die entsprechenden Dienste (zum Beispiel Microsoft Office 365) anmelden.

                  Der größte Nachteil dieser Identitätsart ist, dass keinerlei Abgleich zwischen einem lokalen Active Directory und Azure Active Directory besteht. Somit müssen alle notwendigen Änderungen doppelt gepflegt werden, und der Anwender muss sich eine zusätzliche Kombination aus Benutzername und Kennwort merken.

                  Die nachfolgende Grafik stellt diese Art der Identität im Überblick dar.

                  clip_image002

                  Vorteile der “Cloud Identity“:

                  • Schnelle Implementierung für Testumgebungen (Trial)
                  • Keine zusätzliche Infrastruktur On-Premises notwendig
                  • Verfügbarkeit abhängig von den Microsoft Services, keine On-Premises-SLAs zu definieren
                  • Kein On-Premises-Active-Directory notwendig

                  Nachteile der “Cloud Identity“:

                  • Zusätzliche Benutzernamen-/Kennwort-Kombination für den Anwender
                  • Erhöhter administrativer Pflegeaufwand

                  Aus den genannten Vor- und Nachteilen empfinde ich die “Cloud Identity“ nicht als Enterprise-taugliche Variante für den Einsatz im Unternehmen.

                  “Synchronized Identity“

                  Die “Synchronized Identity“ ist meines Erachtens die inzwischen von Microsoft präferierte Variante der Identitätstypen. Hierbei handelt es sich um eine Identität, die ihren Ursprung im Active Directory des eigenen Unternehmens hat und ins Azure Active Directory synchronisiert wird. Zum heutigen Zeitpunkt stehen für die Synchronisation mehrere Microsoft-Tools (DirSync, AAD Sync, AAD Connect, FIM) zur Verfügung. Diese Tools unterscheiden sich im Umfang der Möglichkeiten und natürlich auch in der Implementierung. Genauere Einzelheiten und Tipps zur Implementierung werden in den nächsten Teilen der Blogreihe erläutert.

                  Um den Anwendern eine gewohnte Usability zu bieten, kann der Administrator ebenfalls die Synchronisation des Passworts einrichten, wodurch sich der Anwender sowohl lokal oder bei entsprechenden Clouddiensten (z.B. Office 365) mit der gleichen Benutzernamen-/Kennwort-Kombination anmelden kann. Um dieses zu ermöglichen, wird jedoch nicht das Passwort im Klartext, sondern der Hash des Passwortes übertragen (sas Kennwort wird auch im lokalen Active Directory nicht im Klartext gespeichert). Um die Sicherheit weiter zu erhöhen, wird ein neuer Hash aus dem bestehenden Passworthash mittels eines SHA256-Algorithmus gebildet (“re-hash the hash”) und anschließend über eine gesicherte SSL-Verbindung ins AAD übermittelt.

                  Die Administration der “Synchronized Identity“ erfolgt ausschließlich über das lokale Active Directory. Änderungen an den lokalen Active-Directory-Konten werden innerhalb des nächsten Synchronisationszyklus ins Azure Acitve Directory übertragen.

                  Die Authentifizierung des Anwenders erfolgt in diesem Fall weiterhin am Azure Active Directory. Dieses ist in der nachfolgenden Grafik nochmals dargestellt.

                  clip_image004

                  Vorteile der “Synchronized Identity“:

                  • Einfache Implementierung
                  • Sehr hohe Verfügbarkeit (Microsoft-SLAs)
                  • kein administrativer Overhead (Pflege von mehreren Benutzerkonten pro Anwender unnötig)
                  • hohe Anwenderakzeptanz durch identische Benutzername-/Kennwort-Kombination (bei aktiviertem Passwortsync)

                  Nachteile der “Synchronized Idenity“:

                  • Passwortsynchronisation für Anwenderakzeptanz notwendig, dieses kann in Unternehmen mit strengen Security Policies scheitern
                  • Kein Single-Sign-On
                  • Änderungen werden erst bei dem nächsten Synchronisationszyklus übertragen (z.B. Sperren eines Accounts)

                  Die genannten Vor- und Nachteile zeigen, dass für viele Unternehmen die “Synchronized Identity“ wahrscheinlich die optimale Wahl darstellt.

                  “Federated Identity“

                  Nun kommen wir sozusagen zur Königin der Identitäten, der “Federated Identity“. Hierbei handelt es sich ebenfalls um eine Identität, die ihren Ursprung im Active Directory des eigenen Unternehmens hat und ins Azure Active Directory synchronisiert wird. Bei der Synchronisation der Benutzerkonten kann jedoch auf die Übermittlung der Passwörter verzichtet werden, da die Authentifizierung der Anwender im Gegensatz zur “Synchronized Identity“ lokal im eigenen Netzwerk (“on premises”) durchgeführt wird. Hierfür wird bei einer Anmeldung an einem Clouddienst (z. B. Office 365) der Authentifizierungsversuch vom Cloudservice an einen lokalen Identitätsprovider umgeleitet. Dieses kann entweder ein ADFS (Active Directory Federation Server) oder ein Identitätsprovider eines Drittanbieters (siehe https://msdn.microsoft.com/library/azure/jj679342.aspx) sein. Dieser Identitätsprovider authentifiziert den Anwender und liefert das Ergebnis der Authentifizierung an den Cloudservice zurück. Somit ist sichergestellt, dass keinerlei Passwörter an den Cloudservice übermittelt werden, sofern die optionale Synchronisation der Passwörter nicht aktiviert ist. Diese Synchronisation kann unter Umständen jedoch sinnvoll sein, doch dazu später mehr.

                  Zusätzlich hierzu kann diese Art der Identität weiteren organisatorischen Anforderungen Rechnung tragen. So ist zum Beispiel die Implementierung von Single-Sign-On oder die Einbindung von SmartCards zur Authentifizierung möglich.

                  Der Ablauf ist in der nachfolgenden Grafik nochmals dargestellt.

                  clip_image006

                  Vorteile der “Federated Identity“

                  • Hohe Flexibilität bei der Implementierung in Verbindung mit Active Directory Federation Services (unter anderem Unterstützung von SmartCards und Multi-Factor-Authentication zur Authentifizierung)
                  • Unterstützung von Single-Sign-On
                  • Authentifizierung findet in der eigenen Domäne statt – keinerlei Übertragung der Passwörter während der Authentifizierung in Richtung Cloud
                  • Sofortige Sperrung eines Accounts möglich
                  • Auditing von Benutzeranmeldungen möglich

                  Nachteile der “Federated Identity“

                  • Höhere Komplexität als bei den anderen Identitätstypen
                  • Notwendigkeit von zusätzlichen On-Premise-Services (Identitätsprovider), je nach organisatorischen Anforderungen in Hochverfügbarkeit ausgelegt

                  Wechsel zwischen den Identitätsvarianten

                  Microsoft bietet die Möglichkeit, die Identitäten zwischen einzelnen Typen zu konvertieren. Dieses unterstützt die Möglichkeit, auf organisatorischen Anforderungen zu reagieren und jeweils die beste Identität für das Unternehmen auszuwählen.

                  Von der “Cloud” zur “Synchronized Identity“

                  Wie in den obigen Beschreibungen dargestellt, unterscheidet sich die “Cloud“- und die “Synchronized Identity“ in der Tatsache, dass entweder eine Synchronisation zwischen dem On-Premises-Active-Directory durchgeführt wird oder nicht.

                  Um von der “Cloud“ zur “Synchronized Identity“ zu wechseln, ist es notwendig, dass im eigenen Netzwerk eines der Synchronisationstools von Microsoft implementiert wird, das die Benutzerkonten in das Azure Active Directory synchronisiert. Bei der Synchronisation von bereits bestehenden Accounts wird entweder ein “Soft“- oder “Hard-Match“ durchgeführt. Hierdurch wird gewährleistet, dass bereits bestehende Accounts mit den synchronisierten Informationen aktualisiert werden.

                  Von der “Synchronized“ zur “Federated Identity”

                  Der Wechsel von einer “Synchronized“ zur “Federated Identity” erfordert erstmals einen On-Premises-Identitätsprovider. Sofern dieser implementiert ist, ist der Wechsel einfach per PowerShell-Befehl beziehungsweise im Management-Center des AADs zu realisieren. Hierbei ist zu beachten, dass der Wechsel zwischen den Identitäten immer pro Domäne durchgeführt wird. Sollten also mehrere Domains innerhalb des AAD-Tenants vorhanden sein, so muss jede Domain einzeln konvertiert werden. Aufgrund der Tatsache, dass die Authentifizierung ab diesem Zeitpunkt On-Premises durchgeführt wird, ist die Synchronisation der Passworthashes nicht mehr notwendig. Allerdings sollte weiterhin die Synchronisation der Passworthashes für einen Wechsel von der “Federated“ zur “Synchonized Identity“ in Betracht gezogen werden, welches als mögliche Disaster-Recovery-Option für den Ausfall des lokalen Identitätsproviders dienen kann.

                  Von der “Federated“ zur “Synchronized Identity“

                  Die Migration von einer “Federated“ zur “Synchronized Identity“ kann über den PowerShell-Befehl Convert-MsolDomainToStandard durchgeführt werden. Für den Fall, dass die Passwortsynchronisation aktiviert war beziehungsweise ist, haben die Anwender die Möglichkeit, sich mit der identischen Benutzernamen-/Kennwort-Kombination wie im lokalen Active Directory an den Cloudservices anzumelden. Dieses kann wie bereits beschrieben eine sinnvolle Backup- und Disaster-Recovery-Lösung für den Ausfall des lokalen Identitätsproviders darstellen. Sollte dieses nicht der Fall gewesen sein, so werden dynamische Passwörter pro Benutzer generiert, welche der Administrator anschließend an die Benutzer weitergeben muss.

                  Bei der Umwandlung zwischen den Identitätstypen ist allerdings je nach Anzahl der Benutzer mit einer gewissen Verzögerung zu rechnen.

                  Von der “Synchronized Identity“ zur “Cloud Identity“

                  Um von einer “Synchronized Identity” wieder zu einer “Cloud Identity“ zu gelangen, ist es ausreichend, innerhalb des AAD-Management-Portals die Verzeichnissynchronisation zu deaktivieren. Dieses kann natürlich auch mit der PowerShell (Set-MsolDirSyncEnabled –EnableDirSync $false) erledigt werden. Die Verarbeitung der Änderung kann bis zu 72 Stunden dauern.

                  Fazit

                  In dem ersten Teil der Artikelreihe wurden die unterschiedlichen Microsoft-Cloud-Identitätstypen mit Ihren Eigenschaften erläutert. Des Weiteren wurde aufgezeigt, welche Wechsel zwischen den einzelnen Typen möglich sind. In dem nächsten Teil der Blogreihe werden die Möglichkeiten und dazu gehörigen Tools für die Synchronisation der Active-Directory-Accounts zwischen On-Premises und Cloud genauer betrachtet. Wir werden also langsam den theoretischen Teil verlassen und mehr der dahinter stehenden Technik widmen.

                  Arnd Rößner: Microsoft zeigt auf der Hannover Messe, wie Industrie 4.0 die Wirtschaft neu erfindet

                  Industrie 4.0 ist eine Jahrhundertchance für Deutschland, um die internationale Wettbewerbsfähigkeit der deutschen Industrie nachhaltig zu sichern und eine Führungsrolle einzunehmen. Auf der Hannover Messe präsentiert Microsoft unter dem Motto „Reimagining your enterprise in a connected world“ am Stand C48 in Halle 7 aktuelle zukunftsweisende und industrierelevante Anwendungsszenarien für Industrie 4.0. Auf Basis des Internet der Dinge verzahnt Microsoft Unternehmen und ihre Prozesse mit mehr [...]

                  Arnd Rößner: Microsoft baut Brücken in ein neues Technologie-Zeitalter des Eurovision Song Contest

                  Heute wurde die Technologie-Partnerschaft zwischen Microsoft, der European Broadcasting Union (EBU) und dem ORF in Wien vorgestellt. Durch den Einsatz zahlreicher Innovationen von Microsoft vollzieht der Eurovision Song Contest als größte TV-Unterhaltungsshow der Welt den Brückenschlag in ein neues Technologie-Zeitalter. Die Partnerschaft im Detail: Microsoft Azure, eine offene und besonders leistungsfähige Cloud-Plattform, kommt für den weltweiten Austausch von Videos mit über 45 TV-Sendern mehr [...]

                  Arnd Rößner: Anzeige aller E-Mail Adressen in Exchange 2013

                  Öfter kommt mal die Anfrage, alle E-Mail Adressen aus der kompletten Exchange Organisation auszulesen. Mithilfe der folgenden Befehle können Sie sich die E-Mail Adressen von Postfächer, Verteilergruppen und öffentlichen Ordnern anzeigen lassen. Die Ausgabe erfolgt nicht in der Powershell sondern in einer .txtDatei, welche auf Laufwerk C: abgelegt wird (z.B. “> c:\Mailbox.txt“). E-Mail Adressen aller Mailbox Datenbanken auslesen:Get-MailboxDatabase | Get-Mailbox | fl DisplayName, EmailAddresses mehr [...]

                  Arnd Rößner: Alle Email-Adressen anzeigen lassen (Exchange 2007/2010/2013)

                  Um alle Email-Adressen aller Benutzer auf dem Exchange 2007 oder Exchange 2010 oder Exchange 2013 anzeigen zu lassen, kann man auf die Exchange-Powershell zurückgreifen: Get-Mailbox -ResultSize Unlimited |Select-Object DisplayName,ServerName,PrimarySmtpAddress, @{Name=“EmailAddresses”;Expression={$_.EmailAddresses |Where-Object {$_.PrefixString -ceq “smtp”} | ForEach-Object {$_.SmtpAddress}}} | fl > c:Temp\ausgabe.txt Viele Grüße Arnd Rößner

                  Nail Own: Windows Nano Server

                  Gestern ließ Microsoft die Katze aus dem Sack und bestätigte Gerüchte, die bereits seit Anfang März inoffiziell bekannt wurden:
                  Der Microsoft Windows Nano Server wird kommen.

                  Dabei wird es sich um eine weiter reduzierte Version von Windows Server handeln, einen extrem minimalistischen Ansatz und sogar schlanker als Windows Server Core. Es wird keine GUI geben, keine 32-Bit Unterstützung, keine lokale Anmeldung, keine Remote Desktop.
                  Microsoft selbst sieht hauptsächlich zwei Einsatzszenarien: Cloud Infrastruktur mit Hyper-V Cluster / Scale-out File Server (SoFS) Cluster oder Cloud Anwendungen.

                  Nähere Infos werden zu Ignite oder der BUILD erwartet, siehe:
                  » http://blogs.technet.com/(…)nano-server-for-modern-apps-and-cloud.aspx

                  Stay tuned,
                  N.Own

                  Willmar Heinrich: Datensicherung am Laptop / Notebook

                  In jedem Unternehmen hat die regelmäßige Datensicherung einen hohen Stellenwert, zumindest was die Sicherung der Server betrifft. Für die Clients hat das schon nicht mehr die Priorität, die Benutzer sollen meist ihre Daten auf den Server speichern, wenn der Client kaputt geht, wird er neu aufgesetzt. Für Laptops und Notebooks sehe ich oft keine klare […]

                  Hans Brender: I’m speaking at the European SharePoint Conference 2015

                  European SharePoint Conference 2015, Stockholm

                  I’m proud and honored, speaking at the European SharePoint Conference 2015 in Stockholm. The Conference will take place between 9th and 12th of November 2015.

                  You may show the Conference program here. My session about

                  OneDrive – Next Gen Sync Client

                  is on 12th of November and here you see the content of my session.

                  See you there?


                  faq-o-matic: Neues zum nächsten Windows-Server

                  imageIn den letzten Tagen (vor allem gestern Abend) hat Microsoft einige lang erwartete Ankündigungen zur nächsten Version von Windows Server gemacht. Es geht dabei um die Container-Technik und die Docker-Integration, um die neue Variante “Nano Server” und um den Termin der nächsten Vorabversion.


                  Container

                  Container gelten zur Zeit als die heißeste Technik in der IT. In der Linux-Welt bieten sie eine besondere Virtualisierungsform: Ein Container verhält sich wie eine virtuelle Maschine, benötigt aber viel weniger Ressourcen als eine herkömmliche VM und ist daher meist erheblich schneller. Linux-Container arbeiten nicht mit virtualisierter Hardware, und ein Container hat auch kein eigenes Betriebssystem: Alle Container nutzen das Betriebssystem des Hostservers und dessen Ressourcen. Sie sind aber durch aufwendige Techniken voneinander isoliert, “sehen” also jeweils eine eigene Netzwerkkonfiguration, ein eigenes Dateisystem, separate Prozesse usw.

                  Im vergangenen Spätsommer hat Microsoft angekündigt, auch im nächsten Windows-Server eine Container-Technik zu implementieren und diese in die Verwaltungsplattform “Docker” zu integrieren. Ein neuer Blogpost von gestern Abend fügt dem zwar kaum technische Details hinzu, er deutet aber an, dass es wohl zwei Container-Varianten im nächsten Server geben wird: eine im Betriebssystem selbst und eine per Hyper-V. Näheres dazu:

                  [Microsoft Announces New Container Technologies for the Next Generation Cloud – Microsoft Server and Cloud Platform Blog]
                  http://blogs.technet.com/b/server-cloud/archive/2015/04/08/microsoft-announces-new-container-technologies-for-the-next-generation-cloud.aspx

                  Nano Server

                  Die zweite Neuigkeit betrifft “Nano Server”. Das ist eine neue, radikal reduzierte Variante von Windows Server. Sie ist gedacht als Applikationsserver insbesondere in Hosting- und Cloud-Szenarien, wo vor allem Software-Eigenentwicklungen eines Dienstleisters laufen sollen. Ein Nano-Server wird keine grafische Oberfläche haben – man wird sich dort nicht einmal lokal anmelden können. Die gesamte Verwaltung und Kommunikation mit dem System wird ausschließlich remote erfolgen. Microsoft sieht dafür vor allem WMI und die PowerShell als Schnittstellen vor, kündigt aber auch neue Web-Verwaltungswerkzeuge an.

                  Details dazu finden sich hier:

                  [Microsoft Announces Nano Server for Modern Apps and Cloud – Windows Server Blog]
                  http://blogs.technet.com/b/windowsserver/archive/2015/04/08/microsoft-announces-nano-server-for-modern-apps-and-cloud.aspx

                  Preview-Termin

                  Schon vor einigen Tagen hat die IT-Journalistin Mary Jo Foley bekannt gegeben, dass die nächste Preview-Fassung des Windows-Servers “im Mai” erscheinen soll. Genauere Angaben dazu gibt es nicht, und ebenso wenig ist der Termin überraschend, denn Ende April findet in Amerika die “Build”-Konferenz statt, auf der Microsoft (endlich) die Neuerungen vorstellen will.

                  [Microsoft: Next Windows Server 2016 test build due in May | ZDNet]
                  http://www.zdnet.com/article/microsoft-next-windows-server-2016-test-build-due-in-may/

                  Die vorhandene Preview aus dem letzten Oktober wird am 15. April 2015 ihren Betrieb einstellen. Innerhalb der nächsten Tage will Microsoft dafür ein Update veröffentlichen, sodass die zeitliche Lücke bis zur nächsten Preview-Version geschlossen ist.

                  [How to Continue Using Windows Server Technical Preview – Windows Server Blog]
                  http://blogs.technet.com/b/windowsserver/archive/2015/04/03/how-to-continue-using-windows-server-technical-preview.aspx

                  Hans Brender: OneDrive for Business | Support Webcast am 14.04.2015 18:00 Uhr

                  OneDrive for Business, Microsoft

                  Es ist zur Zeit sehr ruhig an der OneDrive for Business Front. Zu ruhig? Auch in der Gruppe “OneDrive for Business” auf Yammer häufen sich Fragen über Fragen, und Statements von Microsoft bleiben aus. Ich weiß ein bisschen mehr, aber mir sind die Hände gebunden. (NDA== Non-disclosure agreement== Geheimhaltungsvertrag)

                  Jetzt aber ist auf dem Event-Kalender von Office Summit ein Webcast angekündigt worden, der mit den Problemen, die viele Benutzer mit OneDrive for Business haben, umgeht.

                  Support Corner Webcast: Supporting Common Scenarios in OneDrive for Business Apr 14, 2015 9:00am PST

                  Den Webcast werden Rory Lenertz und Brian Bishop durchführen.

                  Brian Bishop Brian Bishop, Microsoft Technical Readyness Engineer
                  Rory Lenertz Rory Lenertz, Microsoft Technical Readyness Engineer
                  (ShareOpoint Online)

                  Da der der Link zum Hinzufügen nicht funktioniert (Weder IE noch Chrome) hier der Termin:

                  Dienstag, 14.4.2015, 18:00 Uhr MEZ Lync-Meeting

                  Conference-ID: 4522327

                  Ich bin gespannt, welche Lösungsmöglichkeiten aufgezeigt werden.

                  [Update]

                  Hier die Aufzeichnung


                  Nail Own: Failover VS Switchover – Exchange HA

                  Exchange 2013Bei redundanten Systemen, die eine Dienstunterbrechung über eine Übernahme der Ressourcen durch ein weiteres System abfedern, wird oft von Failover und Failback gesprochen.
                  Mit Exchange Server 2010 und 2013 wird der Begriff Switchover als gesteuertes Umschalten eingeführt.

                  Dabei ist ein absichtlicher Wechsel der Ressourcen durch den Administrator gemeint, vornehmlich in einem Wartungsfenster.
                  Microsoft spricht hierbei immer von Exchange als Cluster Workload im Zusammenhang von Switchover, allerdings hat auch bei einer Hyper-V Live Migration ein geplanter Failover (Switchover) eine andere Auswirkung als z.B. ein Failover im Fehlerfall eines Servers.

                  Exchange 2013 auf einem Cluster ist darauf ausgelegt mit Failover und Switchover umzugehen, dabei unterscheidet es nach unterschiedlichen Kriterien.
                  Folgende Arten von Switchover werden unterstützt:

                  • Database switchover (Datenbankswitchover)
                  • Server switchover (Serverswitchover)
                  • Datacenter switchover (Datencenterswitchover)

                  Bei einem Datenbankswitchover und Serverswitchover werden einzelne Datenbanken einer DAG oder alle Datenbanken auf ein weiteres DAG Mitglied verschoben bzw. aktiviert.

                  Eine Datencenterswitchover erfordert eine komplexere Infrastruktur, um Ausfallsicherheit für Standorte zu erreichen: So werden mindestens drei Exchange Standorte vorausgesetzt. An einem dritten Standort reicht es i.d.R. einen Witness Server (Zeugenserver) bereit zu halten, hier kann auch » Azure in Form einer Cloud Witness als DAG-Zeugenserver agieren.

                  Weitere Notwendigkeiten und das Prozedere eines Datencenterswitchover ist hier beschrieben:
                  » https://technet.microsoft.com/(…)/dd351049%28v=exchg.150%29.aspx

                  Eine Übersicht in welchem Fehlerfall welche Aktion automatisch ausgelöst wird oder manuell auszulösen ist gibt es hier:
                  » https://technet.microsoft.com/(…)dd298067(…)150 (siehe Abschnitt Failover)
                  Gut über 25 Szenarien sind hier übersichtlich tabellarisch aufbereitet.

                  Eine detaillierte Beschreibung der Unterstützung von Switchover und Failover für Exchange 2010 ab SP2 ist hier zu finden:
                  » https://technet.microsoft.com/(…)dd298067(…)141

                  Stay tuned,
                  N.Own

                  Carsten Rachfahl [Hyper-V]: Cisco UCS Blade Profile Settings für Hyper-V

                  imageMomentan arbeite ich in einer Kundenumgebung in der eine Menge Cisco UCS System verwendet werden. Es hat sich herausgestellt, das wir bei bestimmten VMs (Windows Server 2008 R2 mit 4 vCPUs) auf Hyper-V und VMware sehr unterschiedliche Performance feststellen.  Wir messen bei einem Test unter Hyper-V 30 Sekunden und mit der gleichen VM und dem gleichen Test auf VMware 13,5 Sekunden. Wenn VMware langsamer wäre könnte ich damit leben aber andersherum – das geht gar nicht.

                  Nach langem Testen sind wir dann auf die BIOS Einstellungen gekommen die offensichtlich drastische Effekte bei den beiden Hypervisoren haben. Wer jetzt nach UCS BIOS Settings für Hyper-V sucht wird nicht fündig und für VMware und Virtualisierung bekommt man im wesentlichen die zwei Dokumente die ich weiter unten im Post verlinkt habe. Leider sind diese nicht hundertprozentig genau und zum Teil sogar widersprüchlich.

                  Deswegen haben wir experimentiert und die  für unser Szenario besten Werte herausgespielt (mit den neuen Werten läuft der Test unter Hyper-V  mit 12 Sekunden). Die wichtigen Werte, die dabei die Verlangsamung gegenüber VMware verursachten, sind die Prefetcher (Hardware Prefetcher, Adjacent Cache Line Pre-fetcher, DCU Stream Pre-fetcher und DCU IP Pre-fetcher). Diese waren auf Platform Default eingestellt was in unserem Fall eingeschaltet bedeutete.

                  Hier alle Settings nochmal als Text und im Screenshot:

                  Cisco_UCS_BIOS_PoliciesTurbo Boot – enabled
                  Enhanced Intel Speedstep – enabled
                  Hyper- Threading – enabled
                  Core Multi Processing – all
                  Execute Diable Bit – enabled
                  Virtualization Technology (VT) – enabled
                  Hardware Prefetcher – disabled
                  Adjacent Cache Line Pre-fetcher – disabled
                  DCU Stream Pre-fetcher – disabled
                  DCU IP Pre-fetcher – disabled
                  Direct Cache Access – enabled
                  Processor C State – disabled
                  Processor C1E – disabled
                  Processor C3 Report – disabled
                  Processor C6 Report – disabled
                  Processor C7 Report – disabled
                  CPU Performance – hpc
                  MAX Variable MTRR Setting – Platform Default
                  Local X2 APIC – auto
                  Power Technology – performance
                  Energy Performance – performance
                  Frequency Floor Overide – enabled
                  P-STATE Coordination – hw-all
                  DRAM Clock Throttling – performance
                  Channel Interleaving – auto
                  Rank Interleaving – auto
                  Demand Scrub – enabled
                  Patrol Scrub – enabled
                  Altitude – 300m

                  Hier findet man die beiden erwähnten Dokumente:

                  http://www.cisco.com/c/en/us/products/collateral/servers-unified-computing/ucs-b-series-blade-servers/whitepaper_c11-727827.html#Virtualization

                  http://www.cisco.com/c/en/us/products/collateral/servers-unified-computing/ucs-b-series-blade-servers/whitepaper_c07-614438.html

                  faq-o-matic: Die AD-DNS-Zone sicher konfigurieren

                  In AD-DNS-Zonen müssen Records sehr häufig aktualisiert werden. Beispiele:

                  • Clients bekommen vom DHCP-Server eine neue IP-Adresse
                  • neue Clients werden installiert
                  • alte Clients werden neu installiert
                  • Geräte (z. B. Drucker) werden getauscht bzw. neu aufgebaut
                  • Clients bekommen einen neuen Hostnamen

                  Eine manuelle Pflege der DNS-Zone ist daher in größeren Umgebungen nicht praktikabel. Abhilfe schaffen hier die dynamischen Updates. Clients und ggfs. der DHCP-Server melden Änderungen an den DNS-Server, der daraufhin die Records aktualisiert.

                  Das wesentliche Problem ist jetzt, wie sichergestellt werden kann, dass eine dynamische Aktualisierung auch richtig und gewünscht ist.

                  Beispiel:

                  Ein neuer Client wird installiert und erhält den Namen eines DCs. Eine unsichere Konfiguration des DNS-Servers würde jetzt dazu führen, dass der Client den DNS-Record des DCs überschreibt und dadurch das AD lahmlegt oder sicherheitskritische Daten (Kerberos-Tokens) abgreifen könnte.

                  Ziel

                  Absicherung einer AD-DNS-Zone gegen Manipulationen an DNS-Einträgen. Dynamische Updates werden soweit eingeschränkt, dass keine DNS-Records mehr manipuliert werden können.

                  Umsetzungsmöglichkeiten

                  Im Internet kursieren diverse unterschiedliche Artikel zu genau diesem Thema. Leider ist ein Großteil einfach falsch oder veraltet. Aus diesem Grund habe ich in einer Testumgebung verschiedene Konfigurationen nachgebaut und die Ergebnisse dokumentiert.

                  Welche Einstellungen sind relevant?

                  Es sind sowohl Einstellungen im DHCP-Server als auch auf der betroffenen DNS-Zone zu setzen. Insbesondere die Kombinationen von diesen Einstellungen führen zu unterschiedlichen Ergebnissen.

                  DHCP

                  clip_image002

                  Konfiguration der dynamischen DNS-Aktualisierung im DHCP Server

                  Hier kann zunächst angegeben werden, ob der DHCP-Server überhaupt Dynamische Updates zur Aktualisierung von DNS-Records versucht. Zudem kann konfiguriert werden, ob er dies pauschal tun soll oder nur dann, wenn ein DHCP-Client dies explizit anfordert. Außerdem gibt es noch Clients, die selber keine Aktualisierung ihres DNS-Records durchführen, aber auch keine Aktualisierung beim DHCP Server anfordern. Zu dieser Gruppe zählen vor allem Drucker, Print-Boxen etc.

                  clip_image004

                  AD-Konto, das der DHCP nutzt, um Dynamische Updates für einen Nicht-AD-Client durchzuführen

                  Näheres zu diesem Konto:

                  [Installing Dynamic Host Configuration Protocol (DHCP) and Domain Name System (DNS) on a Domain Controller]
                  http://support.microsoft.com/en-us/kb/255134

                  DNS

                  clip_image006

                  Konfiguration von Dynamischen Updates auf der DNS-Zone

                  Auf der DNS-Zone kann dann folgendes eingestellt werden:

                  • keine Dynamischen Updates
                  • nicht sichere und sichere Dynamischen Updates
                  • nur sichere Dynamische Updates (notwendige Einstellung, um DNS-Manipulationen zu verhindern!)
                    • sobald nur sichere Dynamische Updates aktiviert sind, muss eine AD-Authentifizierung vorliegen. Dies ist bei AD-Clients kein Problem, da diese ein Maschinen-Konto in AD besitzen. Jetzt stellt sich die Frage, wie Nicht-AD-Clients ihre Einträge in der DNS-Zone aktualisieren können. Hier greift die Einstellung im DHCP: „DNS-A und -PTR-Einträge nur nach Aufforderung von DHCP-Client dynamisch aktualisieren“. Für Nicht-AD-Clients führt also der DHCP die Dynamische Aktualisierung durch, wenn es der Client anfordert. Dazu nutzt der DHCP ein AD-Benutzerkonto, welches extra für diesen Zweck anzulegen ist. DNS-Records erhalten auch nur bei dieser Einstellung einen sinnvollen Owner, der vor Manipulationen am Record schützt.

                  Lösungsvariante und ihre Auswirkungen

                  AD-Clients führen die Dynamischen Records eigenständig durch und Nicht-AD-Clients lassen die Aktualisierung vom DHCP Server durchführen

                  DHCP:

                  clip_image008

                  DNS:

                  clip_image009

                  Die oben gezeigten Einstellungen führen dazu, dass die DNS-Records von AD-Clients den eigenen Clientname$ als Owner des DNS-Records eintragen. Dadurch wird eine Manipulation verhindert. Auch der DHCP-Server kann diesen Eintrag jetzt nicht mehr verändern. Er würde ja versuchen, den Eintrag mit dem AD-Benutzerkonto zu verändern, das er oben eingestellt bekommen hat. Dieses Konto hat aber nicht die Berechtigung, den DNS-Record zu modifizieren. Wichtig ist hierbei noch, dass die Clients direkt mit dem DNS-Server kommunizieren, um eventuelle Änderungen an ihrem DNS-Record durchzuführen. Der DHCP hat damit nichts mehr zu tun.

                  Anders sieht es bei Clients aus, die nicht der AD-Domäne angehören. Das könnten z. B. Drucker sein. Für diese Clients erstellt der DHCP die DNS-Records unter dem AD-Konto, welches dafür im DHCP konfiguriert wurde.

                  clip_image011

                  Dies hat natürlich zur Folge, dass dem DHCP eventuell eine ganze Reihe von DNS-Records gehören. Diese Einträge sind leider auch weiterhin unsicher, weil der DHCP auf Anforderung eines Clients ändert. Beispiel:

                  Ein Drucker mit dem Namen ps001 wird durch den DHCP Server in der Zone test.local registriert. Besitzer des DNS-Records wird das DHCP-AD-Konto. Jetzt kommt ein weiterer Client ins Netz, der ebenfalls ps001 heißt. In dem Fall verändert der DHCP den bereits vorhandenen DNS-Record mit den neuen Daten, und der Record ist ggfs. manipuliert.

                  Abhilfe soll hier die DHCP-Option Namensschutz bringen. Diese verknüpft den DNS-Record mit Merkmalen (MAC-Adresse?) des anfordernden Clients. Fordert jetzt ein weiterer Client den DHCP Server zur Aktualisierung des DNS-Records auf, weiß der DHCP Server, dass dies nicht der ursprüngliche Client ist und führt das Dynamische Update nicht durch.

                  Leider haben meine Tests gezeigt, dass viele Nicht-AD-Clients keine Eintragung ins DNS anfordern, sobald der Namensschutz aktiviert ist. Daher halte ich diese Option nur in Ausnahmefällen für praktikabel.

                  Zusammenfassung:

                  • Im DNS Server die Zone auf „nur sichere“ Dynamische Updates konfigurieren
                  • Im DHCP ein AD-Konto konfigurieren und die Eintragung im DNS nur nach Aufforderung durchführen
                  • Namensschutz deaktivieren

                  Damit wären AD-DNS-Records vor Manipulationen geschützt, nicht AD-Records leider nicht. Hier ist in der jeweiligen Umgebung zu prüfen, ob der Namensschutz mit den vorhandenen nicht AD-Clients funktioniert oder nicht.

                  Da die AD-DNS-Records nur noch von ihrem Ersteller geändert werden können, muss man einen Aufräumtask einrichten. Ansonsten würden DNS-Records u. U. ewig in der Zone erhalten bleiben, obwohl der Client gar nicht mehr existiert. Anleitungen und weiterführende Infos findet man unter dem Stichwort „DNS scavenging“.

                  Protokoll

                  Weitere Infos und Versuchsergebnisse:

                  http://www.mcseboard.de/topic/199043-dns-absichern/

                  Arnd Rößner: Offline installation (No Internet Connection) of SharePoint 2013 SP1

                  Offline Installation (No Internet Connection) of SharePoint 2013 on Windows Server 2012 R2 – Link Viele Grüße Arnd Rößner

                  Jens Häupel [MS]: Visual Studio Enterprise 2015

                  .. wird der Nachfolger von Visual Studio Premium 2013 und Visual Studio Ultimate 2013 werden. Es wird als Visual Studio Enterprise 2015 mit MSDN verkauft werden und enthält alles, was die bisherige Ultimate Edition mit MSDN beinhaltete plus die neuen Features von Visual Studio 2015. Die Versionen Premium und Ultimate wird es nicht mehr geben.

                  Alle Abonnenten von Visual Studio Premium mit MSDN werden automatisch und kostenlos auf Visual Studio Enterprise 2015 gehoben, sobald die Version fertig ist. Visual Studio Ultimate mit MSDN Abonnenten werden ebenfalls auf diese Version umgestellt.

                  Sonderangebot:

                  • Im Mai und Juni werden alle anderen Upgrade-Möglichkeiten zu Visual Studio Enterprise 2015 mit MSDN mit 50% Discount angeboten.
                  • Alle Abonnenten von Visual Studio Premium mit MSDN erhalten zum RTM von Version 2015 automatisch und kostenlos ein Update auf Visual Studio Enterprise mit MSDN (für den Rest der Abo-Zeit)
                  • Zum 1. Mai werden die Preise für Visual Studio Ultimate with MSDN an die von Visual Studio Enterprise with MSDN angepasst (Preisreduktion)


                  Visual Studio Community 2015

                  wird auch weiterhin eine freie IDE für non-Enterprise Entwicklung sein. Des Weiteren wird es auch Visual Studio Express 2015 Editionen geben.

                   

                  Blog: Announcing the Visual Studio 2015 Product Lineup

                  Dieter Rauscher: MVA-Kurs zu Enterprise Mobility Management

                  Anfang Februar waren mein Kollege Peter Nowak und ich zwei Tage in Unterschleißheim, um einen Microsoft Virtual Academy (MVA)-Kurs zu Enterprise Mobility Management für euch aufzunehmen.

                  Zum Kursinhalt:

                  Dieser Kurs zeigt Ihnen, was Enterprise Mobility Management (EMM) ist und was die zugehörigen Bestandteile sind. Dazu wird auf die Produkte Microsoft Intune, Azure Active Directory Premium und Azure Rights Management Services eingegangen, die zusammen das EMM in Form der Microsoft Enterprise Mobility Suite darstellen. Sie erhalten somit einen Überblick über das Mobile Device Management und Mobile Application Management mit Intune und mit dem System Center Configuration Manager. Sie erfahren, wie sie Android, iOS und Windows Phone-Geräte mit dieser Lösung verwalten können. Für das Thema Mobile Content Management wird Azure Rights Management Services näher beleuchtet. Fokus sind dabei der Schutz und die Absicherung von Informationen.

                  Das erste Mal so lange vor einer Kamera zu stehen war zumindest für mich ungewohnt. Aber alles in allem hat es viel Spaß bereitet, weil es auch ein super Team war.

                  Vielen Dank an Heike Ritter, Sebastian Klenk und natürlich an Peter Nowak!

                  Hier geht es zum MVA-Kurs:

                  Viele Grüße
                  Dieter


                  Dieter Rauscher
                  MVP Enterprise Security

                  faq-o-matic: SSD zu schnell: Synchroner Startvorgang nicht möglich

                  Dieser Artikel erschien zuerst auf gruppenrichtlinien.de

                  Vielleicht liegt es an meinem deutschen Kontrollzwang, aber ich gehöre wie viele meiner Kollegen zu den Administratoren, die gerne eine Kontrolle über den Start- und/oder Anmeldevorgang ihrer Computer und Benutzer haben.

                  Windows XP hat uns gelehrt diese beiden Richtlinien zu aktiveren:
                  "Bei Neustart des Computers und der Anmeldung immer auf das Netzwerk warten" = Aktiviert
                  und
                  "AnmeldeSkritps gleichzeitig auszuführen"= Aktiviert

                  Siehe auch: Fast Logon – Schnelles Anmelden – Asynchrones Startverhalten – ehemals FAQ 36

                  Jetzt kommen wir in das Dilemma, das SSD-Platten unter Umständen so schnell sind, dass das Netzwerk keine Chance hat, in dem kurzen Zeitraum zu starten. Der Rechner ist 2-3 Sekunden zu schnell. Zum Zeitpunkt der Benutzeranmeldung ist das Netzwerk dann vorhanden, das sind die zwei Sekunden Verzögerung, die sich durch die Eingabe des Kennworts ergeben. Zum Zeitpunkt des Computerstarts fehlt das Netzwerk, und dadurch haben wir keine Vordergrund-Richtlinienverarbeitung der Computerrichtlinien und Computer-Startup-Skripte laufen nicht.

                  Die offizielle Lösung von Microsoft ist:
                  Computer Configuration\Administrative Templates\System\Gruppenrichtlinie\
                  "Wartezeit für Richtlinienverarbeitung beim Systemstart angeben"
                  der empfohlene Richtwert beträgt 60 Sekunden.

                  WICHTIG! Das ist bei einem verbundenem LAN-Client kein Timeout, sondern ein maximaler Zeitraum, während dessen der Gruppenrichtlinienclient-Dienst (gpsvc) versucht, Kontakt zu seiner Infrastruktur aufzunehmen. Sobald diese erreichbar ist, werden die Richtlinien verarbeitet, und die Anmeldemaske für den Benutzer erscheint. Solange das Netzwerk nicht zur Verfügung steht, wartet der Rechner und macht direkt weiter, sobald das Netzwerk verfügbar ist. Wir verlieren nur minimal Zeit: eben die 2-3 Sekunden, die der Start der Netzwerkdienste benötigt, und zusätzlich die Zeit, die es braucht, die Richtlinien zu verarbeiten. Wir bekommen aber wieder eine kontrollierbare Startumgebung.

                  Es gibt jetzt nur ein blödes Phänomen: Notebooks.

                  Ohne jeglichen Netzwerkkontakt sind die 60 Sekunden leider kein Intervall, sondern doch ein Timeout. Die Richtlinie orientiert sich nicht am MediaSense :( Normalerweise sind netzwerkabhängige Dienste so gestrickt, dass sie die generelle Verfügbarkeit eines Netzwerk prüfen und sich entsprechend verhalten. Leider sie ist dieser Zusammenhang dem GPSVC-Dienst nicht gegeben. Der wartet jetzt 60 Sekunden, es könnte ja jemand noch ein Kabel einstecken …

                  Alternative Lösung

                  Vorab, das ist nicht von Microsoft supported und das ist keine offizielle Lösung, sondern eine, mit der ich im Test und beim Kunden keinen Fehler finden konnte, aber genau das erreicht habe, was ich wollte. Wir definieren eine neue Abhängigkeit des GPSVC-Dienstes zu einem Netzwerkdienst, der per Default immer gestartet wird: IP-Hilfsdienst (iphlpsvc), alternativ wäre der "TCP/IP-NetBIOS-Hilfsdienst" (lmhosts) auch eine Möglichkeit.


                  Was wird passieren?

                  • der Gruppenrichtlinienclient startet, wenn der IP-Hilfsdienst gestartet ist. Sobald dieser gestartet ist, ist das Netzwerk vorhanden.  Wir haben damit kein Zeitintervall, sondern die genaue Zuordnung, "wann" der Gruppenrichtlinienclient loslegen soll.
                  • Offline-Clients ohne jeglichen Netzwerkkontakt werden den IP-Hilfsdienst niemals starten, da dieser auf Mediasense reagiert und ohne Netzwerk gar nicht erst aktiv wird. Wenn dieser Dienst nicht gestartet wird, wird der GPSVC nicht gestartet, und somit entfällt der 60-Sekunden-Timeout . Wir haben keine Wartezeit, sondern einen direkten Start. Das war das Ziel.

                  Nachteil dieser Lösung

                  Es ist keine offizielle Lösung, und sie manipuliert eine Dienstabhängigkeit, die sonst nicht gegeben wäre. Kann es schaden? Ich denke nein, denn ohne Netzwerk gibt es keine Gruppenrichtlinien. Aber die Lösung ist weit weg vom Standard und außer mir und euch macht das keiner :) … aber genauso schnell wie der Eintrag in die Registry kommt ist er auch wieder entfernt.

                  Willmar Heinrich: Lync Online –> Skype for Business

                  Am Freitag, dem 3.4.2015 veröffentlichte Microsoft den Termin der Umstellung von Lync Online auf Skype for Business: Den 14.April 2015! Hier werden alle Lync-Benutzer, die bisher mit Office365 arbeiten, automatisch auf das neue Produkt gezogen. Die Änderungen werden noch nicht so umwälzend sein: Änderungen hin zum Skype-Design Voice und Video zu Skype Näheres siehe hier. […]

                  TechNet Austria [MS]: Wie Sie Ihre Office 365 Login Seite anpassen können

                  Office 365 verändert sich schnell – jede Woche finden sich neue und spannende Features rund um das Service. Eines der Features die sehr lange nachgefragt wurden war eine anpassbare Login Seite. Bisher war das jenen Kunden vorbehalten, die entweder ADFS einsetzen oder über eine eigene Azure AD subscription verfügen. Glücklicherweise gibt es dieses Feature nun auch für Office 365 Abonnenten. Gleichzeitig damit wurde auch verkündet, dass es nun möglich ist, dass Office 365 Benutzer ihr Kennwort selbst zurück setzen können, was bisher nur den Office 365 Administratoren vorbehalten war.

                  Paul Andrew hat die Funktionalität bereits im offiziellen Office Blog vorgestellt. Die dort vorgestellte Variante klappt bei mir jedoch nicht – das kann daran liegen, dass die Funktion derzeit noch im Roll-Out ist (was etwas dauern kann), oder die Integration geändert wurde. Bei mir ist der beschriebene Link (“Customize sign in page”) jedenfalls nicht im Custom Theming vorhanden.

                  image

                  Demnach sollte es vielleicht mit dem traditionellen Weg (PowerShell) oder durch Azure AD services verfügbar sein. Und genau so ist es! Dazu bitte zuerst im linken Bereich des Office 365 Administratorportals im Bereich Administration auf Azure AD klicken.

                  image

                  Danach startet der Azure AD Provisionierungsprozess. Keine Sorge, hier ist keine Kreditkarte erforderlich, nur ein bisschen Geduld, bis das Service provisioniert ist.

                  Sobald Azure AD provisioniert ist erhalten Sie Zugriff auf das Azure Management:

                  SNAGHTML15fdbdaf

                  Nun klicken Sie auf Konfiguration und Anpassung:

                  image

                  Sie finden hier die folgenden Einstellungsmöglichkeiten (Tile Logo wird derzeit nicht verwendet):

                  1. Banner Logo (280x60 px): Dies ist das Logo welches auf der Sign-In Seite angezeigt wird. Die besten Ergebnisse erhalten Sie mit einem jpg oder einem transparenten png.
                  2. Tile Logo (200x200 px): Das wird derzeit nicht in der Sign-In Seite verwendet.
                  3. Sign In Page Text: dieser text erscheint unter den Login-Feldern. Maximal 256 Zeichen sind erlaubt, nehmen Sie 250 geht es sich schön mit 3 Zeilen Text aus. Leider wird kein HTML unterstützt.
                  4. Sign In Page Illustration (1200x1420 px): diese Grafik ersetzt das gewohnte Bild vom Santa Monica Pier. Machen Sie dieses Bild so klein wie möglich, da ein großes Bild die Ladezeit der Login-Seite negativ beeinflusst.
                  5. Sign In Page Hintergrundfarbe: diese Farbe (in Hexadezimal) wird angezeigt, solange das Hintergrundbild noch nicht geladen ist.

                  Sobald die Elemente eingetragen und abgespeichert sind, können Sie die angepasste Login-Seite kontrollieren:

                  https://login.microsoftonline.com/?whr=yourdomain.com

                  SNAGHTML15fe28ad

                  Auch ein Branding für unterschiedliche Sprachen ist möglich – was vor allem multinationalen Unternehmen entgegen kommt. Dafür klicken Sie noch einmal auf Anpassen und wählen dann die bevorzugte Sprache aus.

                  image

                  Wenn Sie das Branding entfernen wollen, gehen Sie ebenfalls über diesen Weg.

                  So, wie schaut denn nun unsere Startseite aus?

                  image

                  Seien Sie kreativ und passen Sie die Startseite an!

                  Carsten Rachfahl [Hyper-V]: 5nine CloudSecurity for Hyper-V

                  In unserem Blog haben wir schon des Öfteren über Produkte von 5nine berichtet.
                  In diesem Artikel möchte ich edie aktuelle 5nine Cloud Security vorstellen.

                  Schutz­-Mechanismen gegen Attacken, Viren und Trojaner, benötigen physikalische Systeme wie Virtuelle Maschinen und Hypervisor, auf denen sie laufen. Die hostbasierte Lösung für Windows Server 2012 / 2012 R2 bietet folgende Produkt-Schwerpunkte:

                  • Firewall
                  • Intrusion Detection System (IDS)
                  • Virenschutz

                  Die Installation unterteilt sich in drei Punkte. Zum Ersten muss der Management Service installiert werden, dies kann in einer virtuellen oder physischen Maschine erfolgen.
                  Dafür müssen folgende Voraussetzungen erfüllt werden:

                  • .Net Framework 3.5 (für den SQL Server
                  • SQL Server / SQL Server Express

                  Nach der Installation des SQL Servers, kann die Installation des Management Services und anschließend die Installation der Management Console beginnen.

                   

                  Nach der Installation wird via Management Console der HyperV Host hinzugefügt.

                   

                  Nun können “Globale” Einstellungen für Host und VMs erstellt werden.


                  Unter Settings -> Anti Virus können verschiedene Einstellungen wie zeitgesteuerte Suche oder Ausnahmen definiert werden.
                  Der Viren-Scanner arbeitet auf Basis des Change Block Tracking (CBT) des Hypervisors. Daraus liegt die resultierende Beschleunigung laut Hersteller gegenüber herkömmlichen Verfahren bei bis zu 50 %. Dank CBT prüft der Virenscanner nur jene Dateien, welche sich tatsächlich geändert haben. 5nine greift von außen in die VM um diese zu inspizieren, die Lösung ist Betriebssystem-agnostisch, somit können neben Windows-VMs z.B. auch Linux-Systeme geschützt werden.
                  Unter dem Punkt Active Protection befinden sich die Einstellungen zur Realtine-Protection, dazu muss allerdings der Agent in der VM installiert werden, dieses bietet sich für Fileserver oder VDI-Szenarien an.

                   

                  Um den Agent zur Active Protection zu installieren wird in der “linken” Spalte die VM ausgewählt und anschließend “rechts” auf den Reiter AV -> Aktive Protection auf Install Agent geklickt.
                  Im Log wird der Status der Installation angezeigt.

                   

                  Um die Active-Protection zu testen, habe ich mir das EICAR-Testfile auf den Client heruntergeladen.

                   

                  Bevor ich das File öffnen konnte, wurde es in die Quarantäne verschoben.

                   

                  Ein weiterer Schwerpunkt des Systems ist die Firewall, diese bietet die gängigen Funktionen wie Filterung von MAC-Adressen, Paketprüfungen, Quality of Service etc.
                  Via Management Konsole kann für bestimmte VM´s oder VM Gruppen die Firewall eingeschaltet werden. Nachdem aktivieren der Firewall ist zunächst der gesamte ein- und ausgehende Verkehr blockiert. Über die Konsole können anschließend einzelne Ports und Regeln definiert werden. Zur Unterstützung bieten sich verschiedene Vorgefertigte Templates an die bereits eine Vielzahl bekannter Protokolle beinhalten.

                   

                  5nine Security for Hyper-V wird in unterschiedlichen Versionen angeboten.
                  Gestartet wird mir 199$ für 2 CPUs. Eine Free Edition wird ebenfalls angeboten und enthält eine abspeckte Version der Firewall und Anti Vir und wird von Hyper-V auf Windows 8.x und Server 2012 R2 unterstützt. Mehr Infos auf der Website des Herstellers http://www.5nine.com.

                  Don't contact us via this (fleischfalle@alphasierrapapa.com) email address.