Glorf.it

Glorf IT

Bedenkliches aus dem IT-Alltag

16. Mai 2010 um 19:40

Traceflag, falls Server nicht mehr reagiert

Mit dem SQL Server 2008 und dem SP3 für SQL Server 2005 hat Microsoft den Fehler beseitigt, der auf CPUs mit Stromsparfunktionen regelmäßig zu Timingproblemen führte. Die Meldungen sahen dann etwa so aus:

CPU time stamp frequency has changed from 191469 to 1794177 ticks per millisecond. The new frequency will be used

Das war nicht wirklich schlimm, die dauernden Fehlermeldungen in der Ereignisanzeige nervten aber ausgesprochen. Betroffen waren nur Performancemessungen. Auch wir bekamen regelmäßig beunruhigte Nachfragen seitens unserer Kunden zu diesen Fehlermeldungen. Details zum behobenen Problem stehen in KB931279: der SQL Server 2005 entnimmt seit SP3 die Zeiten nicht der dem CPU-Counter (RDTSC), sondern ähnlich wie die Multimedia-Time. Details zu den genauen Unterschieden beschreibt Bob Dorr (Microsoft) im Artikel "How It Works: SQL Server No Longer Uses RDTSC For Timings in SQL 2008 and SQL 2005 Service Pack 3 (SP3)".

Risiken und Nebenwirkungen

Manchmal haben Änderungen in der Software Risiken und Nebenwirkungen, die man so nicht erwarten würden. So ging es Microsoft an dieser Stelle offenbar. Ein netter Kollege machte mich auf den kürzlich dazu erschienen Artikel von HP aufmerksam:

ProLiant servers that have multiple processor cores and that are running Microsoft SQL Server 2005 SP3 or SQL Server 2008 may stop responding when under a heavy I/O processing load. If Automatic Server Recovery (ASR) is enabled on these servers, the server may reboot when the server stops responding.

SQL Server 2005 SP3 and SQL Server 2008 use mmtimer (Multimedia) timer rather than the RDTSC timer, which changes the clock granularity (to 1ms). This change may result in clock-drift or an unresponsive server if the server uses enhanced power management technologies that change CPU frequencies.

Weitere Details siehe HP Customer Advisory c02110402. Ich persönlich denke, dass es nicht nur HP-Server treffen kann, sondern auch andere Server mit "enhanced power management technologies that change CPU frequencies". Ich hörte noch von keinem konkreten Problem in meinem Umfeld, aber kann jetzt gezielt nach solchen Symptomen Ausschau halten.

Abhilfe

Das als Abhilfe vorgeschlagene, undokumentierte Trace-Flag 8038 scheint nur Auswirkungen auf die Tracing-Ausgaben und Timing-Features zu haben, die SQL-Zeitfunktionern arbeiten wie gehabt auf Basis von 14ms-Ticks. Hat jemand schon Erfahrungen mit diesem Traceflag gesammelt?

15. Mai 2010 um 22:24

Vom SQL Server benötigte .Net-Runtimes

Ich muss zugeben, dass ich da tatsächlich schon den Überblick verloren habe: Jede SQL-Server-Version benötigt eine andere .net-Runtime. Meistens kommt ja die richtige Version gleich mit, was aber vor Installationsproblemen nicht schützt.

Daher hat Microsoft nun eine Übersicht erstellt in der man die Unterschiede genau nachlesen kann: "KB2027770 – Understanding the .NET Framework requirements for various versions of SQL Server"

15. Mai 2010 um 19:40

R2 sprachlich gebunden

Mein Kollege Robert machte mich darauf aufmerksam, dass er Schwierigkeiten bei der Installation der deutschen Version des neuen SQL Servers 2008 R2 hatte:

SQL Server setup media does not support the language of the OS or does not have ENU localized files. Use the matching language-specific SQL Server media or change the OS locale through control panel.

Die Lösung ist bei Microsoft-Connect beschrieben: Man muss bei seinem Windows "Deutsch (Deutschland)" (de-de) als Sprachformat eingestellt haben. "de-at" verursacht hingegen einen Fehler.

13. Mai 2010 um 11:10

SAP: In-Memory um jeden Preis?

Als ich heute las, dass SAP die Firma Sybase übernehmen möchte, fiel mir als erstes der frühere Konflikt zwischen SAP und Sybase ein: Weil Sybase sich weigerte Satz-Sperren einzuführen, gab SAP die Devise aus, dass deren Kunden keine Sybase-Datenbanken nutzen konnten. Microsoft hingegen schon. Dabei unterstütze der damalige MS SQL Server 6.5 genauso wenig Seiten-Sperren. Microsoft beschrieb einfach, wie die Kunden das System so konfigurieren konnten, dass auf einer Seite nur ein Datensatz stand. Und deswegen wurde damals der Einsatz des Microsoft SQL Servers empfohlen.

Aber auf den zweiten Blick macht der Ankauf viel Sinn: Neben den bekannten und begehrten Technologien im mobilen Umfeld, kann SAP den In-Memory-Bereich nach vorne bringen. Auf der deutschen Webseite von Sybase steht:

Wir machen dies zur Realität. Die neue In-Memory (hauptspeicherbasierte) Datenbank Sybase ASE 15.5 bietet:

* Schnellste Transaktionsverarbeitung
* Einfache Integration
* Kostenersparnis

> Sie müssen uns nicht glauben. Sie können es selbst herausfinden: Download der kostenfreie Testversion.

Aber auch für Sybase bietet der Kauf eine Perspektive: Nachdem Sybase im etablierten Markt in die Bedeutungslosigkeit versank und ihren SQL Server nur noch in Nischen platzieren konnte, können sie mit dem entsprechenden Engagement und der Weiterentwicklung des Sybase SQL Servers (heißt jetzt "Adaptive Server Enterprise") als vierter großer Anbieter durchaus zurück in die Charts kommen. Sybase erbrachte in den letzten Jahren im Wesentlichen durch den Sybase iAnywhere Innovationen und Umsatz. Das System kam durch den Zukauf des Watcom SQL Servers (Powersoft) zu Sybase und wechselte dann mehrfach den Namen: Watcom SQL Server, SQL Anywhere, Adaptive Server Anywhere und nun iAnywhere. Und das System ist wirklich gut und ist der Grund warum Microsoft die Compact Edition verschenken muss.

Leider wurde der Sybase SQL Server in all den Jahren wegen des Umsatzeinbruches in dem Bereich kaum weiter entwickelt. Hier täuscht die Versionsnummer 15.5: er sprang direkt von Version 12.5 auf Version 15… 😉 Sybase unterschätze den Bedarf im kleinen und mittleren Segment: Wegen der umständlichen Handhabung und der andauernden Konfigurationsorgien konnte er sich nicht mehr behaupten. Ach ja: und die Tools waren das Grauen schlecht hin. Dabei hatte er schon früh einige gute Innovationen, die Microsoft auch heute noch nicht bietet, z.B. die Pufferpools: Man kann einzelnen Datenbereichen feste Puffer-Bereiche zuweisen, sogar mit unterschiedlichen Seitengrößen. Dann können deren Seiten nicht von anderen aus anderen Pufferpools verdrängt werden. Das ist echt klasse. Um etwas Vergleichbares zu erreichen, müsste man bei Microsoft schon mehrere parallele Instanzen aufbauen. Ich habe das Sybase-System leider aus den Augen verloren, aber ich vermute, dass die neue In-Memory-Technologie nichts anderes ist als dass es einen riesigen Pufferpool für eine feste Datenbank gibt, die komplett in den Speicher passt. Sybase schreibt dazu:

In-memory databases are ASE databases that have zero disk footprint and reside completely in memory. Sybase is the first relational database server vendor to provide a fully integrated in-memory database capability within a traditional disk-based database server.

Wer nun aber denkt, dass Sybase schon fast tot ist, der irrt sich, denn die Sybase-Aktie konnte sich in den Jahren auch beachtlich erholen und das Unternehmen steht so gut da wie schon lange nicht mehr. Eine sehr gute Ausgangsbasis. Sogar im Data-Warehouse-Bereich hätte SAP damit eine gute eigene Lösung anzubieten. Hoffentlich übernehmen sie sich bei dem Kauf nicht. Das fände ich schade. Eine Belebung des Datenbank-Marktes kann uns Kunden nur nutzen. Ich denke ich werde mal eine Wunschliste machen, was mir damals am Sybase SQL Server fehlte. Wer weiß vielleicht haben sie an manchen Stellen etwas getan oder werden es unter SAP tun…

Update: Wie die In-Memory-Datenbanken genau funktionieren, wird in einem Whitepaper beschrieben. Es ist tatsächlich nur ein spezieller Pufferpool:

inmemory_storage cache is no different from regular named caches. sp_cacheconfig with the new cache type nmemory_storage will create the named cache for hosting the in-memory database with NONE as the buffer placement strategy. The following example creates the named cache imdb_cache for the in-memory database:
1> sp_cacheconfig ‘imdb_cache’, ‘300M’, ‘inmemory_storage’
2> go
The change is completed. The option is dynamic and ASE need not be rebooted for he change to take effect.

Das ist eine schlaue Nutzung/Weiterentwicklung einer schon vorhandenen und bewährten Technologie.

11. Mai 2010 um 23:31

lokale Gruppenrichtlinien anzeigen

Wer gerne mal lokal mit den Gruppenrichtlinien rumspielt oder den Verdacht hat, dass mit den Gruppenrichtlinien etwas nicht stimmt, der kann ab Vista beruhigt aufatmen. Hier kann man mittels des Kommandozeilen-Werkzeugs GPRESULT einen Bericht in HTML oder XML erstellen lassen.

HTML-Seite zur Anzeige im Browser:
gpresult /F /H "%TEMP%\gp.htm"

XML-Dokument zur Weiterverarbeitung mittels XSLT oder XQuery:
gpresult /F /X "%TEMP%\gp.xml"

Weitere Tipps gibts bei Ask the Directory Services Team.

10. Mai 2010 um 21:10

In-Memory-Datenbanken

Via Silikon.de erfuhr ich heute Neues zu dem neuen SAP-Lieblingsthema "In-Memory-Datenbanken". In dem Video "Hasso Plattner interviewt Hasso Plattner" wird im Vorfeld der Sapphire (16. – 19.5.2010) beschrieben, wie sich Prof. Plattner die In-Memory-Datenbanken vorstellt.

Aber bevor ich auf den Inhalt eingehe, muss ich das Video kommentieren, dass ich echt klasse finde: Ein auf typisch amerikanisch gestylter Journalisten-Hasso befragt einen lockeren Fachmann. Im Hintergrund ein Bild a la Warhol mit vielen Hasso-Köpfen. Mittendrin ist der Journalist von den langen Ausführungen so gelangweilt, dass er mit einem Rubiks-Cube rumspielt. Selten war Werbung so unterhaltsam.

OK, vor etlichen Wochen schauten wir uns mal PowerPivot von Microsoft an und waren schwer beeindruckt. Hier wird ja auch die In-Memory-Technik verwendet. Daher glaube ich schon, dass hier viel Potenzial liegt. Leider kenne ich den "Business Objects Explorer" nicht, das ist offenbar das bislang einzige In-Memory-Produkt von SAP.

Interessant in dem Silicon-Artikel ist auch die Beschreibung zu GemStone (frisch von VMWare gekauft):

VMware will mit dieser Technologie das Cloud Computing leistungsfähiger machen. Denn GemStone bietet mit GemFire Enterprise ein Produkt an, das eine komplette Datenbank einer Cloud-Anwendung in den Arbeitsspeicher lädt, wodurch die Anwendungen deutlich schneller Daten schreiben und lesen können.

Die Informationen werden in einer Art Middleware, die auch auf verteilten Umgebungen laufen kann, zwischengespeichert und in bestimmten Abständen in traditionelle Datenbanken zurückgeschrieben. GemFire wurde bislang vor allem von Finanzinstituten verwendet. Der Vorteil für die Anwender ist, dass auch regional verteile Niederlassungen diese Technologie simultan nutzen können.

Das klingt doch schon recht konkret. Mal sehen wie lange es dauert, bis man das in normalen Anwendungen nutzen kann…

6. Mai 2010 um 22:11

Internationaler Comic-Salon in Erlangen

Heute entdeckte ich den Artikel zum Internationalen Comic-Salon in den Erlanger-Nachrichten. Der Erlanger Comic-Salon ist für mich immer ein Höhepunkt im Erlanger Kulturleben: Ich liebe es den Zeichner zuzuschauen und die viele verschiedenen Comics anzusehen.

Wer hier kommen mag, der kann sich auf der Seite comic-salon.de informieren. Beim letzten Mal im Jahre 2008 nahm ich erstmalig meine Kinder mit. Die Kleine war von Mikiko alis Zombiesmile unheimlich begeistert und schaute Ihr zwei Stunden lang zu. Seitdem malt sie mit einer sehr großen Begeisterung und mit viel Talent selber Bilder.

6. Mai 2010 um 22:08

Verkehrsregeln für E-Mails

In dem Artikel "
Mit Anstand kommunizieren – Die fünf größten E-Mail-Sünden
" der Computerwoche finden sich auch 14 positive Tipps zur Verbesserung des Mail-Verkehrs. Leider von verschiedenen Autoren verfasst und daher widersprüchlich: Die Lesebestätigung ist sowohl eine der fünf Totsünden des E-Mailing als auch einer der Tipps. 😉

Aber an sich fand ich den Artikel unterhaltsam.

5. Mai 2010 um 19:56

VSS-Datensicherung des SQL-Servers mit Windows-Backup

Im aktuellen TechNet Magazine stieß ich auf den sehr interessanten Artikel "Datenschutz: Backup-Grundlagen für Windows Server 2008 R2". Hier wird sehr gut beschrieben, wie man mittels Virtual Shadow Copy Service (VSS) eine konsistente Dateisicherung der Datenbanken anfertigen kann und das im laufenden Betrieb.

Das darin erwähnte "altehrwürdige" NTBackup konnte das freilich auch schon und zwar sowohl auf Windows Server als auch auf Windows XP. Ab Vista kam dann Windows-Backup. Wenn man damit unter Vista oder Windows 7 versucht eine Datensicherung im laufenden Betrieb durchzuführen, dann ist sie beispielsweise in Bezug auf die SQL-Server-Express-Datenbankdateien nicht konsistent. Leider wird nämlich nicht mehr VSS verwendet. Microsoft hat den Fakt anerkannt, sieht es aber nicht als Problem. Eine Rücksicherung führt zu einer defekten Datenbank. Aus meiner Sicht ein Bug, wenigstens aber ein Rückschritt.

Das ist schade, weil das beschriebene Windows-Backup am Server das ja immer noch kann…

4. Mai 2010 um 19:45

SQL-PASS Franken: SQL Server DBA Best Practices

SQL-PASSAm kommenden Dienstag, den 11.5.2010 um 18:30 Uhr, ist es endlich wieder so weit: Wer mag kann im nächsten Vortrag der SQL-PASS Franken seine SQL-Server-Kenntnisse gepflegt vertiefen. Das Thema lautet: "Essentielle DBA Skills: SQL Server DBA Best Practices". Dass es kein flacher Vortrag wird, dafür sorgt schon der Referent Jügen Leis, einer der bekanntesten SQL-Server-Spezialisten Frankens.

Der Fokus dieser Session beschreibt die "Best Practices", die jeder DBA dringend beherzigen sollte, wenn er nicht "Schiffbruch" – in Form schlechter Performance oder verminderter "Verfügbarkeit" – erleiden möchte. Als typischer GrundlagenVortrag richtet er sich besonders auch an alle Admins, die noch nicht über eine jahrelange Praxis verfügen. Aber so wie ich Jürgen kenne, ist für jeden Admin etwas dabei, auch für den "alten Hasen".

Der Vortrag beginnt bei der richtigen Installation / Upgrade, behandelt die SQL Server Konfiguration sowie das Benutzerdaten- und Log Management. Die Database Configuration Settings sowie die Konfiguration von wichtigen Wartungsplänen mit der (automatischen) Benachrichtigung bei kritischen Fehlern sowie Grundlagen der wichtigsten Sicherheitseinstellungen sowie Backup und Restore werden auch gestreift. Wenn die Zeit reicht, wird er auch über die Erstellung eines Disaster Recovery Plans, das Testen, das Monitoring und die Dokumentation erzählen, aber für alles wird wohl die Zeit nicht reichen, da man für jedes dieser Themen für sich genommen schon einen abendfüllenden Vortrag halten könnte.

Jürgen Leis hat auf der European PASS Conference 2010 den o.g. Vortrag gehört. Er fand die Ideen dahinter so gut und so wichtig, dass er mir spontan vorgeschlagen hat, das Skelett "vom Prinzip her" zu übernehmen und mit "eigenen Lebenserfahrungen" zu füllen und daraus einen eigenen Vortrag zu machen. Also baten wir Brad um Erlaubnis, die Folien verwenden zu dürfen, und er war so nett, zuzustimmen. Ein herzliches Dankeschön an Brad an dieser Stelle.

Der letzte Absatz könnte abschrecken. Aber wer Jürgen kennt, der kann es richtig einordnen: Hier wird nicht irgendetwas nachgeplappert, sondern anhand des vorgegebenen roten Fadens gibt Jürgen sein fundiertes Wissen weiter. Hier seine offizielle Vita:

Der studierte Mathematiker Jürgen Leis ist den Meisten wohl kein Unbekannter. Er ist seit langen Jahren freiberuflicher SQL Spezialist und seit geraumer Zeit von der Bundesagentur für Arbeit wg. seiner Fähigkeiten in diesem Bereich mit Beschlag belegt. Seine SQL-Skripts und seine Fähigkeiten der Automatisierung von SQL-Jobs sind wohl bekannt, da z.B. die Scripts aus seinem früheren Vortrag beim sqlpass.de (nur Mitglieder) zu finden sind. Wenn seine knapp bemessene Freizeit es zulässt, spielt er in seinem Verein Turnier-Schach oder ist als Sprecher beim SQL PASS tätig.

Gastgeber ist diesmal wieder die New Elements GmbH (Äußere-Bayreuther-Straße. 55, 90409 Nürnberg, mit der U2 ist der Ausstieg "Schoppershof").

Der Eintritt ist wie immer frei, auch Nicht-Mitglieder sind herzlich eingeladen. Bitte dennoch bei Michael Deinhard unter M.Deinhard(ät)newelements.de oder Klaus Oberdalhoff unter kob(ät)sqlpass.de anmelden, damit die Anzahl der benötigten Stühle abgeschätzt werden kann. Wir mussten beispielsweise wiederholt wegen großen Ansturms ins benachbarte Hotel umziehen.

Mehr Infos hier.

4. Mai 2010 um 18:56

Datenpanne bei SchülerVZ und Datenschutzmoral im Mittelstand

Heute las ich über die erneute aktuelle Datenpanne bei SchülerVZ auf Heise-Online. Dort kann man offenbar immer noch die Profildaten der Minderjährigen leicht abziehen. Konkret geht es um Name, Schule, Alter, Geschlecht, Klasse, Beziehungsstatus, politische Einstellung, Hobbys und Beschreibungen zur Person. Echt peinlich.

Natürlich könnte man jetzt argumentieren, dass es sich dabei nur um die Daten handelt, die von den Betroffenen selber eingegeben wurde, aber nach meiner Erfahrung ist den Kindern die Tragweite der Handlungen völlig unklar. Und natürlich sind sie darauf getrimmt alle Felder eines Fragebogens zu füllen, nicht nur von der Schule, sondern auch weil sie sich dadurch wichtig und ernst genommen fühlen. Daher finde ich, dass der Betreiber festlegt, welche Daten gezeigt werden.

In dem Zusammenhang fiel mir wieder ein, was neulich im MittelstandsBlog stand:

„Trotz der Datenskandale der vergangenen Monate nehmen viele Unternehmen den Datenschutz noch immer nicht ernst“, bedauert Birthe Görtz, PwC-Expertin für Datenschutz. Nur jedes fünfte Unternehmen leiste sich einen Vollzeit-Datenschutzbeauftragten. Selbst in Großunternehmen habe der Datenschutzbeauftragte in der Regel höchstens eine Halbtagsstelle, kritisiert die Expertin. In jedem dritten Unternehmen ist der Datenschutzbeauftragte zudem auf sich allein gestellt.

Insbesondere bei Dienstleistungsunternehmen dürften aber schon brisante Daten über deren Kunden vorhanden sein… 🙂

26. April 2010 um 19:29

Weniger befallene Rechner in D als anderswo

Heute schickte mir Microsoft eine interessante Pressemeldung: In Deutschland sind durchschnittlich weniger Rechner von Schadsoftware befallen als in anderen Ländern. Meine ersten Gedanken waren, dass in Deutschland häufiger Firefox im Einsatz ist als anderswo, aber vielleicht ist Linux ja auch verbreiteter.
😉 Aber auch Mac gibt es dafür weniger als in USA…

Das schreibt Microsoft dazu:

Nur 0,22 Prozent der Computer in Deutschland wurden im zweiten Halbjahr 2009 von Schadsoftware befallen. Das ist deutlich unter dem weltweiten Durchschnitt von 0,7 Prozent. Besonders unsicher sind Rechner in der Türkei: dort sind immerhin 2 Prozent infiziert.

Und was für Gefahren sieht Microsoft für Deutschland im achten "Security Intelligence Report" (SIRv8):

Die größte Bedrohung geht in Deutschland weiterhin von Trojanern aus. Trotz eines Rückgangs um 26 Prozent im Vergleich zum ersten Halbjahr wurden in der zweiten Hälfte 2009 immer noch 373.861 Computer von Trojanern befallen. Gefolgt werden sie von Trojan-Downloadern und potenziell unerwünschter Software, deren Aufkommen sich mehr als verdoppelt hat. Signifikant um mehr als das Dreifache, wenn auch auf niedrigem Niveau, nahm die Zahl der Infektionen durch Exploits – also Software, die Sicherheitslücken in Anwendungen, Betriebssystemen oder Browsern ausnutzt – auf 33.116 zu.

Das am Ende beworbene "Microsoft Security Essentials" nutze ich übrigens auch und bin erstaunlich zufrieden.