Glorf.it

Glorf IT

Bedenkliches aus dem IT-Alltag

19. März 2009 um 20:51

Schlafwandeln mal anders

Ich vermute, dass es sich hierbei um einen Musik-Clip handelt. Aber das ist so nett, das würde ich auch als Kunst durchgehen lassen…

via Knuttz
18. März 2009 um 23:06

Lizenzmodell der "SQL Server 2008 Enterprise Edition" erklärt

Zufällig fand ich gerade in nettes Dokument, in dem mal übersichtlich alle Fragen zum Lizenzmodell des "SQL Server 2008 Enterprise Edition" erklärt werden…

Hier ist der Download (PDF).

Kennt jemand die Pendants zu den anderen Editionen?

18. März 2009 um 22:46

Ein unbeschriebenes Blatt

… ist eben doch nicht so beliebig, wie man denken könnte. Schon mit einem normalen Scan mit 1.200 dpi kann jedes Blatt anhand der Faserstruktur eindeutig ermittelt werden. So wie etwa unser Fingerabdruck. Das leuchtet mir sofort ein. Komisch, dass da vorher noch niemand drauf gekommen ist. Die Anwendungsmöglichkeiten dieser neuen Erkenntnis sind freilich noch etwas begrenzt. Immerhin könnte man damit erkennen, ob ausgestellte Dokumente auch wirklich echt sind, ohne deren Inhalt ebenfalls speichern zu müssen. Dazu bedürfte es freilich wieder einer sicheren, zentralen Datenbank.

Dennoch finde ich den Artkiel "Scanner erkennt Papier an seiner Struktur" auf Golem.de lesenswert.

18. März 2009 um 21:53

klingonische Waffen

Neulich sprachen wir in der Firma darüber, ob man sich klingonische Waffen kaufen können. Das kann man… Man muss für ein Batleth allerdings 255 Euro hinlegen. Aber was ist das schon für einen echten Fan. 😉

16. März 2009 um 22:51

Backup ohne Passwort

Als wir auf den Microsoft SQL-Server umstiegen, empfand ich es als großen Fortschritt, dass man bei einem Backup ein Passwort angeben kann. Nur wer das Backup kennt, der kann die DB anhängen. Leider wird genau das Feature nach dem SQL-Server-2008 abgeschafft. So steht es jedenfalls in den Books Online:

This feature will be removed in the next version of Microsoft SQL Server. Avoid using this feature in new development work, and plan to modify applications that currently use this feature.

Schon schade, ich kann mir gar keinen Grund dafür denken. Zu meinem großen Erstaunen sehe ich gerade in den "Deprecated Database Engine Features in SQL Server 2008", das auch das RESTORE mit Passwort nicht mehr funktionieren wird. Wird das Passwort beim Einspielen alter Backups dann ignoriert oder kann man die dann einfach nicht mehr einspielen? Letzteres wäre schon ärgerlich…

Vermutlich würde MS jetzt argumentieren, dass das Backup-Passwort kein starker Schutz war und man mit Zugriff auf die Datei, die Datenseiten ja auch im Klartext lesen könne. Stimmt, aber für die Gelegenheitsdiebe war es eine echte Hürde… MS würde vermutlich damit trösten, dass man ja nun "transparent data encryption" verwenden könne. Dann sind ja auch die Daten im Backup verschlüsselt. Aber – Pech gehabt – das ist nur ein Feature der Enterprise-Edition.
Aber dafür kann man Backups jetzt in allen Editionen komprimieren. Bisher musst man es noch zippen und konnte enorme Platzeinsparungen erzielen.

PS: Wer gerade erst mit Datensicherungen anfängt, dem empfehle ich den Artikel "Best Practices for Backup And Restore with SQL Server 2005".

16. März 2009 um 21:20

Raid aus 24 SSDs

In dieser etwas anderen Werbung werden 24 Solid State Disks zu einem dicken RAID zusammen geschaltet. Mich hat die Werbung beeindruckt! Nicht nur wegen der Performance…

Ein so eine 256 GBytes SSD kostet aktuell rund 660 Euro.

16. März 2009 um 20:40

Verschachtelte Transaktionen

Heute war schon alleine deswegen ein guter Tag, weil mir jemand eine kluge Frage zu SQL stellte. Manche Dinge vergisst man ja wieder, aber ich weiß noch genau, wie wenig ich zu Beginn meiner Beschäftigung mit Datenbanken verstand, warum bei verschachtelten Transaktionen zwar genau so viele COMMITs wie BEGIN-TRANSACTIONs nötig sind (leuchtet ein), aber ein ROLLBACK immer bis zum Beginn der äußeren Transaktion zurück rollt… 🙂

Als ich heute einem Kollegen auf diese Frage antwortete, fand ich in "meinen" TSQL-Richtlinien neben einer etwas langweiligen Erklärung den Hinweis (sinngemäß):

Verschachtelte Transaktionen sind im günstigsten Fall wirkungslos und sollten daher nicht eingesetzt werden.

Dabei fällt mir noch etwas ganz anderes ein: Hat eigentlich schon jemand mal einen sinnvollen Einsatz für Savepoints gefunden? Unsere Anwendungen haben zwar ein paar längere Transaktionen, aber wir kämpfen dann meist mit den Nebenwirkungen, insbesondere der Lock-Escalation. Aber ich bevorzuge viele kleinere Transaktionen hintereinander… Geschmackssache?

12. März 2009 um 23:23

SQL Server Kilimanjaro

Was man im Internet so über die kommende SQL-Server-Version mit Codenamen "Kilimanjaro" liest ist merkwürdig wenig. Ich habe mal ein paar Infos zusammengetragen, die mir zuverlässig erscheinen.

Am 6.10.2008 veröffentlichte Microsoft in einer Presseerklärung erste Infos:

  • Hauptfeatures seien "self-service analysis capabilities code-named “Project Gemini”" und "self-service reporting".
  • Freigabe sei im ersten Halbjahr 2010 (vorher werde es wieder ein CTP geben).

Das klingt alles sehr BI-lastig. Außerdem ein Release noch nicht mal 24 Monate nach SQL-Server 2008? Interessant finde ich die Aussage dazu im Artikel "Die nächste Version von SQL Server – Ankündigungen von der BI Konferenz:

SQL Server Kilimanjaro. Das wird die nächste Version von SQL Server. Es ist eine Zwischenrelease, die vor allem im Bereich Business Intelligence neue Funktionalitäten bringt. Das ist nicht die nächste Hauptrelease von SQL Server (die also wahrscheinlich eine Versionsnummer 11 hat und wie angekündigt 24-36 Monate nach SQL Server 2008 erscheinen wird), sondern eine Zwischenversion.

So sieht es auch Michael Otey im SQL Server Magazine:

While the marketing spin on the new release will be about customer choice, don’t forget that Microsoft plans for product releases on a major-minor cycle. Each server product gets a major release about every four years and then is followed by a minor R2 release about two years later. In the past, customers waited a long time (around five years) for products such as Windows XP and SQL Server 2005, so I can understand why Microsoft wants to shorten the release cycle. However, two years is too short, especially for an infrastructure product like SQL Server.

In einem Bericht von der Konferenz "SQL PASS 2008" wird der Vortrag von Ted Kummert beschrieben. Hier heißt es nun wieder anders:

Kilimanjaro – Keep an eye out for Kilimanjaro. This is the code name for the next release of SQL Server. It is expected to be released in 2010 or 24 to 36 months after the SQL Server 2008 release. One of the items that caught my eye was the ability to manage multiple SQL Server instances and migrate code seamlessly between the environments with a 'DAC Pack' which is a consolidated set of code.

Details zum "DAC Pack" (inkl. wirklich interessantem Film) findet man bei Neil Hutson:

Second was the Data-Tier Application Component (DAC) which combines details about the application that the developer is building and turns schema into something called a "DAC PACK" which can be offered to the Fabric Control Point to aid in the deployment of the data tier within the Managed SQL Server Fabric.

Der Film lässt leider offen, ob das auch für Updates gilt, aber ich denke mal doch. Was sollte ein Deploy, der nur auf der grünen Wiese aufsetzen kann?

Auf Ella Maschiach's BI Blog fand ich den Hinweis auf den ersten CTP1. Der Fragebogen steht noch online, aber die Anmeldefrist war bis 31.12.2008.

Komischerweise fand ich keine neueren Infos. Kennt jemand relevante Links aus diesem Jahr?

11. März 2009 um 22:17

Kriterien für eine Lock-Escalation

Beim gestrigen Vortrag zum Thema "Snapshot Isolation" kamen ein paar Themen zur Sprache zu denen wir nicht mehr alle Details zusammen bekamen. Hier ein paar Schnipsel zum Thema "Lock Escalation". Eine sehr gute und kompakte Sammlung von Infos findet man im Artikel "Lock Escalation in SQL2005" von Sunil Agarwal.

Eine Lock Escalation von Row-Locks auf Table-Locks wird ausgelöst, wenn

  • die Zahl der gehaltenen Sperren die Schwelle von 5000 überschreitet oder
  • der für Sperren genutzten Speicher 40% des aktuellen Cache überschreitet (wenn sp_configure-Option "locks" = 0) oder
  • der für Sperren genutzte Speicher 40% des für Sperren konfigurierten Speichers überschreitet.

Gestern lernte ich, dass der Schwellwert von 5000 am SQL-Server-2008 konfigurierbar sei. Das klingt gut.

Zudem sprachen wir auch über Möglichkeiten, wie man gezielt verhindern kann, das die Sperren eskaliert werden. Auch das findet man im oben genannten Artikel sehr gut erklärt.

11. März 2009 um 21:55

Unterlagen zum Vortrag "Locking, Blocking, Deadlocks"

Wer den gestrigen Vortrag "SQL Server Locking, Blocking, Deadlocks" im Rahmen der SQL-PASS Franken verpasst hat, der kann sich damit trösten, dass er einen sehr ähnlichen Vortrag des Referenten als Video sehen kann. Das wurde auf dem "Technical Summit 2008" aufgenommen. Die Folien stehen dort auch zum Download bereit.

Die – wie immer – interessanten Diskussionen sind aber leider wirklich verpasst…

10. März 2009 um 19:35

verteilte Transaktionen mit .net?

Für einen Arbeitskreis dürfte ich mir letzte Woche als Krankheitsvertretung sehr kurzfristig Gedanken zum Thema "verteilte Transaktionen in einer service-orientieren Welt" machen. An dem Tag fielen satte 6 Mitarbeiterinnen und Mitarbeiter meines Teams aus. Einige hatten nur die schnelle Krankheit (1 Tag Magen-Darm), andere waren die ganze Woche (einer sogar 2 Wochen) "disabled". Jedenfalls konnte ich an dem Tag prima üben über etwas zu reden von dem ich keine Ahnung habe… Man sagte mir, dass sei für das persönliche Weiterkommen förderlich – ich hoffe das stimmt nicht. 😉

Jedenfalls habe ich bei meiner Suche zum Thema "verteilte Transaktionen mit .net" eine kleine Linksammlung angelegt, die ich hiermit der Öffenlichkeit zur Verfügung stelle. Wenn jemand weitere Artikel zu dem Thema kennt, dann bitte ich um einen Link als Kommentar.

Die ".net Enterprise Transaction Services" bieten scheinbar genau das, was man in einer service-orientieren Welt so braucht: offenbar können hier mehrere Services auf unterschiedlichen Computern an der gleichen verteilten Transaktion teilnehmen. Stimmt das? Und wenn ja, wo ist der Haken: Performance?

Den kurzen, übersichtlichen Artikel "Managing Distributed Transactions with ADO.NET 2.0 using TransactionScope" zum Thema TransactionScope fand ich auch hilfreich.

Der Artikel "Distributed Transactions in .NET 2.0" ist zwar auch weiterführend, aber tendenziell etwas mager.

Der etwas älterere Artikel "HOW TO: Perform a Distributed Transaction with a .NET Provider by Using ServicedComponent in Visual C# .NET" von Microsoft hat mir nur bedingt weitergeholfen.

10. März 2009 um 19:30

USB-Stick zum Premium-Preis

Letzte Woche mussten wir für unsere Testversionen einen USB-Stick bestellen. Dazu trägt man in einem elektronischen Formular die Ware ein und bekommt dann den innerbetrieblichen Verrechnungspreis angezeigt. Obwohl wir als Großeinkäufer sicher gute Preise bei unseren Lieferanten bekommen, sind die internen Verrechnungspreise meist (leicht?) höher als auf dem freien Markt. Das liegt daran, dass die Kosten für die Einkaufsabteilung noch draufgeschlagen werden. Das vermute ich jedenfalls, aber vielleicht täusche ich mich auch und wir kaufen nur Premiumprodukte und zahlen deswegen Premiumpreise.

Nun zurück zur Bestellung: Wir benötigen einen großen USB-Stick, um die Testversionen unserer kompletten DVD oder wenigstens fast der kompletten DVD drauf zu bringen (wir haben inzwischen Double-Layer-DVDs). Da es die 8 GByte-Stick derzeit schon im Supersonderangebot für 10 Euro gibt, war die Verwunderung groß, dass wir intern 156 Euro zahlen dürfen. Der 4 GByte-Stick würde immerhin 93 Euro kosten. Das ist ein stattlicher Preis, der leicht zu erklären sei, so der Einkaufsmitarbeiter zu einer Kollegin: es ist eine Sicherheitslösung dabei. Wer – angesichts des Preises – jetzt an einen Iris-Scanner denkt, den muss ich enttäuschen. Es geht um einen Passwortschutz. Solche gibt es zwar (beim auch nicht billigen) Conrad schon für 50 Euro, aber unsere sind sicher noch besser… 😉

Wer denkt, es ginge nicht noch teurer, der sollte sich mal diesen 8GB-Stick für 300 Euro ansehen… Beachtlich, nicht wahr?