Glorf.it

Glorf IT

Bedenkliches aus dem IT-Alltag

31. Mai 2010 um 19:53

Brent Ozar kommt nach Deutschland

Leider erfuhr ich erst heute, dass Brent Ozar im Juni nach Deutschland kommt (via PASS-Newsletter). Aber besser spät als nie!

Er ist vier Tage da, den Abstecher nach Wien zähle ich jetzt einfach mal mit:

  • 21.6.2010 – München – Expert Campus SQL Server 2008 R2, sein Thema: SQL Server Storage: Files, Filegroups, Partitioning, & More
  • 22.6.2010 – Köln – Meet the Expert, seine Themen: SQL Server Performance Tuning for Race Car Drivers, The Top 10 Developer Mistakes That Won't Scale, Virtualization and SCAN Basics for Database Administrators
  • 23.6.2010 – Berlin – gleiche Agenda wie in Köln
  • 24.6.2010 – Wien – Solid Quality Summit Vienna 2010, sein Thema: Virtualization and SAN Basics for DBAs

Das ist meine absolute Empfehlung: Hin! Als ich las, dass die Teilnahme bei den oberen dreien kostenlos ist, konnte ich kaum glauben. Besonders Köln und Berlin sollten sich lohnen!

31. Mai 2010 um 19:52

SQL-Injection-Angriff auf OCR-Verkehrssysteme

Das ist doch wohl mal eine lustige Idee: Wenn Verkehrsüberwachungssysteme per OCR die Nummernschilder auslesen, dann könnte man mal schauen, ob die gegen SQL-Injection-Angriff gesichert sind…

Hier ist das Bild dazu.

Das war offenbar von Bobby Tables inspiriert…

Update: Hier ist das Bild noch mal in größer.

31. Mai 2010 um 19:50

SQL-PASS-Wunschliste für Franken

SQL-PASSUm die regulären Teilnehmer stärker als Sprecher einzubinden erreichte mich eine Rundmail der SQL-PASS-Franken, welche Themen- und Referentenvorschläge wir haben. Da ich die wenigsten Teilnehmer aus der Regionalgruppe so gut kenne, dass ich da jemandem "offline" (also ohne deren Gesicht zu sehen) mit einem Thema vorschlagen könnte, war meine Antwort eher mau. Um mir einen Überblick zu verschaffen habe ich mal die Vorträge in 2009 und 2010 angeschaut und kam zu einem interessanten Ergebnis:

Da die fränkische SQL-PASS in 2009 die überwiegenden Abende BI-Themen widmete, könnte man schon überlegen, ob wir uns BI-PASS nennen.

  • 5 BI-Vorträge: PerformancePoint, Analysis Services 2008, Webanalysen, BI bei Krones AG, Reportings-Services
  • 4 SQL-Server-Themen: Snapshot-Isolation, Sicherheitsketten, Server-Management, SQL Server 2008 R2 (bestand zu wenigstens 50% aus BI-Themen)
  • 3 Sonderthemen: Meta-Datenmanagement, SQL Azure und Biergarten-Test

Damit liegen wir bei großzügiger Auslegung bei einem Drittel an SQL-Server-Themen. In diesem Jahr sieht es bislang ähnlich aus. Auch hier komme ich auf ein Drittel:

  • 3 BI-Vorträge: BI bei Rudolf Wöhrl AG, BI messen, BI mit Sharepoint
  • 2 SQL-Server-Themen: Backup & Co, DBA Best Practices
  • 1 Sonderthema: Datenqualität mit SSIS

Suche

Nun zu der Frage, wie ich es gerne hätte: Bei der Gründung der SQL-PASS gefiel mir gut, dass viele Gleichgesinnte beieinander saßen und sich gegenseitig etwas über die eigene Arbeit und die dabei gemachten Erfahrungen erzählten. Dabei gab es jede Menge Diskussionen, Fragen und Ergänzungen. Das war genau mein Ding. Daher wünsche ich mir das zurück, dass wir wieder verstärkt Leute aus unserem Kreis motivieren Vorträge zu halten. In der letzten Zeit hatten wir regelmäßig professionelle Sprecher, die das gerne als Plattform nutzen um bekannter zu werden. Der Anspruch an Vorträge ist daher recht hoch und dürfte Neulinge abschrecken. Meine persönlichen Highlights waren übrigens die Vorträge von Torsten Schüssler und Jürgen Leis. Die Vorträgen waren weniger "Hochglanz" aber dafür 100% authentisch. Außerdem interessierten mich deren Themen besonders und die Art des Vortrages lag mir gut: viel Einbeziehen der Teilnehmer und echter Erfahrungsaustausch. Für mich die absoluten Highlights der letzten Monate! Genau das wünsche ich mir noch viel mehr.

Keine Ahnung, was Klaus mit dem eingesammelten Rückmeldungen anfangen will: vielleicht an eine Pinnwand heften, damit jeder sich seine Schwerpunkte raus suchen kann. Ich für meinen Teil würde mich über folgende Vorträge von anderen freuen:

  • Zugriffspläne lesen und verstehen
  • Bottlenecks finden (wie sehe ich, wo ich genauer untersuchen muss und ggf. an dem System schrauben muss)
  • RAID-Systeme optimal für SQL-Server einrichten (Habe gehört, dass SQL-Server eigentlich andere RAID-Systeme erwarten als File-Server. Hier kämen die sympatischen Kollegen in Frage, die immer vorne links sitzen und offenbar alles über RAIDs wissen. Die Namen weiß ich nicht.)
  • Erfahrungen mit den GEO-Typen (taugen die echt etwas? Mal abseits der Schulungsbeispiele?)
  • Effizienter Umgang mit den Datums-Datentypen
  • historische Zustände von Datensätzen effizient speichern (angenommen, ich darf die Datensätze nicht ändern, sondern muss mir den Zustand merken und langfristig speichern. Ist in der Regel für Fremdschlüssel tödlich)
  • CLR in the Database (5 Jahr nach dem Hype redet man da gar nicht mehr drüber: Zu langsam oder längst etabliert? Wer hat Erfahrungen dazu?)

Nun muss man nur noch fränkische Regulars finden, die sich auf diesen oder anderen interessanten Gebieten auskennen… 😉

Weitere Themenvorschläge sind willkommen!

Biete

Damit ich nicht nur passiv bin, hier ein paar Themen, die ich für Franken anbieten könnte:

  • Security mit SQL-Server (SQL-Anwendungen und SQL-Server härten)
  • Advanced TSQL (ausgewählte fortgeschrittene TSQL-Konstrukte unter Performancegesichtspunkten)
  • SQL-Unit-Tests mit Visual Studio (z.B. für SQL-Prozeduren, -Funktionen und Views)

Gerne weitere Themen, die sich in der Diskussion ergeben.

28. Mai 2010 um 17:55

SQL-PASS Franken: Business Intelligence mit SharePoint 2010

SQL-PASSNach dem ausgezeichneten Hard-Core-SQL-Server-Vortrag im Mai, naht schon der nächste fränkische SQL-PASS-Vortrag. Es geht diesmal um Sharepoint 2010. Das hat mal so richtig gar nichts mit SQL-Server zu tun. Außer freilich,

  • dass Sharepoint seine Daten intensiv im SQL-Server speichert und
  • dass man in einem Sharepointportal alles aufnehmen kann, z.B. auch Visualisierungen bzw. Auswertungen mittels Reportings-Services und Excel (PowerPivot).

Weil auch PerformancePoint-Elemente nach dessen Auflösung in Sharepoint aufgenommen wurden, darf sogar das Werkzeug nun unter dem Schlagwort "Business Intelligence" genannt werden. So ist auch der Titel, der sich durch seine Eleganz aus der Reihe abhebt: "Business Intelligence mit SharePoint 2010". 😉

OK, es gibt sicher viele Leute (vor allem außerhalb der üblichen SQL-Server-Klientel?), die das Thema Sharepoint interessiert, daher leite ich die Einladung hier weiter, werde selber aber eher nicht kommen. Hier die offizielle Beschreibung:

Sharepoint 2010 ist zu einem mächtigen Business Intelligence-Werkzeug herangewachsen. Unter dem Sammelbegriff Insights bietet SharePoint Business Benutzer die Möglichkeit, um Daten in aussagekräftige Diagramme und Reporte zu formen, ohne dass spezifisches IT-Wissen notwendig ist. Zur Datenanalyse können die Excel-Services und PowerPivot für interaktive Pivottables sowie Sparklines in SharePoint integriert werden. Mit den PerformancePoint Services, früher ein eigenes Produkt, können mächtige BI-Dashbaords zentral in einem Portal zur Verfügung gestellt werden. Herrn Scheuermann stellt in seinem Vortrag die neuen Möglichkeit der Analyse und Visualisierung in SharePoint 2010 vor.

Referent
Herr Scheuermann berät seit 10 Jahren Unternehmen über die Möglichkeiten und dem Aufbau von Lösungen mit SharePoint. Er unterstützt sie dabei für die verschiedensten Lösungsszenarien – angefangen von Mitarbeiterportalen über Lösungen zur effizienten Abwicklung von QM- und Dokumentenmanagementlösungen bis hin zu BI-Dashboards mit strukturierten und unstrukturierten Daten. In Schulungen vermittelt er das kaufmännische, konzeptionelle und technologische Wissen zu SharePoint welches er als aktiver Programmierer und technischer Consultant auch selbst in die Tat umsetzt.

Der Referent Thomas Scheuermann scheint in der SharePointCommunity recht aktiv zu sein. Dort findet man auch seine "Autobiografie".

Gastgeber ist wieder die New Elements GmbH (Äußere-Bayreuther-Straße. 55, 90409 Nürnberg, mit der U2 ist der Ausstieg "Schoppershof").

Der Termin ist am Mittwoch, den 9.06.2010, ab 18:30 Uhr. Achtung: Das ist kein Tippfehler, der Vortrag ist wirklich ausnahmsweise am Mittwoch.

Der Eintritt ist wie immer frei, auch Nicht-Mitglieder sind herzlich eingeladen. Bitte dennoch bei Michael Deinhard unter M.Deinhard(ät)newelements.de oder Klaus Oberdalhoff unter kob(ät)sqlpass.de anmelden, damit die Anzahl der benötigten Stühle abgeschätzt werden kann. Zwei mal musste der Vortrag wegen großen Ansturms ins benachbarte Hotel umziehen.

Mehr Infos hier.

27. Mai 2010 um 21:00

SAP und SAP: In-Memory versus Sybase/Konkurrenz

Heute weiß man echt nicht, welche Schlagzeile in Bezug auf SAP und Datenbanken interessanter ist:

SAP wirbt für seine In-Memory-Lösung

SAP haute heute eine Presseerklärung zum Thema "In-Memory-Technologie für blitzschnelle Datenverarbeitung und -analyse raus:

[Anmerkung vom Autor: Auf der SAP-Kundenkonferenz SAPPHIRE …] gab Sikka die Pläne der SAP für eine leistungsstarke BI-Anwendung bekannt, welche die Echtzeitanalyse von Live-Transaktionsdaten (in der SAP Business Suite und SAP R/3-Software) ermöglicht und einen "Turbolader" für SAP NetWeaver Business Warehouse (SAP NetWeaver BW) darstellt.

Aus der gleichen Quelle:

In nur 48 Stunden hat SAP eine parallele In-Memory-Datenbank an einem Standort eines ihrer Großkunden installiert. Laut Plattner wird sich die Implementierungszeit für einen durchschnittlichen Kunden sogar auf ungefähr zwei Stunden verkürzen. "Das Beste aber ist, dass Implementierungen ohne Änderungen an der Software des Kunden oder Einbußen an der Datenqualität durchgeführt werden. Der Kunde erhält die Schnelligkeit von In-Memory-Technologie und schützt gleichzeitig seine Investitionen und Daten", erklärte Plattner.

Der Vorteil von In-Memory-Technologie besteht laut Plattner darin, dass alle Anwender, einschließlich der Führungskräfte, dank der Schnelligkeit und Flexibilität der In-Memory-Technologie direkt auf SAP-Software zugreifen und Informationen abrufen können, die sie für ihre Entscheidungsfindung und Maßnahmen brauchen. Jegliche Fragen werden beantwortet – und das in weniger als einer Sekunde.

Leider wird nirgendwo erwähnt über welche Größenordnung von Geräten wir hier eigentlich reden: Wie viel RAM benötigen die Server, welches Betriebssystem etc. Wenn wir von Bilanzzahlen reden, dann sollte es möglich sein alle relevanten Buchungen der letzten drei Jahre im Hauptspeicher zu halten. Das dürften locker mal 100 GBytes sein. Dann ist die Frage, ob die verlinkten Daten, wie Kontobeschriftungen, Stamm-Daten der Geschäftspartner und dererlei mehr auch In-Memory sein sollen. Naja, es kann ja nicht mehr lange dauern bis auch solche Zahlen durchsickern…

Sybase-Übernahme

Offenbar sieht nicht nur Oracle in der Übernahme des Datenbanktraditionalisten Sybase durch SAP eine Gefahr. Auch IBM sieht sich zum Angriff genötigt und heuert eine Firma zur Migration der umstiegswilligen Sybase-Kunden an. Eine Chance, die man sich nicht entgehen lassen darf?
Hinweis: Man beachte das seltsame Bild zur Illustration des Umstiegs von Sybase auf IBM: darin wird der vergleichsweise einfache Migrationspfad von Sybase nach SQL Server 2000 von Microsoft beschrieben. Ich nehme an, sie haben eine 10 Jahre alte Grafik wiederverwendet – eventuell in der Annahme dass das ja keinen Unterschied mache: "DB/2 und SQL-Server, ist ja das gleiche?"

26. Mai 2010 um 20:56

kostenloses eBook zum SQL-Server-Management

Mein Kollege Robert schickte mir den Tipp, dass es bei Quest das eBook mit dem blödsinnigen Namen "Did You Know? It’s Easy to Simplify SQL Server Management" kostenlos gibt. Leider besteht eine Registrierungspflicht. Ich gab brav eine echte Mail-Adresse an, aber es gab nur eine Bestätigungsmail für mich zur Info. Ich hätte auch eine ausgedachte oder eine von jemand anderem missbrauchen können. Mal schauen, ob ich an die Adresse nun Spam bekomme.

Ich habe das Buch mal überflogen: Es war ganz nett. Viele Grundlagen, viele Tipps. Ich halte es daher für Leute, die schon Grundkenntnisse haben und tiefer einsteigen wollen für lesenswert. Das ist nichts für Neueinsteiger, aber auch nicht für Experten. An dem Buch haben bekannte Experten mitgearbeitet, z.B. Kevin Kline. Alleine schon wegen ihm müssten eigentlich alle Quest-Software kaufen…

Die Hinweise auf weiterführende Literatur am Ende jedes Kapitels haben mir gleich gefallen. Dadurch wurde ich beispielsweise auf die SqlServerPedia aufmerksam. Konkret beeindruckte mich die Seite Index Selectivity and Column Order als gute Einsteiger-Lektüre zu dem Thema Index-Nutzung.

20. Mai 2010 um 21:23

Lesetipp: Top(N) aus einer Gruppe

Im SQL Server Magazine hatte ich gerade angefangen den Artikel "Optimizing TOP N Per Group Queries" von Itzik Ben-Gan zu lesen. Dann stellte ich fest, dass er auch online frei verfügbar und in voller Länge bereit steht. Daher ist das meine heutige Lese-Empfehlung.

In dem Artikel beschäftigt er sich wieder mit einem kniffeligen Thema. Anders als in früheren Ausgaben wird das Thema aber abschließend behandelt. Das finde ich richtig gut. Es kam leider auch schon vor, dass er das gleiche Thema auf drei Ausgaben aufteilte. Das bedeutete konkret 3 Monate lang immer das gleiche mit anderen Lösungen und am Ende wusste man dann die Beste der drei. Das hat mich schon etwas genervt.

Als Lösungen untersucht Itzik:

  • ROW_NUMBER zur Ermittlung der "Gruppenbesten"
  • APPLY zur Ermittlung der besten pro Gruppe
  • String-Concatenation zur Ermittlung des Besten pro Gruppe (sehr kreativ)

Hier kommt auch recht deutlich raus, dass es selten echte Daumenregeln gibt, sondern immer die konkrete Situation berücksichtigen muss: Welche Indexe sind vorhanden, wie sehen die Daten aus, …

16. Mai 2010 um 23:27

Frühere Schwächen des Sybase SQL-Servers

Mit der aktuell erschienen Version versucht Sybase offenbar nun verlorenen Boden gut zu machen. Nach so vielen Jahren Stillstand würde ich einen großen Wurf erwarten, aber es kam doch nur eine Minor Version heraus: 15.5

  • Version 11.0: 1995
  • Version 11.5: 1997
  • Version 11.9: 1998
  • Version 12.0: 1999
  • Version 12.5: 2001
  • Version 15.0: 2005
  • Version 15.5: 2010

Zuletzt schaute ich die Version 12.0 an und kehrte dem Sybase SQL Server dann enttäuscht den Rücken. Wenn es jetzt mit dem Sybase SQL Server durch den geplanten Kauf durch SAP wieder bergauf geht, dann könnte daraus eine Alternative zum Microsoft SQL-Server erwachsen, dessen Preise mit dem R2 nun erst wieder erhöht wurden. Ohne die Aktion hätte ich die Version 15.5 vermutlich auch einfach ignoriert… Aber wer weiß, vielleicht krempelt SAP den Laden ja mal richtig um. Das würde mir gefallen.

Daher sammele ich mal hier, was mich damals am Sybase Adaptive Server Enterprise enttäuschte. Vielleicht hat sich mit der Version 15.5 hier ja schon etwas getan oder mit SAP geht wirklich etwas voran?
Wer immer hier Erfahrungen beitragen kann, der ist eingeladen das mit Kommentaren zu tun.

  • Die Installation war in Java implementiert, kompliziert und fehleranfällig. Man musste echt viel tun. Daher haben wir damals auf einem Referenzsystem installiert und dann den SQL-Server durch Copy und Paste auf die Systeme unserer Kunden aufgebracht. Zum Glück schrieben sie nur wenig in die Registry. Für die Installation war so viel Insiderwissen nötig, das wäre für unsere Kunden niemals tragbar gewesen.
  • Die Werkzeuge waren ebenfalls in Java geschrieben: was damals ein Synonym zu "langsam" war. Heute – also 10 Jahre später – sind die Rechner ja zum Glück so schnell, dass das kein Problem mehr sein sollte, oder etwa doch?
  • Datenbanken musste man von Hand vergrößern. Es musste sich tatsächlich ein Support-Mitarbeiter per Fernwartung aufschalten und die Datenbank vergrößern, wenn die Grenze erreicht war. Das war einer der Killer und Motor für den Umstieg auf Microsoft. Unsere Kunden haben halt keinen Admin.
  • Auch die TempDB wuchs nicht dynamisch. Es kam deswegen regelmäßig vor, dass Datentrafos wegen der TempDB abbrachen. Das war in der Praxis das häufigste Problem.
  • Man konnte nicht einfach eine Datenbank verschieben. Wenn es bspw. ein Problem gab, dann konnte man nicht einfach die Datenbank-Dateien von den Kunden reinholen und anschauen. Die Datenbank dann an einen anderen SQL-Server dran zu bringen, war eine größere Wissenschaft, wenn man nicht die Details zu den Devices (Verteilung und Reihenfolge des Anlegens) mitgeliefert bekam. Das war echt krank und ebenfalls ein Killer für uns.
  • Jeden Kleinkram musste man konfigurieren: Man musste angeben wie viele parallele Connections erlaubt waren. Dafür wurde der nötige Speicher vorallokiert. Kam dann eine Connection mehr, dann wurde die abgewiesen. Es gab keinerlei Dynamik: Was konfiguriert war, wurde an Speicher benötigt, man musste das Maximum rausfinden und dann einstellen. Das galt für alle wichtigen Dinge: jede Puffergröße wurde manuell eingestellt. Megalästig und für unsere Kunden der Horror.
  • Damals begannen wir ODBC zu nutzen. Die mitgelieferten ODBC-Treiber kamen nicht von Sybase, sondern von einem Dritthersteller. Sie waren schlecht. Dito mit OLEDB. Als wir mit .net anfingen und bei Sybase wegen Konnektoren nachfragten, wussten die Entwickler über dem Teich noch nicht mal was ADO.net war und vertrösteten uns darauf, dass sie sich das anschauen würden, wenn das auf dem Markt etabliert sei.
  • Die Fehlerbehandlung mit Abfragen von @@ERROR war krude, umständlich und fing nicht alle Fehler ab.
  • Die Zeit-Datentypen und -Funktionen waren umständlich und ungenau. Leider war das bei Microsoft ja bis kürzlich auch noch so.
  • Das Backup war umständlich. Man musste immer zuerst ein Dump-Device anlegen. Ein Backup direkt in eine Datei ging nicht. Dementsprechend umständlich war die Rücksicherung bzw. das Neuaufsetzen eines alten Systems.
  • Der Upgrade einer Version auf die nächste war sehr schwierig und fehleranfällig. eine automatischer Upgrade in place war mit vielen Unwägbarkeiten verbunden.

Ergänzungen und Aktualisierungen sind willkommen…

16. Mai 2010 um 19:40

Traceflag, falls Server nicht mehr reagiert

Mit dem SQL Server 2008 und dem SP3 für SQL Server 2005 hat Microsoft den Fehler beseitigt, der auf CPUs mit Stromsparfunktionen regelmäßig zu Timingproblemen führte. Die Meldungen sahen dann etwa so aus:

CPU time stamp frequency has changed from 191469 to 1794177 ticks per millisecond. The new frequency will be used

Das war nicht wirklich schlimm, die dauernden Fehlermeldungen in der Ereignisanzeige nervten aber ausgesprochen. Betroffen waren nur Performancemessungen. Auch wir bekamen regelmäßig beunruhigte Nachfragen seitens unserer Kunden zu diesen Fehlermeldungen. Details zum behobenen Problem stehen in KB931279: der SQL Server 2005 entnimmt seit SP3 die Zeiten nicht der dem CPU-Counter (RDTSC), sondern ähnlich wie die Multimedia-Time. Details zu den genauen Unterschieden beschreibt Bob Dorr (Microsoft) im Artikel "How It Works: SQL Server No Longer Uses RDTSC For Timings in SQL 2008 and SQL 2005 Service Pack 3 (SP3)".

Risiken und Nebenwirkungen

Manchmal haben Änderungen in der Software Risiken und Nebenwirkungen, die man so nicht erwarten würden. So ging es Microsoft an dieser Stelle offenbar. Ein netter Kollege machte mich auf den kürzlich dazu erschienen Artikel von HP aufmerksam:

ProLiant servers that have multiple processor cores and that are running Microsoft SQL Server 2005 SP3 or SQL Server 2008 may stop responding when under a heavy I/O processing load. If Automatic Server Recovery (ASR) is enabled on these servers, the server may reboot when the server stops responding.

SQL Server 2005 SP3 and SQL Server 2008 use mmtimer (Multimedia) timer rather than the RDTSC timer, which changes the clock granularity (to 1ms). This change may result in clock-drift or an unresponsive server if the server uses enhanced power management technologies that change CPU frequencies.

Weitere Details siehe HP Customer Advisory c02110402. Ich persönlich denke, dass es nicht nur HP-Server treffen kann, sondern auch andere Server mit "enhanced power management technologies that change CPU frequencies". Ich hörte noch von keinem konkreten Problem in meinem Umfeld, aber kann jetzt gezielt nach solchen Symptomen Ausschau halten.

Abhilfe

Das als Abhilfe vorgeschlagene, undokumentierte Trace-Flag 8038 scheint nur Auswirkungen auf die Tracing-Ausgaben und Timing-Features zu haben, die SQL-Zeitfunktionern arbeiten wie gehabt auf Basis von 14ms-Ticks. Hat jemand schon Erfahrungen mit diesem Traceflag gesammelt?

15. Mai 2010 um 22:24

Vom SQL Server benötigte .Net-Runtimes

Ich muss zugeben, dass ich da tatsächlich schon den Überblick verloren habe: Jede SQL-Server-Version benötigt eine andere .net-Runtime. Meistens kommt ja die richtige Version gleich mit, was aber vor Installationsproblemen nicht schützt.

Daher hat Microsoft nun eine Übersicht erstellt in der man die Unterschiede genau nachlesen kann: "KB2027770 – Understanding the .NET Framework requirements for various versions of SQL Server"

15. Mai 2010 um 19:40

R2 sprachlich gebunden

Mein Kollege Robert machte mich darauf aufmerksam, dass er Schwierigkeiten bei der Installation der deutschen Version des neuen SQL Servers 2008 R2 hatte:

SQL Server setup media does not support the language of the OS or does not have ENU localized files. Use the matching language-specific SQL Server media or change the OS locale through control panel.

Die Lösung ist bei Microsoft-Connect beschrieben: Man muss bei seinem Windows "Deutsch (Deutschland)" (de-de) als Sprachformat eingestellt haben. "de-at" verursacht hingegen einen Fehler.

13. Mai 2010 um 11:10

SAP: In-Memory um jeden Preis?

Als ich heute las, dass SAP die Firma Sybase übernehmen möchte, fiel mir als erstes der frühere Konflikt zwischen SAP und Sybase ein: Weil Sybase sich weigerte Satz-Sperren einzuführen, gab SAP die Devise aus, dass deren Kunden keine Sybase-Datenbanken nutzen konnten. Microsoft hingegen schon. Dabei unterstütze der damalige MS SQL Server 6.5 genauso wenig Seiten-Sperren. Microsoft beschrieb einfach, wie die Kunden das System so konfigurieren konnten, dass auf einer Seite nur ein Datensatz stand. Und deswegen wurde damals der Einsatz des Microsoft SQL Servers empfohlen.

Aber auf den zweiten Blick macht der Ankauf viel Sinn: Neben den bekannten und begehrten Technologien im mobilen Umfeld, kann SAP den In-Memory-Bereich nach vorne bringen. Auf der deutschen Webseite von Sybase steht:

Wir machen dies zur Realität. Die neue In-Memory (hauptspeicherbasierte) Datenbank Sybase ASE 15.5 bietet:

* Schnellste Transaktionsverarbeitung
* Einfache Integration
* Kostenersparnis

> Sie müssen uns nicht glauben. Sie können es selbst herausfinden: Download der kostenfreie Testversion.

Aber auch für Sybase bietet der Kauf eine Perspektive: Nachdem Sybase im etablierten Markt in die Bedeutungslosigkeit versank und ihren SQL Server nur noch in Nischen platzieren konnte, können sie mit dem entsprechenden Engagement und der Weiterentwicklung des Sybase SQL Servers (heißt jetzt "Adaptive Server Enterprise") als vierter großer Anbieter durchaus zurück in die Charts kommen. Sybase erbrachte in den letzten Jahren im Wesentlichen durch den Sybase iAnywhere Innovationen und Umsatz. Das System kam durch den Zukauf des Watcom SQL Servers (Powersoft) zu Sybase und wechselte dann mehrfach den Namen: Watcom SQL Server, SQL Anywhere, Adaptive Server Anywhere und nun iAnywhere. Und das System ist wirklich gut und ist der Grund warum Microsoft die Compact Edition verschenken muss.

Leider wurde der Sybase SQL Server in all den Jahren wegen des Umsatzeinbruches in dem Bereich kaum weiter entwickelt. Hier täuscht die Versionsnummer 15.5: er sprang direkt von Version 12.5 auf Version 15… 😉 Sybase unterschätze den Bedarf im kleinen und mittleren Segment: Wegen der umständlichen Handhabung und der andauernden Konfigurationsorgien konnte er sich nicht mehr behaupten. Ach ja: und die Tools waren das Grauen schlecht hin. Dabei hatte er schon früh einige gute Innovationen, die Microsoft auch heute noch nicht bietet, z.B. die Pufferpools: Man kann einzelnen Datenbereichen feste Puffer-Bereiche zuweisen, sogar mit unterschiedlichen Seitengrößen. Dann können deren Seiten nicht von anderen aus anderen Pufferpools verdrängt werden. Das ist echt klasse. Um etwas Vergleichbares zu erreichen, müsste man bei Microsoft schon mehrere parallele Instanzen aufbauen. Ich habe das Sybase-System leider aus den Augen verloren, aber ich vermute, dass die neue In-Memory-Technologie nichts anderes ist als dass es einen riesigen Pufferpool für eine feste Datenbank gibt, die komplett in den Speicher passt. Sybase schreibt dazu:

In-memory databases are ASE databases that have zero disk footprint and reside completely in memory. Sybase is the first relational database server vendor to provide a fully integrated in-memory database capability within a traditional disk-based database server.

Wer nun aber denkt, dass Sybase schon fast tot ist, der irrt sich, denn die Sybase-Aktie konnte sich in den Jahren auch beachtlich erholen und das Unternehmen steht so gut da wie schon lange nicht mehr. Eine sehr gute Ausgangsbasis. Sogar im Data-Warehouse-Bereich hätte SAP damit eine gute eigene Lösung anzubieten. Hoffentlich übernehmen sie sich bei dem Kauf nicht. Das fände ich schade. Eine Belebung des Datenbank-Marktes kann uns Kunden nur nutzen. Ich denke ich werde mal eine Wunschliste machen, was mir damals am Sybase SQL Server fehlte. Wer weiß vielleicht haben sie an manchen Stellen etwas getan oder werden es unter SAP tun…

Update: Wie die In-Memory-Datenbanken genau funktionieren, wird in einem Whitepaper beschrieben. Es ist tatsächlich nur ein spezieller Pufferpool:

inmemory_storage cache is no different from regular named caches. sp_cacheconfig with the new cache type nmemory_storage will create the named cache for hosting the in-memory database with NONE as the buffer placement strategy. The following example creates the named cache imdb_cache for the in-memory database:
1> sp_cacheconfig ‘imdb_cache’, ‘300M’, ‘inmemory_storage’
2> go
The change is completed. The option is dynamic and ASE need not be rebooted for he change to take effect.

Das ist eine schlaue Nutzung/Weiterentwicklung einer schon vorhandenen und bewährten Technologie.