Communardo Software GmbH, Kleiststraße 10 a, D-01129 Dresden
0800 1 255 255

Neuerungen in SQL Server 2008 R2

Wie unter mei­nem letz­ten Beitrag ange­kün­digt, wurde am 25.01.2010 das PASS Treffen zu SQL Server 2008 R2 mit Georg Urban als Vortragendem nach­ge­holt. Wer nun (wie ich) bis dahin dachte, die Neuerungen in Release 2 wür­den sich schwer­punkt­mä­ßig auf Business Intelligence kon­zen­trie­ren, wurde erst ein­mal eines Besseren belehrt. Um es auf den Punkt zu brin­gen: Die Schwerpunkte des SQL Server 2008 Release 2 sind Self-Service-BI, Multiserver-Management und Technologien für die Verarbeitung sehr gro­ßer Datenmengen.

Georg bot uns an die­sem Abend mit einem aus meh­re­ren Präsentationen kon­so­li­dier­ten Vortrag die Quintessenz der Neuerungen in SQL Server 2008 R2 dar.

Den Einstieg bil­det ein Überblick über die neue BI Plattform aus dem Hause Microsoft, bestehend aus Office 2010, SharePoint 2010 und eben SQL Server 2008 R2 (Codename "Kilimanjaro"). Während Office 2010 mit AdHoc-Analyse und ‑Reporting oder Data Mining die Client-Features für Self Service BI mit­bringt, bie­tet SQL Server 2008 R2 (zusam­men mit zen­tra­li­sier­tem Server und Application Management sowie Master Data Management) mit Power Pivot ("Gemini") und Parallel Datawarehouse ("Madison") die Server-Software dafür an und SharePoint 2010 (z.B. mit Performance Point Services, den ver­bes­ser­ten Excel Services etc.) das Enterprise 2.0 Portal, in dem dies alles dem Nutzer prä­sen­tiert wird. Außerdem gibt es (wen wundert's) mal wie­der Änderungen in den Editionen. Für SharePoint-Interessierte: Für die Nutzung von Power Pivot für SharePoint 2010 wird die wird nicht nur die SharePoint Server Enterprise Edition erfor­der­lich sein (das ver­wun­dert nicht beson­ders – sind doch auch mit MOSS 2007 die meis­ten Business Intelligence Features nur in der Enterprise Edition zu haben…), son­dern auch die Enterprise Edition des SQL Servers. Happy licensing!

Nun wird es kon­kret: das neue, zen­tra­li­sierte Server und Application Management ist für Firmen mit meh­re­ren SQL Servern inter­es­sant, da es deren Verwaltung ver­ein­fa­chen soll. Probates Mittel zum Zweck ist ein zen­tra­ler Verwaltungsserver, auf dem Anwendungspakete und Skripts auf meh­re­ren Servern gleich­zei­tig aus­ge­führt wer­den kön­nen. Mittels Richtlinien kann der gewünschte Auslastungsgrad der Server eben­falls zen­tra­li­siert fest­ge­legt wer­den. Auch sol­che Richtlinien wie "Daten und Log müs­sen auf getrenn­ten Festplatten lie­gen" las­sen sich eta­blie­ren. In Dashboards las­sen sich Auslastung und Richtlinienverstöße anzei­gen, aller­dings – und das scheint mir ein Gap zu sein – kann die Anwendung der Richtlinien nicht für alle Regeln erzwun­gen werden.

Als nächs­tes kommt das Thema Business Intelligence an die Reihe:

Das Self-Service-Datenanalyse-Tool Power Pivot ist die viel­leicht span­nendste Neuerung in Release 2. Mit sei­ner Hilfe soll es auch nicht Datenbank-affinen Anwendern ermög­licht wer­den, große Datenmengen zu ana­ly­sie­ren und Berichte zu erstel­len. Das Kernstück von Power Pivot ist eine SQL Server Analysis Services Komponente, wel­che zusätz­li­che Module für Excel 2010 und SharePoint 2010 anbie­tet. Für kom­ple­xere (nicht "zusam­men­klick­bare") Analysen soll die Data Analysis Expression Language (DAX) zum Einsatz kom­men, und wer sich hier­bei an MDX erin­nert fühlt, hat hin­sicht­lich der Funktionalität bei­der Sprachen nicht ganz Unrecht – aller­dings soll DAX an die Formelsyntax von Excel ange­lehnt und damit auch für den typi­schen Excel-Nutzer bedien­bar sein. So kann mit­tels DAX z.B. ein neues Measure "cli­ent­sei­tig" in Excel hin­zu­ge­fügt wer­den, wenn es denn auf dem Server nicht vor­han­den ist, aber für eine spe­zi­elle Auswertung benö­tigt wird.

Interessanteste Neuerung bei den Reporting Services dürfte der Report Builder 3.0 sein, beson­ders publi­kums­wirk­sam ist die Darstellung von Daten des SQL Server Datentyps Geometry bzw. Geography in Form von Landkarten. Aber auch neue Ajax Report Viewer für die Einbettung in ASP.Net-Anwendungen ist eine Erwähnung wert: Damit kön­nen nun z.B. Drill-Down-Abfragen durch­ge­führt wer­den, ohne dass die kom­plette Seite neu gela­den wer­den muss.

Mit Stream Insight bringt Georg auch ein Entwicklerthema auf's Tapet: Dabei han­delt es sich um eine Complex-Event-Processing-Technologie (CEP), mit der sich kon­ti­nu­ier­li­che Datenströme (wie sie z.B. bei der Verarbeitung von Prozessdaten anfal­len) mit­tels soge­nann­ter "stan­ding que­ries" inner­halb einer garan­tier­ten Antwortzeit (durch Vorgabe eines Rasters) ver­ar­bei­ten las­sen. Genau genom­men han­delt es sich bei Stream Insight mehr um ein Entwicklungsframework als um eine SQL Server Komponente, das Gros der Arbeit besteht im Schreiben von Code, wofür zumin­dest bis­her auch keine Unterstützung durch Assistenten oder Designer in Sicht ist.

Last not least gibt es noch einen Ausblick auf das neue Master Data Management: Mit Hilfe der Master Data Services soll es mög­lich sein, Daten, die gleich­zei­tig in unter­schied­li­chen Anwendungen zum Einsatz kom­men, an zen­tra­ler Stelle zu pfle­gen. Ein vie­len bestimmt so oder ähn­lich bekannt vor­kom­men­des Anwendungsszenario ist das fol­gende: Der für ver­schie­dene Anwendungen in einer Bank ver­wen­dete Austausch-Datensatz ist seit 15 Jahren 400 Byte groß und muss nun erwei­tert wer­den, da diese Länge nicht mehr aus­reicht. Natürlich weiß kei­ner, wel­che Anwendungen davon betrof­fen sind. Für die Lösung die­ses "Messi-Problemes" wird es den soge­nann­ten Master Data Hub geben, der als zen­tra­les Repository für die Masterdaten fun­giert. Allerdings sollte jedem bewusst sein, dass das reine Vorhandensein eines sol­chen Repositories noch kein ein­zi­ges Problem löst – die Master Data Services brin­gen nur dann einen Gewinn, wenn sie von den ent­spre­chen­den Anwendungen (siehe obi­ges Szenario) auch genutzt wer­den. Lt. Georg ist diese Komponente jedoch im der­zei­ti­gen Beta-Stadium noch sehr rudi­men­tär und es lässt sich zum gegen­wär­ti­gen Zeitpunkt auch noch nicht sagen, wie per­for­mant und ska­lier­bar das neue Angebot am Ende sein wird.

Fazit: Auf das Release 2 von SQL Server 2008, wel­ches lt. aktu­el­ler Meldungen im Mai 2010 final ver­füg­bar sein wird, darf gespannt gewar­tet wer­den. Vielen Dank an Georg Urban für die inter­es­sante Präsentation!

Related Posts

1 Kommentar

Blogpost zu Neuerungen in SQL Server 2008 R2: http://tinyurl.com/yg7br83
This com­ment was ori­gi­nally pos­ted on Twitter

Comments are closed.

Pin It on Pinterest