19 mayo 2009

Kilimanjaro = SQL Server 2008 R2

Leí un artículo súper interesante que salió del último TechEd 2009. La novedad es que lo que hasta hace algunos días se conocía como SQL Server Kilimanjaro (la próxima versión de SQL Server), ya ha sido oficialmente bautizada como SQL Server 2008 R2 (Release 2). Pueden leer el artículo original en http://www.sqlmag.com/Articles/ArticleID/102112/102112.html?Ad=1 

Actualmente tenemos disponible la versión 10 de SQL (SQL Server 2008). Ya que Kilimanjaro es la versión 10.5, hace mucho sentido que hayan bautizado esta nueva versión como R2 para no dejarnos con una versión intermedia (.5) o 2009 lo cuál sería un cambio demasiado rápido para la versión actual ya que incluso todavía hay mucha gente con servidores en versión 2000. Por otro lado, como decimos por aquí, “aparente y alegadamente” al ser una versión R2 de SQL Server 2008, los clientes que hayan comprado la versión original de SQL 2008, se deberían beneficiar automáticamente con ésta actualización. Lo cual habla muy bien del compromiso de Microsoft para seguir mejorando el producto y de beneficiar a las inversiones ya hechas en su producto (todo lo contrario a lo que hizo con PPS Planning y eso es bueno Open-mouthed).

Vendrían muchas cosas nuevas en el R2, pero las características que más me entusiasman son lo que hasta ahora se conocía como Project Gemini (self service in-memory analysis) y Master Data Services.

A continuación un resumen básico a 3,000 metros de altura (~ 10,000 pies).

Project Gemini: Autoservicio en Inteligencia de Negocios (Self-Service BI)

Gemini tiene como objetivo darle más posibilidades al usuario final para realizar sus análisis incluyendo millones de filas en cuestión de segundos (¡y realmente son pocos segundos!), apoyado de  las características de BI de Excel 2010 (¡que son alucinantes!) para hacer “slice & dice”, filtros, ordenamiento, etc.; y finalmente, publicar sus resultados a la intranet para compartirlos con su grupo de trabajo.

¡Hey, hey, hey!!! ¡Un momentito aquí!, ¿y qué pasó con la problemática de la fragmentación de datos?, muchas hojas de Excel en las PCs de los usuarios, múltiples “formas de la verdad” lo cual nos complicaba construir un simple reporte consolidado porque no sabíamos qué usuario tenía la última versión de los datos. O en todo caso, tener que pasar muchas horas haciendo tareas de limpieza de datos, consolidación y esas cosas aburridas para lograr tener una versión “oficial” de nuestros datos.

Confieso que me costó hace unos meses entender un poquito esto, pero estos chicos de Microsoft obviamente lo pensaron ya. Gemini busca hacer todo lo que mencioné anteriormente pero con la bendición de la gente de TI. Esto quiere decir, que TI es quien define aspectos claves como dónde residirán los datos, la permisología (quién accede a qué), los tiempos en que la data será actualizada (data refresh), etc. Así que de esta forma Gemini, busca dar “al César lo que es del César”, pues los usuarios, quienes saben qué es lo que realmente quieren hacer con sus datos, tendrán más poder para utilizarlos sin depender de la gente de TI; y la gente de TI se encarga del trabajo “sucio”, incluyendo las tareas de limpieza, integración y seguridad lo cual es su especialidad.

Master Data Services

Con respecto a Master Data Services éste ataca una necesidad totalmente de la vida real, pues tal vez muchos de ustedes tal como yo, han tenido que lidiar con muchas fuentes de información en donde supuestamente hay una entidad que debe ser común a todos los sistemas fuentes pero no lo es. Un ejemplo más sencillo; en uno de mis proyectos para la industria turística, cada hospedería (hotel, motel, hospedaje, parador, etc.) debía tener un identificador único para realizar procesos o trámites en distintas entidades o dependencias. El problema es que cada una de estas dependencias tenía su propia base de datos de las hospederías con identificadores únicos pero distintos a las demás fuentes, y lo que complicaba más el asunto, con información básica como el nombre o dirección de la hospedería distinta en cada sistema (probablemente por errores de entrada de datos o en la frecuencia de actualización de los mismos).

Ante esta problemática tuvimos que crear nuestro propio mecanismo de “Master Data Management” (MDM) para esta entidad clave (hospederías) la cual es el eje de todas las operaciones de esta industria. Este mecanismo se encarga de consolidar las distintas fuentes de información, asignar quién es propietario de cada atributo (o pedazo de información) de la hospedería y algunas otras reglas de negocio para la sincronización de todas las fuentes de datos con los mismos datos. Sólo atacando este problema de MDM, nuestro cliente puede dedicarse ya a resolver los problemas del negocio y no de los datos de las hospederías. De esto es lo que trataría (aún no lo he visto “live”) SQL Server Master Data Services: proveer una infraestructura para manejar problemas de Master Data Management. Este tipo de problemática se ha puesto aún muy de moda debido a que en los últimos años se han fusionado muchas compañías (Oracle compra Hyperion, IBM compra Cognos, Microsoft compra Proclarity, HP compra a Compaq, y la lista de casos sigue). ¿Cómo hacen estas compañías para consolidar sus sistemas u orquestar sus fuentes de información de una forma eficiente y en el mejor tiempo posible? Master Data Services al rescate.

No hay comentarios: