Direct from Microsoft Info:

This two hour clinic covers the following topics:

  • Planning a Virtualization Strategy for SQL Server.
  • Designing a Virtualization Platform Infrastructure for SQL Server.
  • Designing a High-Availability Strategy for SQL Server Virtualization.
  • Designing a Virtualization Infrastructure Management Strategy.

Users of this clinic should have a basic knowledge of SQL Server administration.

Go ahead and view this from: http://www.microsoft.com/learning/elearning/course/10528ae.mspx

I would like to take this opportunity to thank the entire project team for their efforts to make this project a success.

Authors

  • Bill Chesnut
  • Greg Low
  • Mai Low

MSL Project Team

  • Dipti Raheja – Product Planner
  • Anindya Das Pattanayak
  • Sunilraj Uchil – Build Team
  • Charlotte Twiss
  • Chris Kirsten – Corporate Compliance
  • Gary Thunell (LCA)
  • Eric Fernandes – Project Manager

Kevin Yam, for sponsoring this clinic and facilitating the BG reviews – Thank you!

Praxis

  • Jeelani Mulla – Integration Lead
  • Rachana Vora – Associate Project Manager
  • Peter D’Souza – Sr. Project Manager

ElementK

  • Conni, Jaianandan & the entire ElementK team

STOCAT

  • Megan Kilner & other Folks at STOCAT

Testing Team

  • Namrata Chavan
  • Abhinav Shukla

Thanks,

 

0 Shares:
Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

You May Also Like
Leer más

Report Server: Nuevos mutantes

¿Qué camino está tomando? ¿qué puedo hacer con Reporting Services que no pueda hacer con Power BI, Report Server o viceversa? Haremos un análisis de la característica que diferencian cada una, de forma muy rápida.
Leer más

Expresiones, parámetros y funciones en Azure Data Factory

Hay ocasiones, cuando estamos construyendo pipelines con Azure Data Factory, que queremos repetir patrones para extraer y procesar la información cambiando de manera dinámica, en tiempo de ejecución, valores, orígenes/destinos de los datasets, incluso los mismos linked services. Esto es posible mediante el uso de parámetros, expresiones y funciones. Vamos a ver cómo implementarlo con un ejemplo práctico en el que se nos plantea el siguiente supuesto. Se nos ha pedido que extraigamos todos los días los datos del día anterior de distintas tablas del DW a ficheros en un blob storage que además se nombre como la tabla de origen. Si no pudiéramos utilizar contenido dinámico tendríamos que crear dos datasets (uno de origen y otro de destino) y añadir una actividad de copia por cada tabla a exportar.