¿Qué pasa entonces con los logins de Windows si no podemos utilizar el procedimiento almacenado sp_change_users_login? Pues que es mucho más sencillo. Para los logins de windows SQL no se molesta en crear un SID, sino que utiliza el SID del sistema operativo, por lo que tan solo tendremos que volver a agregar esos inicios de sesión. Podéis comprobarlo consultado la vista sys.server_principals
— Previous article
Mejores prácticas con Full-Text Search en SQL Server 2005
Next article —
Nuevos tipos de datos para fecha y hora
You May Also Like
Excel Power BI – Herramientas y sistemas BI
- byVerne Team
- 14/07/2017
En esta entrada dedicamos el espacio del blog a descubrir las capacidades que nos ofrece Power BI como plataforma de Selfservice BI (BI de Autoservicio). Presentamos Power Query, Power Pivot, Power View y Power Map. Por ultimo comentamos las opciones colaborativas que presenta esta plataforma.
Automatizando la generación de paquetes SSIS
- byVerne Team
- 23/01/2013
Tras muchas experiencias en desarrollo de procesos ETL con Integration Services, en los que buena parte de ellos…
Tres lecciones aprendidas de SCRUM en proyectos de BI
- byVerne Team
- 17/01/2017
En esta sesión del SolidQ Summit aprenderemos las 3 lecciones más importantes de SCRUM en proyectos de BI
Apache Hive en HDInsight: Primeras consultas (queries) HiveQL
- byVerne Team
- 11/11/2013
En publicaciones anteriores hemos creado la BBDD de Hive para almacenar datos, y hemos cargado datos en HDInsight (HDI) además de crear la tabla externa que hace referencia a los archivos cargados.Recapitulando información de la Introducción a Hive, debemos recordar que el objetivo que se persigue con Hive es:
Seguridad a nivel de página con Power BI
- byVerne Team
- 21/07/2020
En este artículo veremos cómo, con una sencilla técnica dentro de Power BI Desktop, podemos definir las páginas de un informe que cada usuario puede visualizar.
Expresiones, parámetros y funciones en Azure Data Factory
- byVerne Team
- 07/01/2019
Hay ocasiones, cuando estamos construyendo pipelines con Azure Data Factory, que queremos repetir patrones para extraer y procesar la información cambiando de manera dinámica, en tiempo de ejecución, valores, orígenes/destinos de los datasets, incluso los mismos linked services. Esto es posible mediante el uso de parámetros, expresiones y funciones.
Vamos a ver cómo implementarlo con un ejemplo práctico en el que se nos plantea el siguiente supuesto. Se nos ha pedido que extraigamos todos los días los datos del día anterior de distintas tablas del DW a ficheros en un blob storage que además se nombre como la tabla de origen. Si no pudiéramos utilizar contenido dinámico tendríamos que crear dos datasets (uno de origen y otro de destino) y añadir una actividad de copia por cada tabla a exportar.