Open Business Intelligence

La red del Business Intelligence

Pentaho Data Integration

Información

Pentaho Data Integration

Página Web: http://wiki.pentaho.com/display/EAI/Latest+Pentaho+Data+Integration+(aka+Kettle)+Documentation
Miembros: 147
Última actividad: 5 Jul 2020

Foro de discusión

[Tutorial 03] Poblar 3 Dimensiones - Id Dinámicos 10 contestaciones 

Iniciada por Bernabeu R. Dario. Última respuesta de Eduardo Piray 5 Jul 2020.

[Tutorial 04] Poblar tabla de Hechos - Crear Trabajo 33 contestaciones 

Iniciada por Bernabeu R. Dario. Última respuesta de ANDREA 14 May 2020.

Comparar Valores 6 contestaciones 

Iniciada por Exequiel Arce. Última respuesta de Juan V. 30 Ene 2019.

[Tutorial 09] Web Scraping 3 contestaciones 

Iniciada por Bernabeu R. Dario. Última respuesta de Mario Snash 18 Oct 2018.

Error en tipo de dato 5 contestaciones 

Iniciada por stefy. Última respuesta de Bernabeu R. Dario 4 Jun 2018.

Comentarios

Comentario por Harold Portocarrero el marzo 23, 2013 a las 1:25am

Estimado Edgar gracias por tu oportuna respuesta.. En workbench al momento de crear las 3 dimensiones como le especifico a cada una de ellas que fecha debe usar (fecha_inicio_cargo, fecha_fin_cargo, fecha_ingreso_institucion) ya que solo tengo un campo fecha en mi dimension de tiempo????

Comentario por Harold Portocarrero el marzo 23, 2013 a las 1:26am

Es mas yo creo que el problema debe resolverse desde antes o sea al momento de crear el ETL, como en el modelo puedo incluir esos tres criterios de busqueda por fecha

Comentario por Edgar de los Santos el marzo 23, 2013 a las 1:45am

No creo, yo hago eso que quieres hacer creando la dimension del tiempo fuera del cubo, y dentro del cubo creando dimensiones "usage" aqui tienes que en lazar la llave primaria de la tabla de tiempo con el campo por ejemplo fecha_inicio_cargo, luego otra dimension usage y a otro campo y asi..

Comentario por Bernabeu R. Dario el marzo 14, 2014 a las 3:56pm

Buenas. Estamos sorteando 3 e-book de  Pentaho Data Integration Cookbook - Segunda Edición, si alguien quiere participar aquí están las condiciones.

Saludos

Comentario por David Lema Lema el marzo 20, 2015 a las 3:27pm

Adjunto una tranformación que genera las fechas y demás atributos (nombre de los días de la semana, meses...) de 120 años. 

time_dimension_variable_start_date.ktr

Comentario por Mariano García Mattío el marzo 20, 2015 a las 3:46pm

Gracias David, buen aporte

Comentario por David Lema Lema el marzo 20, 2015 a las 4:38pm

Bernabeu continuando con la propuesta que me has dado de detectar el número de filas a cargar si es el normal o una variación sospechosa:

- Primero comentar que si se usa TABLE INPUT ya no es necesario el uso del step Univariate statistics, ya que con un "SELECT count(*) numeroClientesNovos FROM lk_cliente" es suficiente.

- Segundo, el problema viene en el filtro, que si deseo usar una tabla de históricos, en los que en cada carga se suba el valor de nuevas altas, como hacer para que el filtro compare ambos datos, es decir, que el número de clientes detectados sea > que el número de clientes del histórico y entonces X o Y. El problema está en que el filtro solo puede recibir los datos de una vertiente.

Espero  haberme explicado. Gracias. 

Comentario por Bernabeu R. Dario el marzo 20, 2015 a las 11:05pm

Buenas, pues has eso mismo:

1) Calcula la cantidad de clientes detectados (ya sabes cómo hacerlo).

2) Calcula la cantidad de históricos.

3) Compara ambos valores con un filtro. Si la condición es correcta sigue por un camino, si es falsa sigue por otro.

Hay muchas formas de resolver esta situación, podrías craer una variable que almacene el valor obtenido del filtro (X o Y), y luego de acuerdo a esta variable insertar las filas o no.

Saludos

Comentario por David Lema Lema el abril 1, 2015 a las 11:29am

Buenas, no funciona el filter rows con dos entradas:

1) Calculo la cantidad de clientes detectados en un input table de clientes.

2) Calcula la cantidad de históricos en un input table historicos.

3) Compara ambos valores con un filter rows y sale error. Si la condición fuese correcta seguiría por un camino, si es falsa sigue por otro, en ambos casos un dummy. 

4) ¿Es posible, que luego en un job llame a la transformación anterior y si sale correcto vaya por un camino, y sino por otro?

Comentario por David Lema Lema el mayo 21, 2015 a las 4:06pm

¿Es posible escribir todos los errores en un log del step "write to log" por ejemplo a la salida de un Data Validator para aquellos datos que no hayan pasado los filtros? ¿Como? ¿algún ejemplo porfavor?

Gracias.

Comentar

¡Necesitas ser un miembro de Pentaho Data Integration para añadir comentarios!

 

Miembros (147)

 
 
 

Distintivo

Cargando…

© 2024   Creado por Emilio.   Tecnología de

Emblemas  |  Reportar un problema  |  Términos de servicio