Open Business Intelligence

La red del Business Intelligence

Pentaho Data Integration

Información

Pentaho Data Integration

Página Web: http://wiki.pentaho.com/display/EAI/Latest+Pentaho+Data+Integration+(aka+Kettle)+Documentation
Miembros: 147
Última actividad: 5 Jul 2020

Foro de discusión

[Tutorial 03] Poblar 3 Dimensiones - Id Dinámicos 10 contestaciones 

Iniciada por Bernabeu R. Dario. Última respuesta de Eduardo Piray 5 Jul 2020.

[Tutorial 04] Poblar tabla de Hechos - Crear Trabajo 33 contestaciones 

Iniciada por Bernabeu R. Dario. Última respuesta de ANDREA 14 May 2020.

Comparar Valores 6 contestaciones 

Iniciada por Exequiel Arce. Última respuesta de Juan V. 30 Ene 2019.

[Tutorial 09] Web Scraping 3 contestaciones 

Iniciada por Bernabeu R. Dario. Última respuesta de Mario Snash 18 Oct 2018.

Error en tipo de dato 5 contestaciones 

Iniciada por stefy. Última respuesta de Bernabeu R. Dario 4 Jun 2018.

Comentarios

Comentario por Mariano García Mattío el octubre 1, 2009 a las 11:44pm
3.2
Comentario por Juan Enrique Padilla López el octubre 2, 2009 a las 3:27am
ya solucione el problema con el dbf
Comentario por Mariano García Mattío el octubre 2, 2009 a las 3:29am
por favor comparte, esa es la idea de esta comunidad.

Saludos

Mariano
Comentario por Juan Enrique Padilla López el octubre 2, 2009 a las 3:54pm
Claro, lo que sucedía era que el dbf contenía demasiados registros, y al querer tomar los datos a través del step marcaba un error, la verdad en esa parte no estoy tan seguro del porque, pero bueno lo que realice con la ayuda de un compañero fue crear una conexión utilizando un ODBC, de este modo creamos unas tablas a partir de esos archivos y listo.

Una disculpa por no haber publicado la respuesta jeje!!!, se me paso por completo. Saludos.
Comentario por Eglys Rodriguez Reyes el octubre 2, 2009 a las 8:59pm
Hola ,soy nueva en esto, necesito que me expliquen por favor los primeros pasos para crear un dw con spoon ,gracias de antemano
Comentario por Bernabeu R. Dario el octubre 2, 2009 a las 11:33pm
Comentario por juan carlos calabria sarmiento el octubre 27, 2009 a las 10:04pm
tengo el siguiente problema
mi base de datos esta en Postgres y estoy conectado a la plataforma de negocios Openi, ya hice los cambios repetivo como el datasource que me hiso posible conectarme a la base de datos.
cuando entro a Openi , me muestra los cubos y los catalogos, el problema cuando hago un nuevo reporte me sale un error en la pestaña (Customize):el error es =( An error occurred while rendering 'xmlaNav': null ) que me es imposible manejar la logica
Comentario por Bernabeu R. Dario el octubre 28, 2009 a las 9:06pm
Hola Juan Carlos, si te fijas, en esta página de esta red, se está tratando el tema por el cual consultas.

Saludos.
Comentario por Dennis Alba Infante el abril 30, 2010 a las 5:13pm
Saludos a todos.
Me gustaría conocer ahora un poco sobre la programación de los procesos ETLs
para que se ejecuten de manera automática.
Se que el Kettle permite guardar las transformaciones y jobs de dos formas:

* ficheros (Pasos para programar la auto ejecución por esta vía)
* en una BD (Pasos para programar la auto ejecución por esta vía)


Me gustaría saber qué forma es más recomendable para poder programar la ejecución automática de los mismos y cómo se hace (cuales son los pasos para cada una de las opciones).
Me sería muy útil si me pudieran abundar más detalladamente en los siguientes
aspectos:

Necesito saber cómo puedo hacer para evitar que cuando valla a incorporar datos
en una tabla del DW no me sobrescriba toda la tabla, sino que empiece por donde
se quedó la última actualización.
Esto se podría hacer desde el propio job en el Kettle si la Tabla guardara un
Id por el cual se podría buscar la existencia del mismo en ambas tablas OLTP y
la OLAP, pero cuando la tabla del OLAP no guarda un Id , sino cantidades, no
tengo cómo ver cuál fue la última en insertarse, y en el proceso de carga
podrían ocurrir inconvenientes como que se ve afectado el fluido eléctrico o se
cae la conexión.
Podrían explicarme como podría hacer que siempre que se realice el proceso ETL
este empiece por donde se quedo la carga y no me pase por encima otra vez a
toda la tabla?

Gracias de antemano
Comentario por Mariano García Mattío el abril 30, 2010 a las 5:28pm
Hola Denis, vamos por partes:

Con respecto al almacenamiento de los los Jobs/Tranf en BD o sistema de archivos, es más una cuestión de transportabilidad, esto es, si los manejas en un repositorio de BD, para transportarlos hay que hacer un backup de la BD y tener el SGBDR en el lugar destino, por otra parte cuando los manejas desde el sistema de archivo dispone de una serie de variables internas que apuntan a los directorios de los archivos que se están ejecutando, esto ayuda mucho para trabajar con caminos relativos cuando de procesan archivos y se realizan desplieguen en distintos clientes.
Con respecto a automatizar la ejecución, es tan sencillo como ejecutar alguno de los scripts Kitchen.bat/.sh para jobs y Pan.bat/.sh para Transf. Estos scripts están bien documentados en los pdfs que trae Kettle, igualmente no poseen muchos argumentos. Con solo schedulear la ejecución de estos scripts mediante AT en windows o Cron en linux estarías solucionando el problema. Si quieres utilizar pentaho puedes crear una xaction que ejecute un job, la creación de la xction es muy sencilla, ya que consta de una tarea en la cual hay que decirle donde está el job a ejecutar, si realizas esto último puedes utilizar las capacidades de scheduling de Pentaho.

Saludos

Mariano

Comentar

¡Necesitas ser un miembro de Pentaho Data Integration para añadir comentarios!

 

Miembros (147)

 
 
 

Distintivo

Cargando…

© 2024   Creado por Emilio.   Tecnología de

Emblemas  |  Reportar un problema  |  Términos de servicio