Type Title Author Comments Última actualización
Entrada de blog Leer datos de XML y escribirlos en un archivo tabulado CSV con Kettle magm 7 Hace 5 meses
Tema de debate Java Heap Space Pentaho data Integration 6.1 JavierGomez 3 Hace 7 años 7 meses
Tema de debate PDI 5.3 JavierGomez 3 Hace 8 años 3 meses
Entrada de blog Reseña del libro Pentaho Data Integration Cookbook (Second Edition) David 1 Hace 10 años 3 meses
Tema de debate Update sobre tabla particionada JavierGomez 1 Hace 12 años 2 meses
Tema de debate Duda sobre Kettle y paso Google Analytics JavierGomez 1 Hace 12 años 3 meses
Tema de debate Crear un DataWarehouse JavierGomez 3 Hace 12 años 6 meses
Entrada de blog BI Beers BCN sigue creciendo Carlos 2 Hace 13 años 8 meses

Publicaciones

  • Java Heap Space Pentaho data Integration 6.1

    Foros IT

    Hola

    Desde que mi pc actualizó a la versión Java 1.8.0.xxx, tengo muchos problemas con PDI. Actualmente tengo la versión de java 1.8.0.121

    El primer error que me dió fue "could not create Java Virtual Machine"...

    En el spoon.bat yo tenia PENTAHO_DI_JAVA_OPTIONS con las siguientes valores:

     

    "-Xms2048m" "-Xmx1024m" "-XX:MaxPermSize=512m"

     

    Para poder arrancar PDI, tuve que bajarlo a:

     

    "-Xms1204m" "-Xmx1024m" "-XX:MaxPermSize=256m"

     

    Pero con estos valores, y dada la cantidad de registros con los que trabajo, PDI se suele quedar colgado, mostrando errores:

    Java Heap Space....

     

    No sé que hacer.

     

    Mi equipo tiene recursos de sobra, es un I5 con 12 gigas de RAM.

     

    Gracias

  • PDI 5.3

    Foros IT

    Hola,

     

    Soy usuario de PDI (Kettle) desde hace bastante tiempo. Hoy intento arrancar mi Kettle versión 5.3, y aparte de no arrancar, no muestra nada. Sale el logo y nada mas, ayer funcionó correctamente.

     

    Mi pc lleva windows 7 64 bits, procesador I5, con 12gb ram.

     

    Vía CMD intento arrancarla y nada

    ----------------------------------------------------------------------------------------------

    C:\Users\fgomezga\Desktop\data-integration_old>spoon.bat
    DEBUG: Using JAVA_HOME
    DEBUG: _PENTAHO_JAVA_HOME=C:\Program Files\Java\jre1.8.0_101
    DEBUG: _PENTAHO_JAVA=C:\Program Files\Java\jre1.8.0_101\bin\javaw.exe

    C:\Users\fgomezga\Desktop\data-integration_old>start "Spoon" "C:\Program Files\J
    ava\jre1.8.0_101\bin\javaw.exe"  "-Xmx5120m" "-XX:MaxPermSize=3072m" "-Djava.lib
    rary.path=libswt\win64" "-DKETTLE_HOME=" "-DKETTLE_REPOSITORY=" "-DKETTLE_USER="
     "-DKETTLE_PASSWORD=" "-DKETTLE_PLUGIN_PACKAGES=" "-DKETTLE_LOG_SIZE_LIMIT=" "-D
    KETTLE_JNDI_ROOT=" -jar launcher\pentaho-application-launcher-5.3.0.0-213.jar -l
    ib ..\libswt\win64

  • Duda sobre Kettle y paso Google Analytics

    Foros IT

     Buenas tardes,

     

    Estoy intentando realizar una extracción desde Google Analytics en una transformación. Necesito que sea lo más flexible posible, por tanto introduzco variables, para la metrica, filtro, segmento y TableID. Estos datos salen de una transformacion previa.

    Esta transformación la ejecuto, modo LOOP ("execute for every input row"). 

     

    Me dá un error, ya que no le doy a la opcion traer campos, sino que en la metrica pongo la variable ${metrica}, pero no la substituye. 

     

     

    ¿Se puede realizar de alguna manera? ¿Existe alguna alternativa?

     

    Adjunto pantallazo

    pantallazo

    Gracias

    Javier

     

  • Crear un DataWarehouse

     Buenas,

     

    Voy a crear mi primer DataWarehouse.

     

    1.- Debo pasar el modelo lógico relacional que tengo a modelo físico

    2.- Después realizar una migración de datos de ficheros DBF (DBASE V) a mi modelo físico.

    3.- Posteriormente crear el DataWarehouse.

     

    La tarea 1, está en curso, la tarea 2 también. Paralelamente, tengo que empezar la creación del DataWarehouse.

     

    Tengo mucha documentación y todas dicen prácticamente lo mismo. Me gustaría recibir, consejos útiles, best-practice, o expongáis casos que os han pasado para tomar nota.

     

    Muchas Gracias,

    Javier.

  • Update sobre tabla particionada

    Foros IT

    Hola, voy a generar una tabla particionada diaria. Contendrá unos 600 mil registros día. A la hora de realizar la carga diaria, vendrán registros nuevos a insertar en la nueva partición y registros que hay que actualizar de las particiones de días anteriores.

     

    Entiendo que hacer este update, ralentizará mucho el proceso de carga, pués no se sabe en que partición están los registros a actualizar.

     

    Me gustaría saber como puedo solucionar esta problemática y que el proceso de carga no se demore mucho.

     

    Gracias,

    Javier Gómez.