Type Title Author Comments Last updated
Entrada de blog Leer datos de XML y escribirlos en un archivo tabulado CSV con Kettle magm 7 4 months 4 weeks ago
Forum topic Java Heap Space Pentaho data Integration 6.1 JavierGomez 3 7 years 7 months ago
Forum topic PDI 5.3 JavierGomez 3 8 years 3 months ago
Entrada de blog Reseña del libro Pentaho Data Integration Cookbook (Second Edition) David 1 10 years 3 months ago
Forum topic Update sobre tabla particionada JavierGomez 1 12 years 2 months ago
Forum topic Duda sobre Kettle y paso Google Analytics JavierGomez 1 12 years 3 months ago
Forum topic Crear un DataWarehouse JavierGomez 3 12 years 6 months ago
Entrada de blog BI Beers BCN sigue creciendo Carlos 2 13 years 8 months ago

Publicaciones

  • Java Heap Space Pentaho data Integration 6.1

    Forums

    Hola

    Desde que mi pc actualizó a la versión Java 1.8.0.xxx, tengo muchos problemas con PDI. Actualmente tengo la versión de java 1.8.0.121

    El primer error que me dió fue "could not create Java Virtual Machine"...

    En el spoon.bat yo tenia PENTAHO_DI_JAVA_OPTIONS con las siguientes valores:

     

    "-Xms2048m" "-Xmx1024m" "-XX:MaxPermSize=512m"

     

    Para poder arrancar PDI, tuve que bajarlo a:

     

    "-Xms1204m" "-Xmx1024m" "-XX:MaxPermSize=256m"

     

    Pero con estos valores, y dada la cantidad de registros con los que trabajo, PDI se suele quedar colgado, mostrando errores:

    Java Heap Space....

     

    No sé que hacer.

     

    Mi equipo tiene recursos de sobra, es un I5 con 12 gigas de RAM.

     

    Gracias

  • PDI 5.3

    Forums

    Hola,

     

    Soy usuario de PDI (Kettle) desde hace bastante tiempo. Hoy intento arrancar mi Kettle versión 5.3, y aparte de no arrancar, no muestra nada. Sale el logo y nada mas, ayer funcionó correctamente.

     

    Mi pc lleva windows 7 64 bits, procesador I5, con 12gb ram.

     

    Vía CMD intento arrancarla y nada

    ----------------------------------------------------------------------------------------------

    C:\Users\fgomezga\Desktop\data-integration_old>spoon.bat
    DEBUG: Using JAVA_HOME
    DEBUG: _PENTAHO_JAVA_HOME=C:\Program Files\Java\jre1.8.0_101
    DEBUG: _PENTAHO_JAVA=C:\Program Files\Java\jre1.8.0_101\bin\javaw.exe

    C:\Users\fgomezga\Desktop\data-integration_old>start "Spoon" "C:\Program Files\J
    ava\jre1.8.0_101\bin\javaw.exe"  "-Xmx5120m" "-XX:MaxPermSize=3072m" "-Djava.lib
    rary.path=libswt\win64" "-DKETTLE_HOME=" "-DKETTLE_REPOSITORY=" "-DKETTLE_USER="
     "-DKETTLE_PASSWORD=" "-DKETTLE_PLUGIN_PACKAGES=" "-DKETTLE_LOG_SIZE_LIMIT=" "-D
    KETTLE_JNDI_ROOT=" -jar launcher\pentaho-application-launcher-5.3.0.0-213.jar -l
    ib ..\libswt\win64

  • Duda sobre Kettle y paso Google Analytics

    Forums

     Buenas tardes,

     

    Estoy intentando realizar una extracción desde Google Analytics en una transformación. Necesito que sea lo más flexible posible, por tanto introduzco variables, para la metrica, filtro, segmento y TableID. Estos datos salen de una transformacion previa.

    Esta transformación la ejecuto, modo LOOP ("execute for every input row"). 

     

    Me dá un error, ya que no le doy a la opcion traer campos, sino que en la metrica pongo la variable ${metrica}, pero no la substituye. 

     

     

    ¿Se puede realizar de alguna manera? ¿Existe alguna alternativa?

     

    Adjunto pantallazo

    pantallazo

    Gracias

    Javier

     

  • Crear un DataWarehouse

     Buenas,

     

    Voy a crear mi primer DataWarehouse.

     

    1.- Debo pasar el modelo lógico relacional que tengo a modelo físico

    2.- Después realizar una migración de datos de ficheros DBF (DBASE V) a mi modelo físico.

    3.- Posteriormente crear el DataWarehouse.

     

    La tarea 1, está en curso, la tarea 2 también. Paralelamente, tengo que empezar la creación del DataWarehouse.

     

    Tengo mucha documentación y todas dicen prácticamente lo mismo. Me gustaría recibir, consejos útiles, best-practice, o expongáis casos que os han pasado para tomar nota.

     

    Muchas Gracias,

    Javier.

  • Update sobre tabla particionada

    Hola, voy a generar una tabla particionada diaria. Contendrá unos 600 mil registros día. A la hora de realizar la carga diaria, vendrán registros nuevos a insertar en la nueva partición y registros que hay que actualizar de las particiones de días anteriores.

     

    Entiendo que hacer este update, ralentizará mucho el proceso de carga, pués no se sabe en que partición están los registros a actualizar.

     

    Me gustaría saber como puedo solucionar esta problemática y que el proceso de carga no se demore mucho.

     

    Gracias,

    Javier Gómez.