BI & Analytics facilita a la Dirección y a las áreas de negocio de las organizaciones la capacidad de explorar, de forma inmediata, enormes volúmenes de información de carácter estructurado y no estructurado.
Entelgy utiliza analogías de diferentes sectores y clientes para aprovechar casos de éxito contrastados, lo que nos permite aportar un profundo conocimiento.
Fruto de esta experiencia, en nuestro área de especialización de BI venimos identificando que el método de consumo de información por parte de los usuarios de negocio ha cambiado sustancialmente en los últimos años. Las herramientas de inteligencia de negocio (BI) tradicional han sido sustituidas, o más bien complementadas, por las herramientas de análisis de datos (Data Discovery). Y es que una de las características de las herramientas tradicionales, aparte del alto porcentaje de proyectos fallidos, es su largo tiempo de implementación.
Las herramientas de análisis de datos (o visualización de datos) gozan de un tiempo de desarrollo mucho menor. Se consideran herramientas de BI ágiles. En apenas unas semanas se puede tener implementada una aplicación de visualización de datos desde cero, aunque este tiempo puede llegar a incrementarse a meses, dependiendo de la envergadura del proyecto. Este corto tiempo de implementación y el gran porcentaje de éxito de los proyectos hacen que estas herramientas obtengan una alta satisfacción de los usuarios.
Qlik, uno de los fabricantes de herramientas de BI de descubrimiento de datos obtiene el primer puesto en una encuesta internacional realizada a usuarios de herramientas de BI, como la herramienta mejor valorada respecto al rendimiento y satisfacción.
Sin embargo, las empresas que desarrollen sobre Qlik, han de considerar todas las variables, ya que unos desarrollos “demasiado” cortos pueden implicar una pérdida de calidad en el proyecto que se traduzca en una pérdida de rendimiento, entre otros aspectos. Es fundamental, por tanto, adelantarse e identificar estos posibles errores en el desarrollo, que pueden provocar que el tiempo de respuesta se multiplique en un cuadro de mando:
- Abuso de Set Analysis. Por potente que esta funcionalidad sea a la hora de construir cálculos (expresiones), los expertos estiman que utilizarla en más de un 30% del total de las expresiones indica un modelo de datos deficiente.
- Uso de funciones que conllevan cálculos costosos para la máquina. Aquí se incluyen aquellas funciones que crean una estructura de datos intermedia, para después hacer cálculos sobre ella.
- Modelo de datos en “copo de nieve”. Por tentados que los desarrolladores estén a construir un modelo de datos en “copo de nieve”, no debe olvidarse que se trata de un modelo asociativo, no relacional, en el que los saltos de una tabla a otra provoca una pérdida de rendimiento. Cuanta más distancia entre dos tablas, más repercusión en el rendimiento.
Por supuesto, en aplicaciones donde se trate con decenas o cientos de millones de registros es normal que el tiempo de respuesta no sea inmediato. Y es en estas aplicaciones donde más énfasis debe ponerse en la calidad del análisis de los datos y en un desarrollo orientado al rendimiento.
Otras noticias relacionadas:
- Entelgy, mejor partner debutante de QlikTech
- Alianza con QlikView
- “Industria 4.0 hacia el mantenimiento predictivo”, en el desayuno de Innovación sobre Analytics.
- Innovación, Big Data, Internet de las Cosas y las tecnologías disruptivas
- Éxito rotundo de los postgrados de Big Data y BI donde Entelgy colabora activamente
BI & Analytics facilita a la Dirección y a las áreas de negocio de las organizaciones la capacidad de explorar, de forma inmediata, enormes volúmenes de información de carácter estructurado y no estructurado.
Entelgy utiliza analogías de diferentes sectores y clientes para aprovechar casos de éxito contrastados, lo que nos permite aportar un profundo conocimiento.
Fruto de esta experiencia, en nuestro área de especialización de BI venimos identificando que el método de consumo de información por parte de los usuarios de negocio ha cambiado sustancialmente en los últimos años. Las herramientas de inteligencia de negocio (BI) tradicional han sido sustituidas, o más bien complementadas, por las herramientas de análisis de datos (Data Discovery). Y es que una de las características de las herramientas tradicionales, aparte del alto porcentaje de proyectos fallidos, es su largo tiempo de implementación.
Las herramientas de análisis de datos (o visualización de datos) gozan de un tiempo de desarrollo mucho menor. Se consideran herramientas de BI ágiles. En apenas unas semanas se puede tener implementada una aplicación de visualización de datos desde cero, aunque este tiempo puede llegar a incrementarse a meses, dependiendo de la envergadura del proyecto. Este corto tiempo de implementación y el gran porcentaje de éxito de los proyectos hacen que estas herramientas obtengan una alta satisfacción de los usuarios.
Qlik, uno de los fabricantes de herramientas de BI de descubrimiento de datos obtiene el primer puesto en una encuesta internacional realizada a usuarios de herramientas de BI, como la herramienta mejor valorada respecto al rendimiento y satisfacción.
Sin embargo, las empresas que desarrollen sobre Qlik, han de considerar todas las variables, ya que unos desarrollos “demasiado” cortos pueden implicar una pérdida de calidad en el proyecto que se traduzca en una pérdida de rendimiento, entre otros aspectos. Es fundamental, por tanto, adelantarse e identificar estos posibles errores en el desarrollo, que pueden provocar que el tiempo de respuesta se multiplique en un cuadro de mando:
- Abuso de Set Analysis. Por potente que esta funcionalidad sea a la hora de construir cálculos (expresiones), los expertos estiman que utilizarla en más de un 30% del total de las expresiones indica un modelo de datos deficiente.
- Uso de funciones que conllevan cálculos costosos para la máquina. Aquí se incluyen aquellas funciones que crean una estructura de datos intermedia, para después hacer cálculos sobre ella.
- Modelo de datos en “copo de nieve”. Por tentados que los desarrolladores estén a construir un modelo de datos en “copo de nieve”, no debe olvidarse que se trata de un modelo asociativo, no relacional, en el que los saltos de una tabla a otra provoca una pérdida de rendimiento. Cuanta más distancia entre dos tablas, más repercusión en el rendimiento.
Por supuesto, en aplicaciones donde se trate con decenas o cientos de millones de registros es normal que el tiempo de respuesta no sea inmediato. Y es en estas aplicaciones donde más énfasis debe ponerse en la calidad del análisis de los datos y en un desarrollo orientado al rendimiento.
Otras noticias relacionadas:
- Entelgy, mejor partner debutante de QlikTech
- Alianza con QlikView
- “Industria 4.0 hacia el mantenimiento predictivo”, en el desayuno de Innovación sobre Analytics.
- Innovación, Big Data, Internet de las Cosas y las tecnologías disruptivas
- Éxito rotundo de los postgrados de Big Data y BI donde Entelgy colabora activamente