Unidad IV Inteligencia de negocios

1 Unidad IV Inteligencia de negocios ...
Author: daniel huerta
0 downloads 6 Views

1 Unidad IV Inteligencia de negocios

2 Procesos de Minería de datos Orígenes de datos Sistemas operacionales Sistemas Heredados ERP’s, CRM’s Bodegas de datos Procesos de ETL Procesos de Minería de datos Vistas Multidimensionales (hipercubos de datos) Reporteadores Alertas, tableros de control (dashboards) e indicadores clave de desempeño (KPI’s) Procesadores de consultas ad-hoc

3 Definición de Inteligencia de NegociosLa Inteligencia de Negocios es el conjunto de productos y servicios que permiten a los usuarios finales acceder y analizar de manera rápida y sencilla, la información para la toma de decisiones de negocio a nivel operativo, táctico y estratégico.

4 El término Business Intelligence (Inteligencia de Negocios) hizo su aparición en 1996 cuando un reporte de Gartner Group dijo textualmente lo siguiente: By 2000, Information Democracy will emerge in forward-thinking enterprises, with Business Intelligence information and applications available broadly to employees, consultants, customers, suppliers, and the public. The key to thriving in a competitive marketplace is staying ahead of the competition. Making sound business decisions based on accurate and current information takes more than intuition. Data analysis, reporting, and query tools can help business users wade through a sea of data to synthesize valuable information from it - today these tools collectively fall into a category called "Business Intelligence."

5 Traducción Para el año 2000, la Democracia de la Información emergerá en las empresas de vanguardia, con las aplicaciones de Inteligencia de Negocios ampliamente disponibles a nivel de empleados, consultores, clientes, proveedores y el público en general. La clave para surgir en un mercado competitivo es mantenerse delante de sus competidores. Se requiere mas que intuición para tomar decisiones correctas basadas en información exacta y actualizada. Las herramientas de reporte, consulta y análisis de datos pueden ayudar a los usuarios de negocios a navegar a través de un mar de información para sintetizar la información valiosa que en él se encuentra - hoy en día esta categoría de herramientas se les llama "Inteligencia de Negocios"

6 Orígenes de Datos Como la business intelligence gira en torno al análisis de datos, es evidente que la información entregada por el software de BI no puede ser más confiable que los datos analizados. Desafortunadamente, muchas empresas tienen un problema de inconsistencia de datos, aunque es bastante probable que ni si quiera estén conscientes de esta situación. Muchas empresas tienen varias bases de datos, cada una con su propia copia de la información de contacto de los clientes; parte de la cual puede estar desactualizada. Cada vez que existan datos redundantes en diferentes ubicaciones aisladas (no replicadas) es muy probable que estos datos se vuelvan inconsistentes con el tiempo. Y es posible que estas inexactitudes no se limiten a una sola base de datos. Puede que existan datos inexactos desperdigados por todos los orígenes de datos de la empresa. ¿Entonces cómo enfrentar este problema? Antes de poder aprovechar las herramientas de business intelligence, la empresa debe asegurase de que sus datos sean confiables. La mejor forma lograr esto es teniendo siempre “una única versión de la verdad”. En otras palabras, conviene basar todos los análisis de BI en un único origen de datos autoritativo.

7 Sistemas OperacionalesLos sistemas y componentes del BI se diferencian de los sistemas operacionales en que están optimizados para preguntar y divulgar sobre datos. Esto significa típicamente que, en un datawarehouse, los datos están desnormalizados para apoyar consultas de alto rendimiento, mientras que en los sistemas operacionales suelen encontrarse normalizados para apoyar operaciones continuas de inserción, modificación y borrado de datos. En este sentido, los procesos ETL (extracción, transformación y carga), que nutren los sistemas BI, tienen que traducir de uno o varios sistemas operacionales normalizados e independientes a un único sistema desnormalizado, cuyos datos estén completamente integrados.

8 Sistemas Heredados Un sistema de computador o programa de aplicación que está a menudo basado en un mainframe y utiliza viejas tecnologías. En muchos casos estos continúan siendo utilizados por el costo de reemplazarlos o rediseñarlos, y a menudo a pesar de su pobre competitividad y compatibilidad con sus equivalentes modernos. Estos sistemas han estado normalmente en operación por largo tiempo, y cuyas funciones son demasiado esenciales como para ser interrumpidas para actualizarlos o integrarlos con otro sistema. En la mayoría de los casos estos sistemas son grandes, monolíticos y difíciles de modificar.

9 Los hechos en los sistemas heredados:El desafío encarado por muchas organizaciones es que sus sistemas heredados a menudo no soportan reportes y análisis directos de información importante del negocio contenida en esos sistemas. Las barreras representadas por los sistemas heredados limitan artificialmente la creatividad y capacidad de los usuarios finales para resolver problemas y realizar el alcance completo de reportes y análisis sobre los datos que existen actualmente en su organización. Las típicas soluciones que se proponen – software actualizado, data marts o programas personalizados – todos requieren un compromiso de tiempo y recursos financieros significativos, haciendo difícil construir un caso fuerte de negocio para muchos proyectos que involucran sistemas heredados. La decisión de “no hacer nada” ha probado consistentemente tener sus propios costos reales, tanto ocultos como visibles, dado que las organizaciones no pueden tomar decisiones y ver riesgos en base a toda la información que podrían haber tenido disponible.

10 ERP’s, CRM’s  Un ERP (Enterprise Resource Planning – Planificación de Recursos Empresariales) es un conjunto de sistemas de información que permite la integración de ciertas operaciones de una empresa, especialmente las que tienen que ver con la producción, la logística, el inventario, los envíos y la contabilidad. El ERP funciona como un sistema integrado. Aunque pueda tener menús modulares, es un todo. Es decir, es un único programa con acceso a una base de datos centralizada. Un ejemplo claro lo tenemos en PROWIN ERP, que además de ser un programa de gestión, está integrado con el programa de contabilidad WINCONTA FINANCIALS, el programa de calidad QUALYPRO,... Los datos se dan de alta sólo una vez y son consistentes, completos y comunes.

11 El propósito de un software ERP es apoyar a los clientes de la empresa, dar tiempos rápidos de respuesta a sus problemas, así como un eficiente manejo de información que permita la toma de decisiones y minimizar los costes. Los ERP-s funcionan en todo tipo de empresas y su selección depende de factores como el tamaño de la empresa, el tipo de empresa, procesos, recursos, etc.

12 CRM’s Sistema de gestión de clientes CRM (Customer Relationship Management), se logra tener en un solo sitio todas las relaciones que tenemos con nuestros clientes y que se refieren a sus necesidades, productos y servicios que demandan de nuestra empresa.

13 Mediante esta gestión avanzada de los clientes se puede ser capas de recopilar la máxima información sobre los clientes, adelantándonos de esta forma a sus necesidades y aumentando el valor de nuestros servicios. El sistema de gestión de clientes CRM se incluye también como un módulo que forma parte del sistema ERP. Por lo tanto podemos decir que un sistema o módulo CRM nos permite identificar los servicios y productos que necesitan nuestros clientes, y que da como resultado una estrategia que se basa en tener a los clientes satisfechos.

14

15 Bodegas de datos Las bodegas de datos es centralizar una gran variedad de datos e información, interpretar dicha información y darle un valor agregado para beneficio del negocio todo ello por supuesto, con un fácil acceso y visualización por parte de los usuarios. Algunos procesos que se realizan en estos escenarios son: Transformación de Datos. Repositorios y metadatos. Procesamiento analítico en línea (OLAP). Visualización.

16 Transformación de Datos.Se obtienen datos e información de diferentes fuentes o almacenamientos y se aplica una serie de reglas definidas que convierten los datos en información útil para la toma de decisiones.

17 Repositorios y metadatos.Más importante aún que el flujo de datos es entender el origen y la descripción de éstos de una forma que sea común para toda la organización. "No se requiere más datos, se requiere entenderlos".

18 Procesamiento analítico en línea (OLAP).Provee el medio para obtener visualizar y analizar información con alto rendimiento y flexibilidad. OLAP presenta la información a los usuarios de una forma natural e intuitiva. De esta manera los usuarios pueden ser más efectivos en reconocer el valor de dicha información.

19 Visualización. En la mayoría de los casos los datos pueden ser mejor entendidos si los números son combinados de diferentes formas y presentados visualmente en forma de histogramas y varios tipos de gráficas. La visualización puede ser especialmente útil en identificar rápidamente cuales datos pueden tener un análisis especial.

20 Cómo trabaja una bodega de datos?Es una base de datos históricos y operativos de la compañía(banco, supermercado etc.) que están disponibles para el usuario. Contrario a muchos sistemas, se establece de acuerdo con la lógica del negocio mas que con la lógica de los sistemas. Le permite a los usuarios cavar y dar vueltas entre toda esa información importante de los clientes, para buscar relaciones y efectuar consultas. El proceso mediante el cual los usuarios se sientan enfrente de una montaña de hechos y datos para descubrir tendencias que sugieran nuevas oportunidades de negocios se llama "minería de datos" (data mining). Sin embargo todo lo que brilla no es oro. La empresa debe comprometerse a mantener actualizados los datos que están alojados en la bodega, asegurarse que todos los datos son validos, exactos y oportunos.

21 REQUERIMIENTOS PARA LA CONSTRUCCIÓN DE UNA BODEGA DE DATOSHARDWARE Se requiere de un servidor para el almacenamiento y manejo de la base de datos corporativa; este servidor se recomienda que sea altamente escalable, pues algunas veces el proyecto de construcción de la bodega presenta redimensionamiento a medida que se avanza en la implementación. La capacidad inicial de almacenamiento estará determinada por los requerimientos de información histórica presentados por la empresa y por la perspectiva de crecimiento que se tenga.

22 Dependiendo del diseño del sistema, puede ser necesario contar con un segundo servidor para las herramientas de consulta de datos. Este equipo debe tener el sistema operativo recomendado por el proveedor de la herramienta a utilizar, siendo el más usado alguna versión de Windows. Las estaciones de trabajo de cada usuario deberán cumplir con las características recomendadas por el proveedor de la herramienta de consulta seleccionada.

23 HERRAMIENTAS DE SOFTWARELas herramientas se clasifican en cuatro categorías básicas: Herramientas de Almacenamiento (bases de datos multidimensionales) Herramientas de Extracción y Colección Herramientas para Reportes de Usuario Final Herramientas para Análisis Inteligentes

24 Herramientas de AlmacenamientoCorresponde a la herramienta en la cual se irán a almacenar los datos. Existen muchas opciones dependiendo del volumen de los datos, presupuesto y capacidad de su sistema. Cada uno de los sistemas de administración de bases de datos, como Oracle, DB2, Informix, TeraData, Sybase, etc, tienen una facilidad de Data Warehouse.

25 Herramientas de Extracción y ColecciónAyudan a definir, acumular, totalizar y filtrar los datos de sus sistemas transaccionales en el Data Warehouse. La mayoría de esas herramientas son desarrolladas por el personal interno de la compañía dado el gran conocimiento que tienen de los sistemas transaccionales.

26 Herramientas para Reportes de Usuario FinalEs la interfase vista por el usuario. Al usuario se le debe proveer un mecanismo para que vea los datos a un alto nivel y que entonces obtenga con ello la solución a preguntas específicas. Existen muchas herramientas, incluyendo Cognos Powerplay, Business Objects, SAS, ShowCase Strategy etc.

27 Herramientas para Análisis InteligentesEntre ellas están las de empresas como IBM, SAS, Arbor, Cognos, Business Objects, entre otras. Estas herramientas han sido construidas utilizando inteligencia artificial que buscan alrededor del Data Warehouse modelos y relaciones en los datos. Estas herramientas utilizan una técnica conocida como Data Minning o Minería de datos.

28 Procesos ETL: Extraer (Extract), Transformar (Transform) y Cargar (Load).Los procesos ETL son un término estándar que se utiliza para referirse al movimiento y transformación de datos. Se trata del proceso que permite a las organizaciones mover datos desde múltiples fuentes, reformatearlos y cargarlos en otra base de datos (denominada data mart o data warehouse) con el objeto de analizarlos. También pueden ser enviados a otro sistema operacional para apoyar un proceso de negocio.

29 El término ETL corresponde a las siglas en inglés de:En definitiva, el principal objetivo de este proceso es facilitar el movimiento de los datos y la transformación de los mismos, integrando los distintos sistemas y fuentes en la organización moderna. El término ETL corresponde a las siglas en inglés de: Extract: extraer. Transform: transformar. Load: cargar.

30 Fases de un proceso ETL Las distintas fases o secuencias de un proceso ETL son las siguientes: Extracción de los datos desde uno o varios sistemas fuente. Transformación de dichos datos, es decir, posibilidad de reformatear y limpiar estos datos cuando sea necesario. Carga de dichos datos en otro lugar o base de datos, un data mart o un Data Warehouse, con el objeto de analizarlos o apoyar un proceso de negocio.

31 ¿Qué sistemas se pueden integrar en un proceso ETL? Los procesos ETL pueden incluir: Sistemas legacy. Es decir, legados, heredados o antiguos . Sistemas nuevos. Basados en Windows, Linux y también en las redes sociales modernas: Facebook, Twitter, Linkedin, etc.

32 Los sistemas legacy o heredados se caracterizan, generalmente, por: ser cerrados, no permitir cambios y tener un difícil acceso (normalmente se necesita algún tipo de driver especial). Son sistemas que procesan hacia dentro y, por lo tanto, no permiten la agregación de una computadora que trabaje en paralelo. Por el contrario, los sistemas nuevos o modernos (basados en Windows o Linux) son abiertos, amplios e interconectados. Un ejemplo lo constituiría una granja de servidores Linux, la cual permite la interconexión de los distintos nodos entre sí.

33 Beneficios de los procesos ETLA cualquier empresa u organización le beneficia poner en marcha un proceso ETL para mover y transformar los datos que maneja por los siguientes motivos: Poder crear una Master Data Management, es decir, un repositorio central estandarizado de todos los datos de la organización. Por ejemplo, si tenemos un objeto cliente en una base de datos de créditos y otro objeto cliente en la base de datos de tarjetas de crédito, lo que haría el Master sería definir, de forma concreta e inequívoca, un registro cliente único con su nombre y apellidos para la organización. Posibilita a los directivos tomar decisiones estratégicas basadas en el análisis de los datos cargados en las bases nuevas y actualizadas: la dama mart o data warehouse.

34 Sirve para integrar sistemasSirve para integrar sistemas. Las organizaciones crecen de forma orgánica y cada vez se van agregando más fuentes de datos. Esto provoca que comience a surgir nuevas necesidades, como por ejemplo integrar los datos de un banking on line con los datos antiguos de un sistema legacy. Poder tener una visión global de todos los datos consolidados en una data warehouse. Por ejemplo, crear una estrategia de marketing basándose en el análisis de los datos anteriores.

35 El Proceso de Minería de DatosSelección del conjunto de datos Análisis de las propiedades de los datos Transformación del conjunto de datos de entrada Seleccionar y aplicar la técnica de minería de datos Extracción de conocimiento Interpretación y evaluación de datos

36 Selección del conjunto de datosDatos, tanto en lo que se refiere a las variables objetivo (aquellas que se quiere predecir, calcular o inferir), como a las variables independientes (las que sirven para hacer el cálculo o proceso), como posiblemente al muestreo de los registros disponibles.

37 Análisis de las propiedades de los datosEn especial los histogramas, diagramas de dispersión, presencia de valores atípicos y ausencia de datos (valores nulos).

38 Transformación del conjunto de datos de entradaSe realizará de diversas formas en función del análisis previo, con el objetivo de prepararlo para aplicar la técnica de minería de datos que mejor se adapte a los datos y al problema, a este paso también se le conoce como pre procesamiento de los datos.

39 Seleccionar y aplicar la técnica de minería de datosSe construye: Modelo predictivo. Modelo de clasificación Modelo de segmentación

40 Modelo predictivo Los modelos predictivos permiten estimar cual es el comportamiento esperado del cliente utilizando los datos de uso de los servicios. ¿Cómo funciona un modelo predictivo? Primero, se debe entrenar el sistema usando datos de nuestros sistemas de información que contengan el comportamiento observado de los clientes. Después, una vez al mes se realiza un proceso de estimación del comportamiento previsto del cliente usando patrones de uso del servicio actualizados a este momento.

41 ¿Cómo se desarrolla un modelo predictivo?El modelo se crea usando datos de nuestros clientes (comportamiento observado) en un proceso denominado enfrentamiento.

42 ¿Cómo se usa un modelo predictivo?con los datos del perfil de un usuario(datos observados actualizados) Se puede predecir el comportamiento esperado del cliente. Este proceso se denomina scoring.

43 Extracción de conocimientoMediante una técnica de minería de datos, se obtiene un modelo de conocimiento, que representa patrones de comportamiento observados en los valores de las variables del problema o relaciones de asociación entre dichas variables. También pueden usarse varias técnicas a la vez para generar distintos modelos, aunque generalmente cada técnica obliga a un pre procesado diferente de los datos.

44 Técnicas de minería de datosLas técnicas de la minería de datos provienen de la Inteligencia artificial y de la estadística, dichas técnicas, no son más que algoritmos, más o menos sofisticados que se aplican sobre un conjunto de datos para obtener unos resultados. Las técnicas mas representativas son: Redes neuronales Regresión lineal Árboles de decisión Modelos estadísticos Agrupamiento o Clustering

45 Redes neuronales Son un paradigma de aprendizaje y procesamiento automático inspirado en la forma en que funciona el sistema nervioso de los animales. Se trata de un sistema de interconexión de neuronas en una red que colabora para producir un estímulo de salida. Algunos ejemplos de red neuronal son: El Perceptrón. El Perceptrón multicapa. Los Mapas Autoorganizados, también conocidos como redes de Kohonen.

46 Regresión lineal Es la técnica más utilizada para formar relaciones entre datos. Rápida y eficaz pero insuficiente en espacios multidimensionales donde puedan relacionarse más de 2 variables.

47 Árboles de decisión Un árbol de decisión es un modelo de predicción utilizado en el ámbito de la inteligencia artificial, dada una base de datos se construyen estos diagramas de construcciones lógicas, muy similares a los sistemas de predicción basados en reglas, que sirven para representar y categorizar una serie de condiciones que suceden de forma sucesiva, para la resolución de un problema.

48 Ejemplos de algoritmos de Árboles de decisiónAlgoritmo ID3 Algoritmo C4.5

49 Algoritmo ID3 El algoritmo ID3 es utilizado dentro del ámbito de la inteligencia artificial. Su uso se engloba en la búsqueda de hipótesis o reglas en él, dado un conjunto de ejemplos. El conjunto de ejemplos deberá estar conformado por una serie de tuplas de valores, cada uno de ellos denominados atributos, en el que uno de ellos, ( el atributo a clasificar ) es el objetivo, el cual es de tipo binario ( positivo o negativo, si o no, válido o inválido, etc. ). De esta forma el algoritmo trata de obtener las hipótesis que clasifiquen ante nuevas instancias, si dicho ejemplo va a ser positivo o negativo. ID3 realiza esta labor mediante la construcción de un árbol de decisión.

50 Modelos estadísticos Es una expresión simbólica en forma de igualdad o ecuación que se emplea en todos los diseños experimentales y en la regresión para indicar los diferentes factores que modifican la variable de respuesta.

51 Agrupamiento o ClusteringEs un procedimiento de agrupación de una serie de vectores según criterios habitualmente de distancia; se tratará de disponer los vectores de entrada de forma que estén más cercanos aquellos que tengan características comunes. Ejemplos: Algoritmo K-means. Algoritmo K-medoids.

52 Extracción de conocimientoMediante una técnica de minería de datos, se obtiene un modelo de conocimiento, que representa patrones de comportamiento observados en los valores de las variables del problema o relaciones de asociación entre dichas variables. También pueden usarse varias técnicas a la vez para generar distintos modelos, aunque generalmente cada técnica obliga a un pre- procesado diferente de los datos.

53 Vistas Multidimensionales (hipercubos de datos)Los cubos de información funcionan como los cubos de rompecabezas, en el juego se trata de armar los colores y en el data warehouse se trata de organizar los datos por tablas o relaciones ; los primeros (el juego) tienen 3 dimensiones, los cubos OLAP tienen un número indefinido de dimensiones, razón por la cual también reciben el nombre de hipercubos. Esta vista estará dispuesta según unas dimensiones y podrá contener información calculada.

54

55 El análisis de los datos está basado en las dimensiones del hipercubo, por lo tanto, se trata de un análisis multidimensional. A la información de un cubo puede acceder el ejecutivo mediante ³tablas dinámicas´ en una hoja de cálculo o a través de programas personalizados. Las dimensiones de un cubo son atributos relativos a las variables, son las perspectivas de análisis de las variables.

56 Son catálogos de información complementaria necesaria para la presentación de los datos a los usuarios, como por ejemplo: descripciones, nombres, zonas, rangos de tiempo, etc. Es decir, la información general complementaria a cada uno de los registros de la tabla de hechos. Las variables representan algún aspecto cuantificable o medible de los objetos o eventos a analizar. Normalmente, las variables son representadas por valores detallados y numéricos para cada instancia del objeto o evento medido. En forma contraria, las dimensiones son atributos relativos a las variables, y son utilizadas para indexar, ordenar, agrupar o abreviar los valores de las mismas.

57 Reporteadores Un reporteador de última generación conocidos como de Inteligencia de Negocios ó BI. A diferencia de los reporteadores tradicionales, orientados a operar el negocio, los de BI están orientados a analizar la información existente para soportar una mejor toma de decisiones. Los reporteadores de última generación, están diseñados para analizar lo que la operación arroja. Es decir, analizar a profundidad la cobranza, los pagos, las ventas, los inventarios, etc, con el fin de tomar mejores decisiones.

58 Los reporteadores tradicionales, por otro lado, son para presentar los formatos de pago de impuestos, imprimir los recibos de nómina, los estados de cuenta de los clientes, facturas, cheques, etc. es decir, son para que el negocio opere correctamente.

59 Los dos tipos de reporteadores son muy útiles y se complementan, uno imprime las facturas y otro analiza las ventas. Los problemas se presentan cuando tratamos de utilizar un reporteador tradicional para labores de análisis y viceversa; es como si tenemos un coche familiar y un camión recolector de basura. Con el coche familiar podríamos recoger basura, pero definitivamente no lo haríamos de manera tan eficiente como con el camión recolector.

60 Los reporteadores de última generación están diseñados pensando en el estilo de vida de los tomadores de decisiones actuales, los cuales tienen que pasar mucho tiempo fuera del negocio; atendiendo a los clientes, buscando mejores productos, alianzas, oportunidades, etc., permitiendo consultar la información que necesiten en el momento que la necesiten, desde cualquier lugar vía internet; incluídos los dispositivos móviles como el iPad, iPhone, IpodTouch, dispositivos con sistema operativo Android, etc. Es decir, no tienes que estar en tu negocio para estar completamente informado de la situación de éste.

61 Los reporteadores de última generación como KPI Online están pensados en la autonomía de el tomador de decisiones. Ellos mismos hacen sus propios análisis al vuelo, sin dependencias. Los análisis generados pueden integrar información de las diferentes áreas del negocios como por ejemplo, podemos tener las ventas por cliente y en ese momento agregar la columna del costo de ventas y obtener el margen, además, podemos integrar una columna con el saldo vencido y así poder ver si el margen soporta el financiamiento extra que se esta tomando el cliente. ¡Todo esto en 10 segundos!

62 Alertas, tableros de control (dashboards) e indicadores clave de desempeño (KPI’s)Una alerta indica el estado de un determinado indicador de negocio, así como los avances de la operación de la empresa.

63 Tableros de control (Dashboards)Un tablero de control también es conocido como “Cuadro de mando integral”, “Tablero de comando” o “Balanced scorecard”. Se define como el conjunto de indicadores cuyo seguimiento periódico permitirá contar con un mayor conocimiento sobre la situación de una empresa. Es una metodología gerencial que sirve como herramienta para la planeación y administración estratégica de las empresas. Es una aplicación de sistemas de autocontrol y mejora continua. Jack Fleitman (2010) lo define como “Una estructura de control de la administración y operación general de la empresa, cuya fortaleza radica en su filosofía de mejora continua y en el trabajo en equipo basado en una visión estratégica unificada.

64

65 Tipos de tableros de controlTableros de control operativo: Permiten hacer un seguimiento diario del estado de un sector o proceso de la empresa para tomar medidas correctivas en caso de ser necesario. Tableros de control directivo: Permite monitorear los resultados que se presentan a corto plazo en la empresa en conjunto con las diferentes áreas. Tablero de control estratégico: Brinda información interna y externa necesaria para conocer a tiempo la situación de la empresa con respecto a su posicionamiento estratégico a largo plazo. Tablero de control integral: Muestra la información más relevante de los tres tableros anteriores para que los directivos puedan visualizar la información que muestra la situación integral de la organización.

66 Indicadores clave de desempeño (KPI)Un KPI (Key Performance Indicators) por sus siglas en inglés, es el estado de un indicador, es decir, si está por encima o debajo de una determinada meta. Los KPI's generalmente se muestran como una tasa o porcentaje y están diseñados para permitir que un usuario de negocios pueda saber instantáneamente si están dentro o fuera de su plan sin que tenga que buscar información adicional. Cada KPI obtiene un valor único de un origen de datos, ya sea desde una única propiedad o mediante el cálculo de promedios de datos seleccionados y, a continuación, compara este valor con un valor preseleccionado por el administrador. Puesto que los valores se calculan a partir de un intervalo de datos en lugar de mostrar datos en un formulario de lista, los KPI tienden a ser más útiles al medir el rendimiento en varios grupos o proyectos. 

67 Procesadores de consultas ad-hocAd-hoc Que es Ad-Hoc Ad-hoc es una herramienta de generación de informes basada en la tecnología Web 2.0 diseñado para ayudar a los usuarios de negocios típicos a generar fácilmente informes ad hoc. Generalmente se refiere a una solución específicamente elaborada para un problema o fin preciso y, por tanto, no generalizable ni utilizable para otros propósitos. Se usa pues para referirse a algo que es adecuado sólo para un determinado fin o en una determinada situación.

68 OBJETIVO Las consultas ad-hoc es la de ofrecer un servicio en línea que le permita a los usuarios especificar un rango de variables, como fechas de inicio y conclusión. El objetivo de estos análisis es dejar la mayor libertad posible a los usuarios y analistas para realizar consultas de forma abierta, si ningún tipo de restricciones o limitaciones previas de modelos ya predefinidos o construidos.

69 VENTAJAS Los tomadores de decisiones necesitan alternativas “amigables” de acceso a los datos. Es decir, que puedan acceder sin necesitar conocimientos profundos sobre el uso de la tecnología, siendo ésta lo más “transparente” posible. No todo usuario de un sistema debería poder acceder a todos los datos. Cuando los programas de aplicación son agregados al sistema en una forma ad hoc, se hace difícil imponer estas restricciones de acceso. Problemas de seguridad: Como los programas de aplicación se añaden de una forma ad hoc, es difícil garantizar esta seguridad