05 November 2008

QPM y OPP en CMMi ACQ V1.2 (11)

QUANTITATIVE PROJECT MANAGEMENT

El propósito de Quantitative Project Management (QPM), perteneciente al Nivel de Madurez 4, es administrar cuantitativamente el proceso definido del proyecto para lograr los objetivos de performance del proceso y de calidad.

Para la implementación de esta área de proceso, la organización debe tener un conjunto de procesos estándar establecidos y relacionado a las ventajas del proceso organizacional. El proceso definido del proyecto es un conjunto de subprocesos que forman un ciclo de vida coherente e integrado.

El performance del proceso es una medición de los resultados logrados del actual proceso. Este performance está caracterizado por mediciones de proceso (p.e esfuerzo, tiempo del ciclo y eficacia en la eliminación de defectos) y mediciones de producto (p.e confiabilidad, densidad del defecto y tiempo de respuesta).

QPM se relaciona con las siguientes áreas de proceso: PMC, MA, OPP, OPD, IPM, CAR, OID y SSAD.

Los objetivos específicos (SG), prácticas especificas (SP) y subprácticas de esta AP son:

SG 1 - Quantitatively Manage the Project

SP 1.1 - Establish the Project’s Objectives

1.1.1- Review the organization's objectives for quality and process performance 1.1.2- Identify the quality and process performance needs and priorities of the customer, suppliers, end users, and other relevant stakeholders. 1.1.3- Identify how process performance is to be measured. 1.1.4- Define and document measurable quality and process-performance objectives for the project 1.1.5- Derive interim objectives for each lifecycle phase, as appropriate, to monitor progress toward achieving the project’s objectives 1.1.6- Resolve conflicts among the project’s quality and process-performance objectives 1.1.7- Establish traceability to the project’s quality and process-performance objectives from their sources. 1.1.8- Define and negotiate quality and process-performance objectives for suppliers 1.1.9- Revise the project’s quality and process-performance objectives as necessary

SP 1.2 - Compose the Defined Process

1.2.1- Establish the criteria to use in identifying which subprocesses are valid candidates for use 1.2.2- Determine whether the subprocesses that are to be statistically managed, and were obtained from the organizational process assets are suitable for statistical management 1.2.3- Analyze the interaction of subprocesses to understand relationships among subprocesses and measured attributes of the subprocesses. 1.2.4- Identify the risk when no subprocess is available that is known to be capable of satisfying quality and process-performance objectives

SP 1.3 - Select Subprocesses to be Statistically Managed

1.3.1- Identify which of the quality and process-performance objectives will be statistically managed 1.3.2- Identify the criteria to be used in selecting subprocesses that are the main contributors to achieving identified quality and process-performance objectives and for which predictable performance is important. 1.3.3- Select subprocesses to be statistically managed using selection criteria. 1.3.4- Identify product and process attributes of selected subprocesses to be measured and controlled.

SP 1.4 - Manage Project Performance

1.4.1- Periodically review the performance and capability of each subprocess selected to be statistically managed to appraise progress toward achieving the project’s quality and process-performance objectives. 1.4.2- Periodically review actual results achieved against established interim objectives for each phase of the project lifecycle to appraise progress toward achieving the project’s quality and process-performance objectives 1.4.3- Track suppliers’ results for achieving their quality and process-performance objectives. 1.4.4- Use process-performance models calibrated with obtained measures of critical attributes to estimate progress toward achieving the project’s quality and process-performance objectives. 1.4.5- Identify and manage risks associated with achieving the project’s quality and process-performance objectives. 1.4.6- Determine and document actions needed to address deficiencies in achieving the project’s quality and process-performance objectives.

Productos de trabajo típicos

The project’s quality and process-performance objectives (SP 1.1) Criteria used in identifying which subprocesses are valid candidates for inclusion in the project’s defined process (SP 1.2) Candidate subprocesses for inclusion in the project’s defined process (SP 1.2) Subprocesses to be included in the project’s defined process (SP 1.2) Identified risks when selected subprocesses lack a process-performance history (SP 1.2)

Quality and process-performance objectives to be addressed by statistical management (SP 1.3) Criteria used in selecting which subprocesses will be statistically managed (SP 1.3) Subprocesses to be statistically managed (SP 1.3) Identified process and product attributes of selected subprocesses that should be measured and controlled (SP 1.3)

Estimates (predictions) of the achievement of the project’s quality and process-performance objectives (SP 1.4) Documentation of risks in achieving the project’s quality and process-performance objectives (SP 1.4) Documentation of actions needed to address deficiencies in achieving project objectives (SP 1.4)

Entrega del proveedor

Supplier process-performance data for quality and process performance objectives and expected service levels (SP 1.4)

SG 2 - Statistically Manage Subprocess Performance

SP 2.1 - Select Measures and Analytic Techniques

2.1.1- Identify common measures from the organizational process assets that support statistical management. 2.1.2- Identify additional measures that may be needed for this instance to cover critical product and process attributes of the selected subprocesses. 2.1.3- Identify the measures that are appropriate for statistical management. 2.1.4- Specify the operational definitions of measures, their collection points in subprocesses, and how the integrity of the measures will be determined. 2.1.5- Analyze the relationship of identified measures to the objectives of the organization’s and its projects, and derive objectives that state target measures or ranges to be met for each measured attribute of each selected subprocess. 2.16- Instrument the organizational or project support environment to support collection, derivation, and analysis of statistical measures 2.17- Identify appropriate statistical analysis techniques that are expected to be useful in statistically managing the selected subprocesses. 2.1.8- Revise the measures and statistical analysis techniques as necessary.

SP 2.2 - Apply Statistical Methods to Understand Variation

2.2.1- Establish trial natural bounds for subprocesses having suitable historical performance data 2.2.2- Collect data, as defined by the selected measures, on subprocesses as they execute 2.2.3- Calculate the natural bounds of process performance for each measured attribute 2.2.4- Identify special causes of variation 2.2.5- Analyze special cause of process variation to determine the reasons the anomaly occurred 2.2.6- Determine the corrective action to be taken when special causes of variation are identified 2.2.7- Recalculate natural bounds for each measured attribute of the selected subprocesses as necessary

SP 2.3 - Monitor the Performance of Selected Subprocesses

2.3.1- Compare quality and process-performance objectives to the natural bounds of the measured attribute 2.3.2- Monitor changes in quality and process-performance objectives and the process capability of the selected subprocess 2.3.3- Identify and document subprocess in capability deficiencies 2.3.4- Determine and document actions needed to address deficiencies in subprocess capability

SP 2.4 - Record Statistical Management Data

Productos de trabajo típicos

Definitions of measures and analytic techniques to be used in (or proposed for) statistically managing the subprocesses (SP 2.1) Operational definitions of measures, their collection points in subprocesses, and how the integrity of measures will be determined (SP 2.1) Traceability of measures back to the project’s quality and process-performance objectives (SP 2.1) Instrumented organizational support environment that support automatic data collection (SP 2.1)

Collected measurements (SP 2.2) Natural bounds of process performance for each measured attribute of each selected subprocess (SP 2.2) Process performance compared to the natural bounds of process performance for each measured attribute of each selected subprocess (SP 2.2)

Natural bounds of process performance for each selected subprocess compared to its established (derived) objectives (SP 2.3) The process capability of each subprocess (SP 2.3) The actions needed to address deficiencies in the process capability of each subprocess (SP 2.3) Statistical and quality management data recorded in the organization’s measurement repository (SP 2.4)

Productos de trabajo del Proveedor

Collected supplier measurements (SP 2.2) Natural bounds of supplier process performance for each measured attribute of each selected subprocess (SP 2.2) Supplier process performance compared to the natural bounds of process performance for each measured attribute of each selected subprocess (SP 2.2) Actions needed to address deficiencies in supplier process performance measures or quality measures for deliverables (SP 2.3)

ORGANIZATIONAL PROCESS PERFORMANCE

El propósito de Organization Process Performance (OPP), perteneciente al Nivel de Madurez 4, es establecer y mantener un entendimiento cuantitativo del performance del conjunto de procesos estándares de la organización, de acuerdo a los objetivos de calidad y de performance del proceso. Esta área de proceso tiene el propósito de suministrar datos acerca del performance del proceso, líneas de base y modelos para administrar cuantitativamente los proyectos de la organización.

El performance del proceso es una medida de los resultados actuales logrados por un proceso. El performance del proceso está caracterizado por las mediciones del proceso (esfuerzo, tiempo del ciclo, eficacia en la eliminación de defectos, etc) y del producto (confiabilidad, densidad del defecto, capacidad, tiempo de respuesta y costo).

La organización tiene proyectos y grupos de soporte que comparten mediciones, líneas de base de performance del proceso, y modelos de performance del proceso. La organización analiza los datos de performance del proceso y desarrolla un entendimiento cuantitativo de la calidad del producto, calidad del servicio, y performance del conjunto de procesos estándares de la organización.

OPP se relaciona con las siguientes áreas de proceso: QPM, MA y OPD. Los objetivos específicos (SG), prácticas especificas (SP) y subprácticas de esta AP son:

SG 1 - Establish Performance Baselines and Models

SP 1.1 - Select Processes

SP 1.2 - Establish Process Performance Measures

1.2.1- Determine which of the organization’s business objectives for quality and process performance should be addressed by the measures. 1.2.2- Select measures that provide appropriate insight into the organization’s quality and process performance 1.2.3- Incorporate selected measures into the organization’s set of common measures. 1.2.4- Revise the set of measures as necessary

SP 1.3 - Establish Quality and Process-Performance Objectives

1.3.1- Review the organization’s business objectives related to quality and process performance 1.3.2- Define the organization’s quantitative objectives for quality and process performance 1.3.3- Define the priorities of the organization’s objectives for quality and process performance. 1.3.4- Review, negotiate, and obtain commitment for the organization’s quality and process-performance objectives and their priorities from relevant stakeholders. 1.3.5- Revise the organization’s quantitative objectives for quality and process performance as necessary.

SP 1.4 - Establish Process Performance Baselines

1.4.1- Collect measurements from the organization’s projects. 1.4.2- Establish and maintain the organization’s process-performance baselines from collected measurements and analyses 1.4.3- Review and get agreement with relevant stakeholders about the organization's process-performance baselines. 1.4.4- Make the organization's process-performance information available across the organization in the organization's measurement repository. 1.4.5- Compare the organization’s process-performance baselines to associated objectives. 1.4.6- Revise the organization’s process-performance baselines as necessary.

SP 1.5 - Establish Process Performance Models

1.5.1- Establish the process-performance models based on the organization’s set of standard processes and the organization’s process-performance baselines. 1.5.2- Calibrate the process-performance models based on the organization’s past results and current needs. 1.5.3- Review the process-performance models and get agreement with relevant stakeholders. 1.5.4- Support the projects’ use of the process-performance models. 1.5.5- Revise the process-performance models as necessary.

Productos de trabajo típicos

List of processes or subprocesses identified for process-performance analyses (SP 1.1) Definitions of selected measures of process performance (SP 1.2) The organization's quality and process-performance objectives (SP 1.3) Supplier service levels based on quality and process-performance objectives (SP 1.3) Baseline data on the organization’s process performance (SP 1.4) Process-performance models (SP 1.5)

Productos de trabajo del Proveedor

Supplier’s process performance models (SP 1.5)

ME51 en mySAP SCM

La transacción ME51N de mySAP SCM permite la creación de una Solicitud de Compra (SC). La SC es un documento interno que abastece una cantidad de un material o servicio, el cual es utilizado en abastecimiento de material de consumo. La SC puede ser creada manual o automáticamente. La creación automática se realiza por medio del MRP, órdenes de mantenimiento u órdenes de producción.

La SC no tiene cabecera y no es un documento multilínea, la categoría de la imputación contable se especifica en el ítem overview. La imputación contable se puede cambiar de múltiple a simple. En caso de la imputación contable múltiple, se pueden distribuir los costro de ítem de una Orden de Compra (OC) en varios centros de costos. En este caso, os dato de imputación contable creados representan ítems de imputación contable individual. En la imputación contable múltiple se debe decidir si el valor del ítem será distribuido respecto de la cantidad o respecto del porcentaje (Indicador ‘GR non valuated’).

El sistema distribuye automática mente la cantidad solicitada proporcionalmente a los ítems de imputación contable existentes. Si se cambia la cantidad solicitada en el ítem overview, la cantidad es ajustada a los ítems de de imputación contable más relevantes. Cuando se cambia la cantidad o el porcentaje del ítem imputable, el sistema no puede ejecutar una distribución de manera automática.

Las SC tienen las siguientes características:

1- la categoría de imputación contable es desconocida (U) . Esta categoría no está permitida en las OC. Esta categoría no está permitida en las OC, solo en OC para servicios externos y OC en blanco. La valuación del precio puede ser con o sin registro maestro de material (RMM). 2- El estado de procesamiento del ítem (tab ‘Status’) tiene información sobre si el ítem ha sido ordenado, no ordenado o solicitado. Se tiene información sobre si el ítem ah sido convertido en un acuerdo.

Existen 2 opciones para convertir la SC en OC / Documentos de Compras (OC, contrato, Acuerdo, Solicitud de Cotización):

1- Asignar la fuente de suministro al ítem en la SC y convertir la SC en OC (manual o automáticamente) 2- No asignar la fuente de suministro al ítem en la SC y crear una OC con referencia al ítem de la SC

La conversión de la SC tiene las siguientes características:

1- ítems de la SC con categoría de imputación contable = U 2- tems de la SC con RMM donde el precio del info record es asignado o ingresado manualmente 3- ítems de SC sin RMM donde se tiene el precio de la valuación de la _SC. Este precio es adoptado en a OC como precio de la orden solo para ítem sin un RMM. En este caso no se ingresa un número de material, se ingresa una unidad de medida y se ingresa una categoría de imputación contable.

La confirmaciones son notificaciones para el proveedor acerca de la cantidad de material ordenado y arribo estimado. Los recibos tienen información acerca del lapso de entrega entre la fecha de la OC y la fecha de entrega esperada. Existen confirmaciones ingresadas en la OC y confirmaciones de documentos individuales. Cuando no se recibe una confirmación, se envía una notificación (indicador ‘Acknowledgement Requirements’).

Cuando la SC es creada o cambiada, se puede realizar el proceso automático de determinación de la fuente para un material sin RMM. En el caso de las solicitudes, el sistema sugiere fuentes de material para la OC sobre la base de la regulación por cuota, registros del libro de pedido, contrato marco y/o info record. Si no existen fuentes de suministro, el documento puede ser guardado como SC.

Existe la función ‘Create PO Vendor unknown’, la cual combina las fundones ‘Create PR and Create PO’.

La conversión de la SC en OC tiene 2 situaciones posibles:

1- ítems de con fuente de aprovisionamiento Se asigna una fuente de suministro y se elige conversión semiautomática o totalmente automática. La conversión semiautomática genera las líneas del plan de entrega.

2- ítems sin fuente de aprovisionamiento Se realiza la imputación y se procesan. El resultado de esto es un ítem de la OC con referencia a un contrato, info. Record, solicitud de cotización , contrato marco.

Un pre-requisito para la conversión semiautomática de la SC en OC/Scheduling agreement lines es asignar una fuente de aprovisionamiento a la SC. Se pueden convertir los ítems de la SC en OC en OC/Scheduling agreement lines. Los ítesm de la SC, para los cuales una fuente ha sido asignada, pueden ser convertidos en OC (automáticamente). Esta transacción puede ser ejecutada on line o background. Para la conversión automática de los ítems de la SC en OC, se debe asignar el indicador ‘Automatic PO’ tanto en el RMM como en el registro maestro de proveedor.

En las SC no asignadas se tienen ítems de la SC que no fueron asignadas a la fuente de suministro. Existe la imputación automática de la fuente apara todos los ítems seleccionados de la SC a partir de la lista de solicitudes abiertas. Se pueden guardar las solicitudes con fuentes asignadas o generar una lista de imputación en un segundo paso para convertir los ítems asignados en OC / Scheduling Agreement o Solicitud de Cotización.

La SC está asociada al material de consumo, a una categoría de imputación contable, una imputación contable simple / múltiple y a una fuente de suministro asignada.

Análisis de Datos

Los sistemas de análisis estadístico (también llamado análisis de datos) se usan para detectar patrones no usuales de datos. Estos patrones de datos se explican después, mediante modelos estadísticos y matemáticos. Algunas de las técnicas de modelado estadístico y matemático que se emplean son el análisis lineal y no lineal, el análisis de regresión, el análisis de univariación y multivariación, y el análisis de series históricas.

Las herramientas de análisis estadístico se utilizan en diversas aplicaciones empresariales: incrementar la participación en el mercado y las utilidades, detectando las mejores oportunidades, aumentar la satisfacción del usuario por medio del mejoramiento de la calidad en productos y servicios, e impulsar los márgenes a través de la modernización de la manufactura de productos y de la logística.

Estas herramientas deben evolucionar hasta el punto en donde puedan ser adoptadas con éxito y utilizadas por los analistas empresariales. Ellos necesitan seleccionar los datos correctos del datawarehouse, extraerlos y luego analizarlos. Las habilidades claves que se esperan de los analistas empresariales son: (1) experiencia en su campo y (2) capacidad para resolver problemas.

Los usuarios empresariales deben invocar las funciones de visualización y analítica, disponibles en la herramienta de análisis estadístico, para descubrir relaciones entre los datos y construir modelos estadísticos y matemáticos a fin de interpretar los datos. Se usa un proceso interactivo e iterativo para refinar el modelo; la meta consiste en desarrollar el modelo de mejor ajuste para convertir los datos en información.

Una de las aplicaciones del análisis de datos, es la “garantía del producto”, la cual se concentra en vigilar la calidad del producto y analizar los datos de reparaciones con garantía.

Las decisiones efectivas se basan en el análisis de datos y en la información. Beneficios que reporta:

- decisiones basadas en la información necesaria - mejora de la efectividad de las decisiones - mejora de la efectividad de revisar, cuestionar y cambiar opiniones y decisiones

Acciones que permite impulsar:

- garantizar que los datos y la información son suficientemente precisos y fiables - aumentar la accesibilidad de dichos datos e informaciones - análisis mejorado de los datos y la información - decisiones y actuaciones posteriores basadas en un equilibrio entre el análisis de los hechos y la experiencia e intuición.

Algunas de las técnicas clásicas de análisis de datos son: (1) Matriz de datos, (2) Medidas centrales (media, moda, mediana), (3) Medidas de dispersión (rango, varianza, desviación estándar), (4) Medidas de forma (histograma), (5) Distribución Normal, (6) Intervalos de Confianza y (7) Control Estadístico de Procesos.

Los resultados de aplicar estas técnicas se almacenan, por lo general, en una base de datos analítica llamada datawarehousing, la cual hace de soporte en el proceso de toma de decisiones.

Las consultas empresariales son el punto de partida para definir el esquema del datawarehouse.

Datawarehousing

Es un conjunto de datos integrados orientados a una materia, que varían en el tiempo y que son transitorios, los cuales soportan el proceso de toma de decisiones de una administración. También se lo denomina “almacén de datos”.

La calidad y la confiabilidad de los datos es la base de la confianza en el datawarehouse. Entre más alta sea la calidad de los datos, se usará más el datawarehouse para tomar decisiones en una empresa, y se aprovechará mejor la inversión en el datawarehouse. El datawarehouse debe contener información sobre la calidad de los datos, de tal forma que las decisiones se tomen con un absoluto conocimiento de causa y se manejen en forma adecuada.

El datamart es un datawarehousing específico, es decir, respecto de un determinado tema.

Los Objetivos del Datawarehousing son: (1) Integración logística, (2) Administración de relaciones, (3) Administración de riesgos, (4) Administración estratégica y (5) Nuevos mercados.

Bases de Datos Operacionales Vs Datawarehouse

Aspecto BD Operacionales Datawarehousing

Modelado de datos Elimina la redundancia, coordina las actualizaciones y soporta transacciones iguales durante varias veces en el día. Maneja un amplio rango de consultas y recupera información en forma periódica.

Normas Muchas normas para las actualizaciones consistentes y mantener la integridad referencial. Pocas normas para el acceso inmediato sin tener que realizar gran cantidad de uniones.

Datos - Operacionales - Operacionales e históricos

Almacenamiento - Muy pocos datos derivados - Muchos datos derivados

Contenido de la BD - Todos los datos - Solo datos que tienen valor a través del tiempo.

Detalle de los datos - Datos ligeramente resumidos - Datos muy resumidos Visión de la consulta empresarial

La visión de la consulta empresarial es la perspectiva de los datos del datawarehouse desde el punto de vista del usuario. La consulta empresarial es una solicitud de hechos, a veces llamados mediciones, a través de varias dimensiones. Las dimensiones son el tiempo, el producto y la ubicación. Mediante la organización del datawarehouse en estas dimensiones, se formula y satisface con facilidad la consulta empresarial.

DATAMINING

Data Mining, la extracción de información oculta y predecible de grandes bases de datos, es una poderosa tecnología nueva con gran potencial para ayudar a las compañías a concentrarse en la información más importante de sus Bases de Información (Data Warehouse). Las herramientas de Data Mining predicen futuras tendencias y comportamientos, permitiendo en los negocios tomar decisiones proactivas y conducidas por un conocimiento acabado de la información (knowledge-driven). Los análisis prospectivos automatizados ofrecidos por un producto así van más allá de los eventos pasados provistos por herramientas retrospectivas típicas de sistemas de soporte de decisión. Las herramientas de Data Mining pueden responder a preguntas de negocios que tradicionalmente consumen demasiado tiempo para poder ser resueltas y a los cuales los usuarios de esta información casi no están dispuestos a aceptar. Estas herramientas exploran las bases de datos en busca de patrones ocultos, encontrando información predecible que un experto no puede llegar a encontrar porque se encuentra fuera de sus expectativas. Muchas compañías ya colectan y refinan cantidades masivas de datos.

Las técnicas de Data Mining pueden ser implementadas rápidamente en plataformas ya existentes de software y hardware para acrecentar el valor de las fuentes de información existentes y pueden ser integradas con nuevos productos y sistemas pues son traídas en línea (on-line). Una vez que las herramientas de Data Mining fueron implementadas en computadoras cliente servidor de alta performance o de procesamiento paralelo, pueden analizar bases de datos masivas para brindar respuesta a preguntas tales como, "¿Cuáles clientes tienen más probabilidad de responder al próximo mailing promocional, y por qué? y presentar los resultados en formas de tablas, con gráficos, reportes, texto, hipertexto, etc.

Las técnicas de Data Mining son el resultado de un largo proceso de investigación y desarrollo de productos. Esta evolución comenzó cuando los datos de negocios fueron almacenados por primera vez en computadoras, y continuó con mejoras en el acceso a los datos, y más recientemente con tecnologías generadas para permitir a los usuarios navegar a través de los datos en tiempo real. Data Mining toma este proceso de evolución más allá del acceso y navegación retrospectiva de los datos, hacia la entrega de información prospectiva y proactiva. Data Mining está listo para su aplicación en la comunidad de negocios porque está soportado por tres tecnologías que ya están suficientemente maduras: (1) Recolección masiva de datos, (2) Potentes computadoras con multiprocesadores y (3) Algoritmos de Data Mining.

El nombre de Data Mining deriva de las similitudes entre buscar valiosa información de negocios en grandes bases de datos - por ej.: encontrar información de la venta de un producto entre grandes montos de Gigabytes almacenados - y minar una montaña para encontrar una veta de metales valiosos. Ambos procesos requieren examinar una inmensa cantidad de material, o investigar inteligentemente hasta encontrar exactamente donde residen los valores. Dadas bases de datos de suficiente tamaño y calidad, la tecnología de Data Mining puede generar nuevas oportunidades de negocios al proveer estas capacidades:

o Predicción automatizada de tendencias y comportamientos. Data Mining automatiza el proceso de encontrar información predecible en grandes bases de datos. Preguntas que tradicionalmente requerían un intenso análisis manual, ahora pueden ser contestadas directa y rápidamente desde los datos. Un típico ejemplo de problema predecible es el marketing apuntado a objetivos (targeted marketing). Data Mining usa datos en mailing promocionales anteriores para identificar posibles objetivos para maximizar los resultados de la inversión en futuros mailing. Otros problemas predecibles incluyen pronósticos de problemas financieros futuros y otras formas de incumplimiento, e identificar segmentos de población que probablemente respondan similarmente a eventos dados.

o Descubrimiento automatizado de modelos previamente desconocidos. Las herramientas de Data Mining barren las bases de datos e identifican modelos previamente escondidos en un sólo paso. Otros problemas de descubrimiento de modelos incluye detectar transacciones fraudulentas de tarjetas de créditos e identificar datos anormales que pueden representar errores de tipeado en la carga de datos.

Las técnicas de Data Mining pueden redituar los beneficios de automatización en las plataformas de hardware y software existentes y puede ser implementadas en sistemas nuevos a medida que las plataformas existentes se actualicen y nuevos productos sean desarrollados. Cuando las herramientas de Data Mining son implementadas en sistemas de procesamiento paralelo de alta performance, pueden analizar bases de datos masivas en minutos. Procesamiento más rápido significa que los usuarios pueden automáticamente experimentar con más modelos para entender datos complejos. Alta velocidad hace que sea práctico para los usuarios analizar inmensas cantidades de datos. Grandes bases de datos, a su vez, producen mejores predicciones.

Las bases de datos pueden ser grandes tanto en profundidad como en ancho: o Más columnas. Los analistas muchas veces deben limitar el número de variables a examinar cuando realizan análisis manuales debido a limitaciones de tiempo. Sin embargo, variables que son descartadas porque parecen sin importancia pueden proveer información acerca de modelos desconocidos. Un Data Mining de alto rendimiento permite a los usuarios explorar toda la base de datos, sin preseleccionar un subconjunto de variables.

o Más filas. Muestras mayores producen menos errores de estimación y desvíos, y permite a los usuarios hacer inferencias acerca de pequeños pero importantes segmentos de población.

Las técnicas más comúnmente usadas en Data Mining son:

o Redes neuronales artificiales: modelos predecible no-lineales que aprenden a través del entrenamiento y semejan la estructura de una red neuronal biológica. o Arboles de decisión: estructuras de forma de árbol que representan conjuntos de decisiones. Estas decisiones generan reglas para la clasificación de un conjunto de datos. Métodos específicos de árboles de decisión incluyen Arboles de Clasificación y Regresión (CART: Classification And Regression Tree) y Detección de Interacción Automática de Chi Cuadrado (CHAI: Chi Square Automatic Interaction Detection) o Algoritmos genéticos: técnicas de optimización que usan procesos tales como combinaciones genéticas, mutaciones y selección natural en un diseño basado en los conceptos de evolución. o Regla de inducción: la extracción de reglas if-then de datos basados en significado estadístico.

Muchas de estas tecnologías han estado en uso por más de una década en herramientas de análisis especializadas que trabajan con volúmenes de datos relativamente pequeños. Estas capacidades están ahora evolucionando para integrarse directamente con herramientas OLAP y de Data Warehousing.