Las 7 Nuevas Herramientas de La Calidad
Las 7 Nuevas Herramientas de La Calidad
Las 7 Nuevas Herramientas de La Calidad
En este resumen intentaremos dar a conocer en qué consiste cada una de ellas y cuáles son
sus aplicaciones principales. Las 7 Nuevas Herramientas de la Calidad son las siguientes:
Diagrama de Relaciones
Diagrama de Afinidad
Diagrama de Árbol
Diagrama Matriz
Matriz de Priorización
Diagrama de Proceso de Decisiones
Diagrama de Flechas
Diagrama de Relaciones
Esta herramienta es sumamente útil para el análisis de un problema en el cual sus causas se
encuentran relacionadas entre sí de manera compleja. Su implementación se realiza
generalmente de manera grupal mediante el uso de tarjetas.
Para comenzar, se define el problema a analizar y se lo escribe en una tarjeta que irá colocada
en el centro del diagrama. Luego, los integrantes del grupo deben colocar sus ideas aisladas
sobre posibles causas en tarjetas. Cuando se cuente con todas las tarjetas, se las debe agrupar
por similitud o relación entre sí. A las que se les determine una relación más directa con el
problema, se las considerará causas principales o primarias. Las tarjetas correspondientes
deberán ser colocadas cerca de la tarjeta central con el problema. Con el mismo criterio, cerca
de las causas primarias se deben colocar las tarjetas con mayor relación a ellas (causas
secundarias, terciarias, etc) alejándose del centro. Una vez distribuidas por completo las
tarjetas, se procede a relacionarlas entre sí mediante el criterio de causa-efecto, a través de
flechas. Esto permite representar la relación que pueda existir entre una causa y otra. Es decir,
si una causa es originada por otra causa.
Diagrama de Afinidad
Este diagrama es conocido también como Diagrama KJ por las iniciales de su
creador, Kawakita Jiro. Surgido en la década de 1980, constituye una herramienta esencial
para ordenar grandes cantidades de datos. El criterio utilizado es el de agrupar los datos en
función de la afinidad, de alguna relación que exista entre ellos. Esto permite clarificar mejor las
ideas a la hora de determinar la causa de un problema. En mucho de los casos, su resultado
puede no ser determinante pero sí orientativo. Es decir, puede no brindarnos la respuesta exacta
sobre la causa del problema, aunque sí guiarnos hacia la dirección correcta.
Una de las maneras más habituales de implementación de esta herramienta es también a través
del uso de tarjetas. Se forma un grupo de trabajo, con un moderador. Se plantea grupalmente
el tema a tratar y cada uno expresa sus ideas de manera escrita en tarjetas. Una vez que todas
las ideas son volcadas, se trabaja en grupo para agrupar todas las tarjetas según su afinidad.
En el siguiente gráfico podemos observar una distribución típica de las tarjetas, desde las ideas
sueltas en unbrainstorming, hasta su ordenamiento por afinidad:
Diagrama de Árbol
Esta es quizás una de las herramientas más sencillas, aunque no por eso menos útil. Permite
obtener una visión sistemática del problema (razón por la que también se lo conoce
como Diagrama Sistemático). Su estructura es similar a la del organigrama de una
organización en el que se plantea una relación jerárquica. En el nivel superior se coloca el
objetivo principal a alcanzar y luego se va desglosando en ramas. De cada objetivo se van
desprendiendo los medios posibles para alcanzarlo y un nuevo objetivo del cual se
desprenderán nuevos medios, y así sucesivamente. Una mejor comprensión puede obtenerse
a través del siguiente esquema:
La principal ventaja sobre los dos métodos anteriores es que el diagrama de árbol impide que
existan "cabos sueltos", exige una continuidad lógica en el análisis. Tanto en el Diagrama de
Afinidad como en el de Relaciones se agrupan datos por similitud y se establecen relaciones
entre causas identificadas. El problema es que no necesariamente, están todas las causas que
deberían estar. El diagrama de árbol ayuda a establecer una dependencia ininterrumpida como
una cadena.
Diagrama de Matriz
Es quizás la mejor manera de volcar gráficamente la relación que hay entre dos aspectos o
variables a analizar. Se pueden vincular opciones con criterios, causas con efectos, etc. Uno de
los aspectos se coloca en las filas de la matriz, y el otro en las columnas. En la celda que resulta
de la intersección de ambas se coloca generalmente un símbolo que suele representar el grado
de relación existente: fuerte, media o débil. Esto nos permite tener referencia del grado de
vinculación o conexión que existe entre ambos aspectos.
Las otras matrices disponibles son generalmente combinaciones de esta, entre las que se
encuentran:
La matriz tipo T (dos matrices L combinadas: un listado comparado en simultáneo con otros
dos).
La matriz tipo X (cuatro matrices L combinadas: cuatro listados, comparados cada uno con
otros dos, de a pares):
Luego se encuentran otras combinaciones para tres listados: La matriz tipo Y (tres matrices L
combinadas: cada listado comparado con los otros dos) y la matriz tipo C (los tres listados
comparados entre sí, en simultáneo, dando un gráfico en tres dimensiones).
De izquierda a derecha: Matriz tipo C y matriz tipo Y
Matriz de Priorización
Esta herramienta se utiliza para escoger entre varias opciones, en función de criterios
predefinidos y de manera ponderada. El grupo de trabajo es quien determina cuáles son las
opciones disponibles y qué criterios se tendrán en cuenta. Estos criterios deben ser diferentes
entre sí. Es importante escoger un número prudente de criterios, sólo los más importantes, para
reducir la complejidad del análisis. Tres o cuatro criterios suelen ser aceptables. Para elaborar
una Matriz de Priorización, en primer lugar, se debe definir claramente el objetivo. Luego se
deben determinar las opciones disponibles. A continuación, se deberán especificar los criterios
sobre los cuales se decidirá. Seguramente no todos los criterios tienen igual importancia (igual
"peso"). Por lo tanto, se deben ponderar los criterios para que no todos impacten de igual
manera a la hora de tomar la decisión final.
Un ejemplo de Matriz de Priorización es el que vimos en una publicación anterior con un caso
práctico: laMatriz de Pugh.
Diagrama de Proceso de Decisiones
Es una herramienta, también conocida por las siglas PDPC (Process Decision Program Chart)
muy útil para detectar posibles obstáculos o inconvenientes al implementar un plan de acción,
permitiéndonos tomar decisiones a tiempo para solucionarlos. Se parte desde la actividad inicial
y se va descendiendo. En primer lugar encontramos a las fases, que son las tareas
fundamentales que deben realizarse para alcanzar el objetivo. De cada una de ellas se plantean
problemas que puedan surgir (problemas potenciales) los cuales aparecen en el nivel inmediato
inferior. Para cada problema se determinan medidas para contrarrestarlos. Las medidas
aparecen en el nivel inferior. Si la medida es efectiva, se coloca un círculo (O) debajo. Si no lo
es, una cruz (X). Se implementan, entonces, sólo las medidas que llevan un círculo.
Diagrama de Flechas
El Diagrama de Flechas se utiliza para representar de manera gráfica una red compuesta por
la secuencia lógica de las actividades que se precisan realizar para resolver un problema o
alcanzar una meta. Nos permite, por ejemplo, determinar posibles "cuellos de botella" o hallar
los caminos más cortos.
Como en todos los casos, antes de comenzar el grupo de trabajo debe identificar claramente
cuál es el objetivo del uso de la herramienta y definir los límites y el alcance. Los eventos o
situaciones son representadas por círculos y las actividades necesarias para pasar de un evento
a otro, por flechas.
Es muy habitual encontrar este tipo de gráficas en la gestión de proyectos, en donde se suelen
utilizar dos técnicas muy importantes: PERT (Program Evaluation and Review Technics)
y CPM (Critical Path Method). PERT es básicamente una técnica utilizada para revisar y evaluar
proyectos, en donde el parámetro principal a evaluar es el tiempo que se utiliza para realizar
cada tarea, siempre en búsqueda de su optimización. CPM también persigue el mismo fin,
intentanto determinar la "ruta" más corta para alcanzar el objetivo (completar el proyecto).
Hablaremos, en mayor detalle, sobre estas dos técnicas en otra publicación.
En resumen....
Las 7 Nuevas Herramientas de la Calidad no son en realidad tan nuevas, sólo seguimos
utilizando el término para diferenciarlas de las clásicas. En todos los casos, se trata de un
conjunto de herramientas sumamente poderoso y versátil. La posibilidad de ser utilizadas en
infinidad de actividades, en un sinnúmero de aplicaciones, las hace imprescindibles. Su vigencia
es absoluta. Sólo debe seleccionarse la más adecuada para cada necesidad. En futuras
publicaciones seguiremos profundizando este tema a través de ejemplos y aplicaciones.
DIAGRAMA DE AFINIDAD
2.1 INTRODUCCIÓN A LAS 7 NUEVAS HERRAMIENTAS
INTRODUCCIÓN
En los años 70, un comité de la unión japonesa de científicos e ingenieros (Japanese Unión Of
Scientist And Engineers JUSE) analizó un gran conjunto de técnicas y herramientas de gestión
existentes seleccionados de entre ellas las denominadas “siete nuevas herramientas de gestión y
planificación”.
Con posterioridad a su selección, estas siete herramientas han mostrado su utilidad en todo el
mundo, habiéndose introducido en los Estados Unidos por el gabinete GOAL (Gorwth Opportunity
Alliance of Lawrence)a mediados de los 80, utilizándose de forma sistemática en la aplicación del
despliegue de la función Calidad (Quality Function Deployment, QFD).
La mejora continua de la calidad es una estrategia de dirección que a través de una serie de
actividades logra crear un habito de mejora continua en todo los procesos, tanto de fabricación como
de gestión aumentando la eficacion de la empresa y por lo tanto su competitividad.
En un programa de mejora continua es crítico para el éxito del programa seguir el ciclo de mejora de
la calidad o “rueda de Deming”:
• Planificar
• Hacer
• Comprobar
• Actuar
Las siete nuevas herramientas comprenden una metodología, cuya eficiencia ya ha sido probada
en todos los sectores empresariales del mundo, para abordar la fase de planificación de la citada
rueda de Deming.
Esta segunda generación de herramientas son además, capaces de tratar con datos de “topo de
ideas u opiniones”. Datos por lo general de tipo cualitativo y de difícil tratamiento.
Es necesario mencionar que estas herramientas son conocidas en ocasiones por otras
denominaciones (p.e. el diagrama de proceso de decisión también es conocido como diagrama de
decisión de acción). Y que han sufrido en ocasiones modificaciones y en otras ocasiones se les han
añadido otras herramientas complementarias, como por ejemplo el método de jerarquización d
Saaty.
Lo cierto es que estas herramientas promueven la creatividad y son susceptibles de adaptarse a las
distintas problemáticas que se puedan presentar, por lo que, salvo en lo que concierne al fondo (los
conceptos claves en, los que se basa su utilización), sus usuarios no deben sentirse limitados ni en
la forma ni en le numero de herramientas a utilizar.
DIAGRAMA DE AFINIDAD
El diagrama de afinidad (DA) es la herramienta básica del conjunto de las siete herramientas.
También es conocida con el nombre de “Método KJ” (Kawatika JIro es la persona que lo desarrollo).
Esta herramienta se utiliza para conseguir gran cantidad de datos en forma de ideas, opiniones,
temas, aspectos a considerar y organizarlos en grupos en base a criterios afines de relación natural
entre cada elemento.
Al igual que sucede con las herramientas Tormenta de ideas (herramienta pertenece a las siete
herramienta clásicas), no solamente es necesario tener en cuenta esta ventaja en lo que a eficacia
se refiere. Existe otra ventaja fundamental relacionada con la participación de las personas en la
actividad del grupo. En una reunión clásica, muchas ideas se pierden en el “calor” de la discusión,
no siendo nunca consideradas. Sin embargo todos los participantes en un DA, al descubrir una vía
de aplicación de sus ideas en la solución del problema o el proceso en cuestión, sienten que tienen
un papel en este proceso, que son” Co-responsables” de las decisiones tomadas y su participación
será mucho mas atractiva.
Como resumen, el objetivo DA es analizar gran cantidad de datos en forma de ideas e identificar las
ideas claves inherentes a los datos. Con términos de cocina, diríamos que el DA permite al equipo
“reducir” una gran cantidad de datos en un conjunto manejable de ideas claves.
b) Debido a la gran cantidad de incidencias detectadas, estas impidan determinar con claridad las
causas concretas de la situación.
c) Sea conveniente utilizar un nuevo enfoque, tanto en la actuación como en el análisis de un tema.
El DA permitirá al grupo romper con los conceptos tradicionales, ampliando su campo de
pensamiento.
d) No se conozcan de forma clara los datos a dar para salir de una determinada situación, siendo
necesario una ayuda para poner en marcha con éxito una solución.
El diagrama de relaciones es, junto con le diagrama de afinidad, una herramienta que se utiliza en
la planificación general. A diferencia del diagrama de afinidad, el diagrama de relaciones utiliza el
lado lógico del cerebro. Determina que idea tiene influencia sobre otra, respetando esta relación
mediante una flecha en la dirección de la influencia.
Las ideas unidas por flechas de este tipo formando un gráfico que puede ser interpretado
identificando aquellas ideas que tiene la mayoría de las flechas saliendo de ellas o aquellas ideas
que tienen la mayoría de las flechas entrando en ellas. Igual que el diagrama de afinidad, su objetivo
es identificar las distintas categorías en las que pueden agruparse las ideas representadas, siendo
de gran utilidad realizar un diagrama de afinidad y un diagrama de relación a partir de un mismo
conjunto de ideas, comparando los resultados obtenidos.
DIAGRAMA DE ARBOL
MATRICES DE PRIORIZACIÓN
Esta herramienta se utiliza para establecer prioridades en tareas, actividades o temas, en base a
criterios de ponderación conocidos. Utiliza una combinación de dos de las técnicas expuestas, el
diagrama de árbol y el diagrama matricial, reduciendo la opciones posibles a aquellas más eficientes
y deseables esta herramienta reemplaza a la herramienta conocida como “Análisis Matricial” de datos
que formaba parte del conjunto inicial de las siete herramientas de gestión y planificación.
DIAGRAMA MATRICIAL
El diagrama matricial es quizá la herramienta mas utilizada de las siete. Esta herramienta enfrenta
dos conjuntos de ideas y las compara con el objetivo de decidir si existe correlación entre ellas. En
el diseño uno de los mayores problemas es que por lo general se olvidan algunas cosas.
El grafico matricial ayuda aprevenir estos olvidos siendo utilizado ampliamente en el desarrollo del
Despliegue de la función Calidad (QFD). Esta herramienta se relaciona con el diagrama de árbol,
siendo practica habitual en le QFD utiliza las ideas componentes del diagrama de árbol como las
filas y /o columnas del diagrama matricial.
DIAGRAMA DE PROCESO DE DECISIÓN
El diagrama del proceso de decisión es una herramienta utilizada por lo general con posterioridad a
la construcción de un análisis del Árbol de Fallos. Ambos gráficos tienen en común la capacidad de
detectar aquello que puede fallar en el proceso haciéndolo en ya conocido formato de árbol. La
diferencia fundamental consiste en q el diagrama de proceso de decisión relacionada de forma
explicita las contra medidas para todo aquello que puede fallar. Esta herramienta suele utilizarse
en la planificación de actividades con emprendidas con anterioridad, la actividad consiste en
identificar y registrar todo lo que puede fallar mejora sustancialmente la probabilidad de tener éxito
en el proyecto abordado. El diagrama del proceso de decisión también es similar al diagrama de
árbol con la diferencia de que el primero se desarrolla con un enfoque secuencial.
DIAGRAMA DE FLECHAS
El diagrama de flechas es una herramienta muy similar al PERT (Program Evaluation Review
Technique) o al CPM (Critical Merhod Path). La diferencia fundamental es que tratándose de un
método muy simplificado puede ser utilizado por la mayor parte de las personas de la organización.
Muchas personas conocen la existencia del método PERT o el CPM pero solo una pequeña parte
de ellas lo utilizan debido a su complejidad. El diagrama de flechas muestra los caminos paralelos
existentes a la hora de desarrollar una actividad. El propósito de esta herramienta es determinar cual
es el tiempo mínimo posible en la realización de un proyecto representando gráficamente todas
aquellas actividades que puedan realizarse de forma simultanea.
José Francisco Villar Barrio. Las 7 nuevas herramientas para la mejora de la calidad. , 2da
Edición PP.9-12.
Las 7 nuevas herramientas de la
Gestión de la Calidad
Keila Yeritze Rojas Gutiérrez
Administración
03.10.2016
3 minutos de lectura
BÁSICAS[1]
El Control de Calidad tuvo su origen en la producción industrial masiva de principios del siglo XX, el
desarrollo de los métodos de producción en cadena planteó el primer problema de calidad, en cuanto
que ésta estaba ligada a la conformidad con las especificaciones de los productos y sus
componentes: a una más alta conformidad (calidad), correspondería un número menor de desechos
y reprocesos, con lo que el coste del proceso productivo, y del producto, se reduciría.
Surgen entonces los primeros procedimientos de control de calidad. La función de calidad, bajo esta
óptica clásica, se limita a la realización de una serie de observaciones que tienen como objetivo la
verificación de la concordancia de los diferentes dispositivos y componentes a su especificación,
previamente establecida. Los resultados de las observaciones permitirían separar el producto
aceptable del no aceptable mediante la inspección final del producto ya terminado.
En Estados Unidos, el liderazgo de Frederick Taylor y su “dirección científica” (Taylor, 1911) supuso
la separación entre la planificación del trabajo y su ejecución: la planificación era realizada por
distintos especialistas mientras que los capataces y operarios ejecutaban la planificación hecha por
aquellos.
Desde el punto de vista del control de calidad, también se segregó la producción de la inspección.
Se crearon entonces departamentos de inspección, llamados de “Control de Calidad” o de
“Aseguramiento de la Calidad”, con la finalidad de separar los productos buenos de los defectuosos
de forma que éstos no llegaran al cliente.
Si bien el aumento de la productividad fue evidente, se fomentó la idea de que la calidad era materia
de los departamentos especializados en la inspección de la calidad. El concepto subyacente de
gestión de la calidad era que cada departamento funcional entregaba su producto al siguiente y,
finalmente, el departamento de calidad separaba la producción correcta de la incorrecta.
En el desarrollo de los métodos de control de calidad se produjo un salto cualitativo con los estudios
de Walter A. Shewhart, que entonces trabajaba en los Laboratorios Bell Telephone, quien a partir de
la década de 1920 inició el perfeccionamiento del control de la calidad introduciendo el muestreo
estadístico de los procesos. Definió el control de calidad en términos de variación provocada por
causas asignables y causas aleatorias[2] e introdujo los gráficos de control de proceso como una
herramienta para distinguir entre los dos tipos de variaciones.
El control de calidad se desplaza entonces de la mera inspección final del producto, al control
estadístico del proceso con el fin de determinar cuándo un proceso está sometido a variaciones en
su comportamiento, tales que su resultado derivará en producto defectuoso, es decir, fuera de los
límites de las especificaciones establecidas en el diseño.
Shewhart hizo hincapié en que los procesos de producción deben ser controlados estadísticamente,
de forma que sólo existan variaciones de causas ocasionales o aleatorias, para así mantenerlos bajo
control. Sus trabajos fueron expuestos en Economic Control of Quality of Manufactured
Products (Shewart, 1931).
La Introducción del Control de Calidad en Japón
Durante la II Guerra Mundial, la industria de Estados Unidos llevó a cabo la producción de gran
cantidad de material militar, para uso propio o para entrega a los aliados. Muchos de esos productos
empleaban una tecnología nueva y sofisticada, por lo que era necesario asegurar su calidad. Los
métodos estadísticos de control de calidad fueron entonces intensamente desarrollados en lo que
supuso un fuerte impulso al moderno control de calidad.
En Japón, antes de la II Guerra Mundial, la aplicación del control de calidad era escasa. Japón
elaboraba productos de baja calidad que eran vendidos a bajo precio. Tras el conflicto bélico, la
ocupación militar del país por parte de Estados Unidos supuso el estímulo del moderno control de
calidad, centrándose al principio en el sector de las telecomunicaciones al necesitar los militares
estadounidenses que estos servicios funcionaran adecuadamente por razones logísticas, para
extenderse posteriormente a otro tipo de industrias.
En 1954, Joseph M. Juran visita Japón e imparte una serie de seminarios dirigidos a niveles
directivos altos y medios, sensibilizándolos acerca de su papel en el control de la calidad. Esta visita
de Juran marcó “una transición en las actividades de control de calidad en Japón” (Ishikawa,
1985), en el sentido de no limitarlas a ingenieros y empleados de la línea operativa, sino de
extenderla a toda la empresa, dando paso a lo que se denominó “control total de calidad”.
Esta perspectiva pone el énfasis en la participación total; en la cooperación de todos los
departamentos y empleados. El control de calidad no ha de limitarse a la inspección, para evitar que
los procesos generen productos defectuosos, y a los departamento de producción, sino que ha de
extenderse a todas las actividades de la organización: desde el diseño de productos, a la fabricación,
la garantía posventa, los subcontratistas y el resto de actividades auxiliares o de soporte, como la
contabilidad o la administración del personal. Un planteamiento en el que puede reconocerse lo que
más tarde se denominaría Gestión de la Calidad Total.
Desde el enfoque japonés, control de calidad total significa la participación de todo individuo en el
control de calidad, y no únicamente de especialistas en calidad, de personal de producción o de
miembros de la dirección.
En 1968 Ishikawa propone un conjunto de técnicas estadísticas sencillas para ser aplicadas por los
círculos de calidad. Según Ishikawa, con las siete herramientas básicas es posible resolver el 95%
de los problemas que presenta una organización, sobre todo en el área de producción (Ishikawa,
1986).
Las Siete Herramientas Básicas de la Calidad
Estas herramientas, que posteriormente fueron denominadas “las siete herramientas básicas de
la calidad”, pueden ser descritas genéricamente como métodos para la mejora continua y la solución
de problemas.
Las siete herramientas básicas de la calidad son:
Diagrama Causa – Efecto. Ayuda a identificar, clasificar y poner de manifiesto posibles causas,
tanto de problemas específicos como de efectos deseados.
Hoja de Comprobación. Registro de datos relativos a la ocurrencia de determinados sucesos,
mediante un método sencillo.
Gráficos de Control. Herramienta estadística utilizada para controlar y mejorar un proceso
mediante el análisis de su variación a través del tiempo.
Histograma. Gráfico de barras verticales que representa la distribución de frecuencias de un
conjunto de datos.
Diagrama de Pareto. Método de análisis que permite discriminar entre las causas más importantes
de un problema (los pocos y vitales) y las que lo son menos (los muchos y triviales).
Diagrama de Dispersión. Herramienta que ayuda a identificar la posible relación entre dos
variables.
Estratificación. Procedimiento consistente en clasificar los datos disponibles por grupos con
similares características que muestra gráficamente la distribución de los datos que proceden de
fuentes o condiciones diferentes.
El éxito de estas técnicas radica en la capacidad que han demostrado para ser aplicadas en un
amplio rango de problemas, desde el control de calidad hasta las áreas de producción, marketing y
administración. Las organizaciones de servicios también son susceptibles de aplicarlas, aunque su
uso comenzara en el ámbito industrial.
Estas técnicas pueden ser manejadas por personas con una formación media, lo que ha hecho que
sean la base de las estrategias de resolución de problemas en los círculos de calidad y, en general,
en los equipos de trabajo conformados para acometer mejoras en actividades y procesos.
[1] El contenido de este post está basado en la publicación: Talavera Pleguezuelos, C: “Métodos y
Herramientas de Mejora aplicados en la Administración Pública” Ed: Unión Iberoamericana de
Municipalistas. Granada, 2013. (ISBN: ISBN: 978-84-937777-6-0). Está por tanto protegido por
derechos de autor, no autorizándose su reproducción sin autorización expresa y por escrito del autor.
[2] Las causas aleatorias de variación son causas desconocidas y con poca significación, debidas al
azar y presentes en todo proceso. Las causas asignables (específicas o imputables) no deben estar
presentes en el proceso. Provocan variaciones significativas. Las causas aleatorias son de difícil
identificación y eliminación. Las causas específicas, o asignables, sí pueden ser descubiertas y
eliminadas, para alcanzar el objetivo de estabilizar el proceso.
Las 7 Nuevas Herramientas
¿Qué son las 7 nuevas herramientas?
Origen y Justificación
Dentro del variado espectro de las herramientas de gestión utilizadas en los procesos de
Mejora Continua y normalmente reconocidas como de resolución de problemas, existen dos
macro enfoques que la literatura sobre el tema diferencia claramente[1].
El primero de estos enfoques esta referido a las situaciones, tal ves más convencionales,
donde la información está disponible y por lo tanto el mayor esfuerzo de los grupos de
mejora reside en organizar y analizar los datos con un enfoque sistemático que permita
obtener conclusiones diagnósticas.
Este tipo de enfoque generalmente aplica a áreas de producción y es bien conocido a través
del ciclo PDCA (Plan, Do, Check, Act)[2] y las siete herramientas básicas[3] que, entre otras,
permiten obtener resultados muy satisfactorios en estas circunstancias.
Estas herramientas, muy tradicionales en las aplicaciones realizadas por los equipos de
mejora en todo el mundo (originalmente los círculos de control de calidad Japoneses de la
década del 60`), tienen, sin embargo, alguna ambigüedad en su constitución como grupo.
Las diferentes listas de siete herramientas se suceden en los libros especializados,
manteniendo este número de componentes como factor común, pero variando la integración
de manera leve, según sea el autor y la tendencia.
La lista original de JUSE (Unión Japonesa de Científicos e Ingenieros)[4], contemplaba las
siguientes herramientas:
Existe una clara relación entre las herramientas básicas, el mencionado ciclo PDCA y los,
usualmente denominados “7 pasos QC” (una secuencia lógica y sistemática para aplicar el
método científico a las etapas de detección, análisis y resolución de problemas)[7]
Correlación entre herramientas básicas y pasos del ciclo de mejora
Las herramientas de este primer grupo han sido masivamente utilizadas por millones de
equipos de mejora en todo el mundo. Si bien las aplicaciones han alcanzado a todos los
niveles organizacionales (desde operarios hasta gerentes), es más común su utilización en los
niveles medios y bajos, que conforman mayoritariamente a los equipos de mejora.
1. Diagrama de relaciones
2. Diagrama de afinidad (Método KJ)
3. Diagrama sistemático o de árbol
4. Diagrama matriz
5. Matriz de análisis de datos
6. PDPC (process decision program chart); Diagrama del proceso de decisiones
7. Diagrama de flechas
Su utilización debe ser entendido dentro del marco de lo que comúnmente se conoce como
mejora proactiva. Es decir, aquellas situaciones donde los cursos de acción posible son varios
o no están claros y los datos existentes no pueden, desde su organización o análisis
estadístico, establecer un diagnóstico indubitable.
El enfoque sistemático de los procesos de Mejora Continua, puede dividirse en tres fases con
distintas características y diferentes alternativas en cuanto a herramientas diagnósticas.
El control de procesos, alude fundamentalmente al concepto estadístico de “estado de
control”, permitiendo establecer los límites, dentro de los cuales la variabilidad esta
definida y puede ser garantizada.
La mejora reactiva, se aplica en cambio a aquellas circunstancias donde la evidencia, a
partir de los datos disponibles, muestra la necesidad de cambios para modificar uno o varios
resultados de manera beneficiosa. La palabra “reactiva”, debe interpretarse aquí como una
reacción frente al requerimiento que puede provenir de distintas fuentes (los clientes, el
proceso, la tecnología, los materiales, los métodos, etc.).
Finalmente el escenario de la mejora proactiva, como ya fue definida, se plantea como una
manera de enfrentar aquellas situaciones más desafiantes, donde ni la información, ni los
paradigamas instalados, permiten establecer con claridad las acciones necesarias para la
mejora, o incluso, empeorando lo dicho, tanto los datos como los hábitos y preconceptos
aceptados descartan la posibilidad de cambios beneficiosos, con argumentos aparentemente
lógicos y basados en la experiencia de los actores.
Es interesante analizar con algo más de detalle la importancia del punto que se está aquí
planteando. Las fases de control de proceso y mejora reactiva previamente comentadas, son
indudablemente, un avance significativo con relación a los tradicionales métodos de prueba
y error, para la resolución de problemas crónicos. Si embargo, actúan dentro del marco de
los paradigmas instalados y es, por lo tanto, poco probable que resulten en cambios
“revolucionarios”.
Thomas Kuhn (1962), en su libro “La estructura de las revoluciones científicas”, es sin duda
quien mejor explica el concepto de paradigma. Si bien todas sus argumentaciones están
referidas a la evolución científica, no resulta complicado trasladar estos conceptos al campo
organizacional.
La idea de Kuhn de progreso se establece alrededor del concepto de “capacidad para
resolver problemas”. La incapacidad de un “viejo” paradigma para resolver problemas
importantes permitirá su reemplazo por uno nuevo, aún cuando dicho reemplazo no se
asume como algo natural o exento de dificultades, ya que el nuevo paradigma enfrentará
severas resistencias y se le exigirá que satisfaga la resolución de algún nuevo problema
extraordinario (que el viejo paradigma no podía explicar), sin dejar por ello de resolver los
problemas que si eran resueltos por el viejo paradigma.
Esta descripción es fácilmente trasladable al plano empresario, donde la mejora del proceso
/ producto deberá mostrar su capacidad para mejorar drásticamente los resultados (en el o
los aspectos bajo estudio), sin dejar por ello de atender y mantener aquellas cuestiones que
ya estaban precedentemente resultando satisfactorias.
Para nosotros, y si bien los términos son ajenos a la literatura “Kuhniana”, se puede
diferenciar aquí claramente, los alcances de nuestros enfoques para la mejora reactiva
(dentro del paradigma) y la mejora proactiva como un intento, al menos, de establecer o
alcanzar un cambio revolucionario que transgreda las fronteras de los hábitos y usos
establecidos.
Se confirma aquí por lo tanto la posible defensa de una postura más asociada al realismo
metafísico que al idealismo anteriormente enunciado.
Existe un mundo independiente del observador, sin embargo, la observación y el conocimiento
que de ella se desprende, está condicionado por el paradigma a través del cual se accede.
Gaeta y Gentile (1998), asocian esta dualidad Kuhniana, con las ideas de Kant en cuanto a la
realidad fenoménica (el mundo que es percibido por el sujeto observador), conviviendo con la
realidad nouménica (la realidad en si mismo).Según expresan estos mismos autores y tal como
se desprende de lo anteriormente comentado, la diferencia principal estaría en que, para
Kant, existe un único mundo fenoménico, mientras que para Kuhn, los “mundos
construidos” son múltiples y dependen de los paradigmas que le dan acceso.
Podríamos finalmente concluir que, para Kuhn, existe un mundo real externo independiente
de cualquier tipo de observación o conocimiento científico. Este mundo es inaccesible para el
observador y por lo tanto la “verdad” es inalcanzable. Sin embargo, los paradigmas dominantes
nos permiten construir un mundo, dentro de su contexto y con reglas inteligibles y aceptables
en ese ámbito.
Entender estos conceptos nos permiten establecer, con cierto grado de realismo, las
dificultades inherentes al logro de cambios significativos dentro de escenarios con fuertes
paradigmas instalados. Las técnicas proactivas y las 7 nuevas herramientas como instrumentos
de las mismas, apuntan a generar un enfoque metodológico válido para recorrer tan difícil
camino. Las experiencias acumuladas indican que es posible.
No existe para este “set” de herramientas una secuencia preestablecida, como ocurre en el
caso de las herramientas básicas, que permitan su utilización secuencial en diferentes
circunstancias. De hecho, en mucho casos, algunas de ellas pueden utilizarse en forma
aislada para atender la necesidad de una situación particular.
Una breve descripción de cada una nos permitirá entender mejor su posible uso y la
aplicación desarrollada en este trabajo.