Archive for Uncategorized






The aspiration of the various segments of the population is to raise their standard of living and improve their quality of life. This represented an improvement in the quality of basic goods and the variety and quantity of goods available. This has resulted in the scope of the industrial engineer is increasingly broad and covers mainly those needs. May be asked how and the answer is very simple you will need to maximize resource efficiency or improve productivity so that a society or nation can raise their standard of living. I think much of the above activity is summarized as a professional engineer.



The process of comparing and measuring operations or internal processes of an organization versus a better representative of their class and its sector. Different degrees of effectiveness and efficiency recorded among the various sectors of a company, make it possible to implement internal benchmarking processes and discover the best practice of the organization. ”
It is a systematic, continuous research and learning to evaluate products, services and work processes of organizations that are recognized as representing best practices in order to make organizational improvements.

Method for setting goals and productivity measures based on best industry practices.
Benchmarking is the continuous process of measuring products, services and practices against the toughest competitors or those companies recognized as leaders in the industry. (David T. Kearns, Xerox, Corporation).


At present the challenge of Venezuelan industry, better use of its resources to achieve the highest quality product with a required quantity production company. To do this it is necessary to ensure availability through maintenance of equipment taking into account new technological developments, which provide revolutionary ideas.

Engineering, is of vital importance for the industrial development of a country is responsible for organizing, planning, monitoring and implementing all those actions that are necessary for continuous production, conservation and high efficiency machines. Therefore, the maintenance using knowledge from other specialties in order to achieve its objective.

Aware of technological progress and increased maintenance costs, are common in a company structure, the use of large resources without commensurate results to them, making unexpected returns.


Mathematics for assessing the quality of football teams.

A team of U.S. researchers at Northwestern University have invented an mathematical algorithm that allows to evaluate the professionalism and quality of play of a football team regardless of football statistics.

The study, published in the journal PLoS One, stresses that soccer, unlike baseball, basketball or hockey, is a statistic “very poor” quality of play, which is reduced to the names of who scored the goal and which passed the ball in a particular match. To remedy that, the project manager, Portugal’s Luis Amaral, Northwestern and co-proposed a new technique to evaluate the play of a football team that takes into account the contribution of each player at the final result, as well as the complex interactions between them.

From this technique, the researchers developed a software that records successful passes and the passing combinations that end with a shot on goal, whether the result is a goal or not. “A goal is not just about art, but also lucky,” Amaral explained, while clarified that, as a final result, the program calculates the level of professionalism of the team as each of its players.

Analysing in this way matches the European Cup 2008, scientists developed a classification of the selections coincided with the outcome of the tournament. Amaral now wants to use his algorithm to evaluate the performance of national teams in World Cup which takes place these days in South Africa.

This algorithm also allows analysis teamwork in other fields, such as research, artistic creativity or business.


How do 3D glasses?

There are various types of 3D glasses on the market. On the one hand the typical two-color glasses, known as anaglyph glasses and other passive and active. 3D movies like Avatar, which viewers have enjoyed in the rooms usually displayed passive glasses, while the new 3D TV requires active glasses. What are the differences between each other?

The first glasses to see 3D glasses were anaglyph, the typical eyeglasses two different colors. This difference in the color of the glasses serves to filter so they receive different colors eyes. As explained by a Sony technician during the presentation of 3D TV, “really would not have to always be red and green, because the important thing is that the colors are completely opposite in the color wheel.” Thus, it may be that a lens color was yellow and one purple and one blue and one orange.

With the evolution of technology and improving the quality of three-dimensional imaging has also led to the development of new visualization systems. This is the case of polarized glasses. In the film two projectors polarize the light from a different angle for each eye, so glasses to decode these images provide more quality.

The problem is that this system can not be applied to televisions, as the filter built into the front of the screen only allows the reproduction of half the content and brightness. Moreover, as point from Panasonic, “another of the disadvantages of this format is the limited viewing angle, and that users should hold their head up to avoid causing eyestrain double wrap.”
Active 3D glasses

It is for them that experts and researchers have had to resort to other techniques to make the 3D comes to conventional televisions. The active glasses are the solution. This type of eyewear incorporates an infrared sensor that synchronizes the images alternate on the screen so that the left eye sees only the left and the right perspective right. In fact simply synchronizes the infrared image to be displayed for each eye, the true causes of the display or not the image are the LCD crystals containing the active shutter glasses and rapidly alternating images on the screen. The flickering and image change from one to another eye occurs so fast that the brain fails to notice the change and interprets it as a single three-dimensional image.

The price of this technology is still very active glasses high. Each unit, according to Sony, one of the brands most are betting on this technology, will cost around 100 euros. Still, the brand also reported that the launch two glasses and a transmitter will cost around 200 euros.

Leave a comment »

Unidad 4 y 5



Para competir a nivel mundial, las compañías de manufactura ahora requieren de políticas, practicas y sistemas que eliminen el desperdicio y logren crear valor para el cliente, donde el valor es percibido por los clientes como una combinación de costo, calidad, disponibilidad del producto, servicio, confiabilidad, tiempo de entrega, entregas a tiempo, etc. Ser de clase mundial significa que la compañía puede competir con éxito y lograr utilidades en un ambiente de competencia mundial, en este momento y seguir haciéndolo en el futuro.
A continuación enunciare algunas de las características que tienen las compañías que se han catalogado como de clase mundial, por ejemplo:


  Hewlett Packard.



  Cementos de Yaqui.




La producción del flujo de una pieza es cuando las partes están cada una de ellas hechas al mismo tiempo y aprobadas en el siguiente proceso. Entre los beneficios del flujo de una pieza hay:

1) La rápida detección de defectos para prevenir un lote de defectos, 2) cortos tiempos de producción, 3) reducir el material y costos de inventario y 4) diseño del equipo y estaciones de trabajo de mínimo tamaño.

La producción de una sola pieza del flujo puede ayudar a solucionar estos problemas:

  los clientes pueden recibir un flujo de productos con menos retraso.

  los riesgos para el daño, la deterioración, o la obsolescencia se bajan.

  permite el descubrimiento de otros problemas para poderlos tratar

La producción de una sola pieza del flujo puede ayudar a solucionar estos problemas:

  los clientes pueden recibir un flujo de productos con menos retrasan.

  los riesgos para el daño, la deterioración, o la obsolescencia se bajan.

  permite el descubrimiento de otros problemas para poderlos tratar.

  conduce la mejora continua eliminando inventario confió sobre para tratar problemas.


Éste podría ser el punto de inicio para entender esta nueva innovación a nivel mundial. Las siglas J.I.T. se corresponden a la expresión anglosajona ” Just In Time “, cuya traducción podemos denotar como ” Justo A Tiempo”. Y precisamente la denominación de este novedoso método productivo nos indica su filosofía de trabajo: ” las materias primas y los productos llegan justo a tiempo, bien para la fabricación o para el servicio al cliente”.


El método J.I.T. explica gran parte de los actuales éxitos de las empresas japonesas, sus grandes precursoras. Sus bases son la reducción de los ” desperdicios “, es decir, de todo aquello que no se necesita en el preciso momento: colchones de capacidad, grandes lotes almacenados en los inventarios, etc. De esta manera, lo primero que nos llama la atención es la cuantiosa reducción de los costes de inventario, desembocando en una mejor producción, una mejor calidad, etc. 


El método productivo J.I.T surge en las empresas japonesas, y lo hace principalmente como una posible solución a uno de los mayores problemas subyacentes en la nación nipona: el ahorro de espacio. 

En una nación pequeña como Japón, el bien más preciado es sin lugar a duda el espacio físico. Por ello, uno de los pilares de la nueva filosofía fue precisamente el ahorro de espacio, la eliminación de desperdicios y, en conclusión, la eliminación de la carga que supone la existencia del inventario.  


Es un sistema integral de producción y gestión surgido en la empresa japonesa de automotriz del mismo nombre. En origen, el sistema se diseñó para fábricas de automóviles y sus relaciones con proveedores y consumidores, si bien se ha extendido a otros ámbitos.

El desarrollo del sistema se atribuye fundamentalmente a tres personas: el fundador de Toyota, Sakichi Toyoda, su hijo Kiichiro y el ingeniero Taiichi Ohno.


El Sistema de Producción Toyota, como filosofía de trabajo, tiene sus orígenes en la industria textil y en particular en la creación de un telar automático (cerca del año 1900 por Sakichi Toyoda) cuyo objetivo es mejorar la vida de los operarios liberándolos de las tareas repetitivas. Basándose en este invento y en innovaciones y patentes subsiguientes la familia Toyoda fundó una empresa textil (Okawa Menpu) en Nagoya que luego se convirtió en Toyota Motor Company. Es en esta época textil cuando nacen los conceptos de Jidoka (traducido por algunos autores como “Automatización”) y Poka-Yoke (a prueba de fallos) que junto a conceptos posteriores como Just-in-Time (Justo a Tiempo) y Muda (Despilfarros) vienen a mediados de siglo lo que ha llamado Sistema de Producción Toyota.

Eliminar los despilfarros

La meta del sistema es eliminar los “despilfarros”. El sistema distingue siete tipos de posible despilfarro:

El sistema de producción Toyota es un ejemplo clásico de la filosofía Kaizen (o mejora continua) de mejora de la productividad. Muchos de sus métodos han sido copiados por otras empresas, y ahora el sistema se conoce también como Lean Manufacturing (Fabricación Magra o Manufactura Esbelta).

La empresa Toyota es considerada un ejemplo paradigmático sobre la Calidad. Ha crecido en la misma de igual manera como se instauró y desarrolló en el Japón. Además, ha enriquecido la teoría y la práctica sobre la Calidad al punto de desarrollar su propia Escuela, que de otra parte es considera como la más exigente en el tema. Aquí se trata en dos aspectos: los conceptos básicos que giran a través de la teoría del Desperdicio Cero, y la concepción actual que orienta el trabajo de esta empresa.


El FPS es una manera distinta de encarar las operaciones, apoyada fundamentalmente en los recursos humanos, que se estructuran en los llamados Grupos de Trabajo (GT).

Si quisiéramos resumir en pocas palabras esta verdadera cultura de trabajo, podríamos hablar de eliminación de desperdicio, a la que llegaremos luego de un metódico proceso de identificación y seguimiento de indicadores, orientados a la satisfacción del cliente, como uno de los objetivos estratégicos del negocio.

Ford en sus comienzos utilizó un sistema de integración vertical y horizontal, produciendo desde la materia prima inicial hasta el producto final

Además de una cadena de distribución comercial a través de agencias propias. Hizo una de las mayores fortunas del mundo gracias al constante perfeccionamiento de sus métodos, procesos y productos.

Ford adoptó tres principios básicos

v  Principio de intensificación: consiste en disminuir el tiempo de producción con el empleo inmediato de los equipos y de la materia prima y la rápida colocación del producto en el mercado.


v  Principio de la economicidad: consiste en reducir al mínimo el volumen de materia prima en transformación.


v  Principio de la productividad: consiste en aumentar la capacidad de producción del hombre en el mismo período (productividad) mediante la especialización y la línea de montaje.


El comienzo de la producción en serie

Para poder cumplir con la demanda, Ford inició la producción en serie en la fábrica.

Ford sostenía que con un trabajador asignado en cada puesto, con una tarea específica que hacer, el automóvil tomaría forma de una manera más rápida y ahorraría más horas de trabajo.

La fabricación en cadena

Método con la que Ford revolucionó la industria automovilística, era una apuesta arriesgada, pues sólo resultaría viable si hallaba una demanda capaz de absorber su masiva producción; las dimensiones del mercado norteamericano ofrecían un marco propicio, pero además Ford evaluó correctamente la capacidad adquisitiva del hombre medio americano a las puertas de la sociedad de consumo.

Los Grupos de Trabajo (GT)

La única manera de contar con personal que sea capaz de llevar adelante la producción, siguiendo los exigentes lineamientos de la cultura lean, es contar con un sólido trabajo de capacitación.

Se trata, no sólo de entrenar focalizando en las necesidades particulares de cada puesto, sino también evaluar cómo el entrenamiento es asimilado y aplicado al negocio.



Es una estrategia completa de negocios, donde se engloban todos los procesos de manufactura para ajustar el producto de acuerdo al volumen y variedad de modelo, satisfaciendo así, a nuestros clientes.

Algunos métodos dftd:

v  Balancear el proceso.

v  Eliminación de inventario.

v  Mejora continua.

v  Competitividad.

v  Reducción de costos

Requerimientos del dft:

v  Requiere del esfuerzo de toda la organización dentro de la empresa.

v  Empleados Flexibles.

Ejemplos del uso del dft:

Grupo Chamberlain siempre a trabajado conn determinados niveles de calidad, con desempeño de productividad y eficiencia en la entrega del producto a los clientes, por lo cual esta empresa decidió implementar el programa DFT.

Alcance que tendrá el dft en la empresa:

v  Se pretende mejorar el proceso de manufactura.

v  Ayudará a cumplir eficientemente las demandas del cliente.

v  Ser más competitivos en el mercado.

v  Aumentará la calidad de los productos.

v  Reducirá tiempos de producción.

v  Menos inventarios y mano de obra flexible.


Cuando inicia la implementación del dft en Chamberlain:

La implementación de este programa se inicio el 24 de febrero del 2003 con el entrenamiento de 30 personas de diferentes áreas y diferentes funciones de la compañía.


Con la implementación del DFT en las diferentes áreas de la empresa se han logrado varios avances con respecto a:

  • Mejorar la productividad.
  • La calidad.
  • Control de materiales.





La Manufactura Esbelta es un conjunto de varias herramientas, las cuales buscan eliminar todas aquellas operaciones que no le agregan valor al producto o servicio de la empresa.


De esta manera, cada actividad realizada será ampliamente más efectiva que antes. Todo

esto, bajo un marco de respeto a los derechos del trabajador y la búsqueda constante de  su satisfacción en el puesto de trabajo. 


La Manufactura Esbelta tuvo sus orígenes en Japón, el cual, completamente destruido a  consecuencia de la Segunda Guerra Mundial, buscaba en nuevas y revolucionarias  prácticas de manufactura, la única forma de revivir su industria. Es así que con la ayuda  del norteamericano Edward Deming y los japoneses Taiichi Ohno, Shigeo Shingo, Eijy  Toyoda dan origen a la Manufactura Esbelta encarnada en el Toyota Production System,  que después sirvió de modelo de manufactura para las empresas estadounidenses que se  vieron obligadas, en orden de sobrevivir, a adoptar este sistema. 

Objetivos y Metas

La implementación de la Manufactura Esbelta implica la adopción de una filosofía de  mejoramiento continuo que lleve a las empresas a incrementar, de forma general, todos  sus estándares, con el objetivo de incrementar la satisfacción del cliente y el margen de  utilidad obtenido producto de esta satisfacción. En sí, la Manufactura Esbelta tiene como objetivos:


v  Reducir costos, mejorar procesos y eliminar desperdicios.

v  Reducir el inventario y  el espacio en el área de producción. 

v  Crear sistemas de producción más sólidos. 

v  Crear sistemas de entrega de materiales apropiados.

v  Mejorar la distribución de las áreas para aumentar la flexibilidad.

v  Reducir los tiempos de producción y eliminar los tiempos de espera

v  Mejorar la calidad de los productos o servicios brindados, entre otros.

Este tipo de pensamiento está siendo adoptado por la mayoría de empresas competitivas en los mercados más complicados y exigentes del mundo, pues las mejores ideas surgen de un grupo, producto de la sinergia entre sus miembros. En la actualidad, son cinco los principios bajo los cuales se guía este tipo de pensamiento: 

1. El cliente no busca un producto o un servicio, busca una solución.

2. Toda actividad que no agregue valor al bien es considerada un desperdicio.

3. Todo proceso debe fluir suave de un paso que agregue valor a otro.

4. Producir bajo órdenes de los clientes y ya no sobre pronósticos

5. Cumplidos los cuatro primeros principios, utilice la eficiencia para mejorarlos.

Herramientas de la Manufactura Esbelta:

  Las 5 Ss.

  Just In Time.

  Sistema Pull.

  Mantenimiento Productivo Total (TPM).

  Mejora continua (Kaizen).

  Cambio rápido de modelo (SMED).




Durante años, pocas compañías pensaban que las Operaciones y sus Procesos podían ser una fuente importante de ventajas competitivas.
A medida que las empresas Japonesas se convirtieron en competidores globales y dominaron amplios sectores de la producción industrial

(Automóviles, electrodomésticos, productos electrónicos, etc.), décadas de los setenta y ochenta, es que las empresas americanas empiezan a estudiar los motivos de estos éxitos.


Para la automatización de procesos, se desarrollaron máquinas operadas con Controles Programables (PLC), actualmente de gran ampliación en industrias como la textil y la alimentación.

Para la información de las etapas de diseño y control de la producción se desarrollaron programes de computación.


v  Dibujo (CAD),

v  Diseño (CADICAE)


Manufactura CAM, para el manejo de proyectos, para la planeación de requerimientos, para la programación de la producción, para el control de calidad, etc.


Automatización es la tecnología que trata de la aplicación de sistemas mecánicos, electrónicos y de bases computacionales para operar y controlar la producción. Esta tecnología incluye:

  v  Herramientas automáticas para procesar partes
  v  Máquinas de montaje automático
  v  Robots industriales
  v  Manejo automático de material y sistemas de almacenamiento
  v  Sistemas de inspección automática para control de calidad
  v  Control de reaprovechamiento y control de proceso por computadora
  v  Sistemas por computadora para planear colecta de datos y toma de decisiones para apoyar las actividades manufactureras.

Un sistema automatizado consta de dos partes principales:

v  Parte de Mando

v  Parte Operativa

Tipos de automatización: 

  1. Automatización fija.- Las características típicas son: 

La justificación económica para la automatización fija se encuentra en productos con grandes índices de demanda y volumen.

  1. Automatización programable.- Las características típicas son:

2. Automatización flexible.- Las características típicas pueden resumirse como sigue:

Las características esenciales que distinguen la automatización flexible de la programable son:

  Capacidad para cambiar partes del programa sin perder tiempo de producción.

 Capacidad para cambiar sobre algo establecido físicamente asimismo sin perder tiempo de producción. 

Usos dentro de las distintas operaciones de manufactura.

 Las nuevas tecnologías de automatización Industrial como:
Los Robots
Sistemas CAD-CAM

Desde mediados de los años setenta las posibilidades de automatización integrada han aumentado rápidamente gracias a lo adelantos en la robótica

En las máquinas herramienta de control numérico, en los sistemas flexibles de producción, y en el diseño y manufactura asistidos por computadora (CAD/CAM).


Hardware en la automatización.

Los sistemas de automatización de mañana desempeñarán tareas complejas en una variedad de productos, con frecuencia de manera simultánea. Los retos del hardware en el diseño de dichos sistemas son lograr flujo del proceso, la producción, y el tiempo de funcionamiento mientras se logra cumplir la compleja tarea de automatización.

Flujo del Proceso: La velocidad de su máquina afecta directamente el flujo del proceso. Para lograr grandes velocidades.


Producción: La reducción de desechos con alto nivel de repetición es clave para lograr una mejor producción.


v Tiempo de Funcionamiento: Una máquina moderna requiere un manejo de más de 10 productos en la misma línea de manufactura.

Software en la automatización.

El control de procesos computarizado es el uso de programas digitales en computadora para controlar el proceso de una industria, hace el uso de diferentes tecnologías como el PLC está guardado en el proceso de una computadora. Hoy en día el proceso computarizado es muy avanzado ya que los procedimientos de datos y otras funciones se pueden controlar más.


En cuanto al proceso de los datos que se introducen a la computadora y los que salen de ella se implementan sistema de monitoreo y control que es lo que para principalmente se usa el software en la automatización. Para monitorear un proceso información de manufactura tiene que ser introducido para que la interfaz de la computadora sepa que monitorear.


La Ingeniería Concurrente es una filosofía orientada a integrar sistemáticamente y en forma simultánea el diseño de productos y procesos, para que sean considerados desde un principio todos los elementos del ciclo de vida de un producto, desde la concepción inicial hasta su disposición final. Debe otorgar además una organización flexible y bien estructurada, proponer redes de funciones apoyadas por tecnologías apropiadas y arquitecturas comunes de referencia (ej: computadores en red y en bases de datos).

Para alcanzar los objetivos la Ingeniería Concurrente utiliza una serie de principios, los cuales son empleados en un enfoque sistematizado y están relacionados con la introducción de cambios culturales, organizacionales, y tecnológicos en las compañías, a través de una serie de una serie de metodologías, técnicas y tecnologías de información.

Los objetivos globales que se persiguen con la implementación de la Ingeniería Concurrente son:

v  Acortar los tiempos de desarrollo de los productos.

v  Elevar la productividad.

v  Aumentar la flexibilidad.

v  Mejor utilización de los recursos.

v  Productos de alta calidad.

v  Reducción en los costos de desarrollo de los productos.

Beneficios de la Ingeniería Concurrente.

La ejecución de las actividades de diseño en paralelo comporta mejoras en muchas áreas como la comunicación, calidad, procesos de producción, etc. repercutiendo positivamente en el flujo de caja y en los beneficios. Por otra parte la reducción de tiempos de introducción en el mercado, que es de importancia estratégica, permite a las empresas incrementar su cuota de mercado. Al reducirse los cambios de diseño e iteraciones, los productos son más fáciles de fabricar, son de mayor calidad y se mejora el servicio. Una vez lanzados a fabricación, la producción progresa rápidamente, puesto que el proceso está bien definido, documentado y controlado.  

Para conseguir una implantación con éxito y conseguir un entorno de Ingeniería Concurrente competitivo, existen cinco ámbitos a abordar y mejorar:

1. La modelización de los procesos: Técnica que ayuda a analizar y a mostrar como la información fluye y se transforma a lo largo un conjunto de actividades relacionadas con el proceso de diseño.

2. La arquitectura de los sistemas de información: Es necesario que el compartir datos libremente entre aplicaciones, usuarios y organizaciones sea una realidad, donde las distintas aplicaciones actúen de forma integrada y cooperativa.

3. La creación de equipos de trabajo multidisciplinares, con unos objetivos claros y una comunicación efectiva entre sus miembros es crucial: Estos grupos se pueden organizar con los miembros del equipo trabajando en proximidad, preferiblemente en una oficina de espacios abiertos. También es posible, mediante la utilización de herramientas informáticas, organizar equipos de trabajo cuyos componentes no estén próximos físicamente.

4. La utilización de metodologías formales de diseño: Entre las distintas teorías o metodologías para el trabajo en equipo o para la mejora del diseño existen algunas que son bastante importantes en la Ingeniería Concurrente. La lista de métodos formales disponibles en la actualidad es muy diversa, entre los que podemos citar el Despliegue de la Función de Calidad (QFD), Métodos Taguchi, o Diseño para Fabricación y Ensamblaje.


La fabricación automatizada surgió de la íntima relación entre fuerzas económicas e innovación técnica, así como la división del trabajo. En conjunto con la utilización de transferencia de energía y la mecanización de las fábricas, y el desarrollo de las máquinas de transferencia y sistemas de realimentación. La división del trabajo se desarrolló en la segunda mitad del siglo XVIII, y fue analizada por primera vez por el economista británico Adam Smith en su libro Investigación sobre la naturaleza y causas de la riqueza de las naciones. En la fabricación, la división de trabajo permitió incrementar la productividad y reducir el nivel de especialización de los obreros. La mecanización fue la siguiente etapa necesaria para la evolución hasta la automatización.

 Un sistema automatizado debe ser fuerte, ser resistente contra el medio en el que opera. Un sistema automatizado debe ser seguro esto significa aspirar que bajo toda circunstancia se eviten las heridas o la muerte de una persona y confiable  es decir evitar la caída de la producción. Desarrollo de nuevas tecnologías.


Leave a comment »


Mapamapa conceptual

mapa conceptual sobre los aspectos economicos de las decisiones de calidad










En la dirección de cualquier empresa productora es preciso tomar decisiones de muchas índoles. Todas ellas son alternativas, bien sean explicitas o implícitas. En empresas comerciales que trabajan por una utilidad, la base real de elección entre alternativas es el presunto efecto de cada una sobre los costos y las utilidades comerciales. Cuando intervienen consideraciones técnicas en las alternativas, el estudio que compara las estimaciones monetarias específicas de las diferencias entre ellas, así como otras diferencias estimadas, no fáciles de exponer en términos monetarios, se denomina estudio de ingeniería económica.


Irenson, ha sugerido la siguiente estructura conceptual para los estudios económicos.

1.- Las decisiones deben basarse en las consecuencias esperadas de las distintas alternativas.

2.- Antes de establecer los procedimientos para formular y evaluar el proyecto, es esencial determinar qué punto de vista va a adoptarse.

3.- Al comparar  las alternativas, es conveniente hacer que las consecuencias sean conmensurable entre sí, en cuanto sea posible.

4.-Al comparar las alternativas solamente son relevantes sus diferencias.


La calidad de concordancia se refiere a si las características de calidad de un producto corresponden o no a las realmente necesarias para asegurar los resultados que pretende el proyectista. Aplicada en este sentido, los márgenes de seguridad incluidos en las especificaciones de diseño, van dirigidos, a menudo, principalmente a asegurar la calidad de concordancia. Cuando los márgenes de seguridad se utilizan para este propósito, las especificaciones de diseño y las de aceptación están debidamente consideradas como asuntos interrelacionados.


En los estudios para orientar las decisiones sobre estos asuntos, es conveniente dividir las supuestas consecuencias económicas de las decisiones en tres clases generales, que de forma un tanto indefinida pueden asociarse a:

(1) costos de producción,

(2) costos de aceptación y

(3) costos de los productos insatisfactorios.

La expresión costos de producción pretende indicar los costos que intervienen en la producción del artículo que se considere.

Los costos de aceptación, no solamente incluyen los de prueba e inspección, sino también los de administración del programa de aceptación.

La frase costos de productos insatisfactorios significa aquellos costos procedentes de aceptar un producto que no resulta satisfactorio para el fin pretendido. En este sentido la palabra costo, hay que interpretarla tanto como una reducción en los ingresos, como en un incremento en los gastos.

De estas tres clases de costos afectados por las decisiones de calidad, el más difícil de valorar es el inherente a los productos no satisfactorios. Sin duda, la mayor dificultad surge en las industrias de productos  de consumo, cuyos artículos van a los variados clientes que no realizan pruebas formales de aceptación. Es difícil pronosticar las consecuencias para el fabricante de bienes de consumo cuando parte de su producción deja de dar un servicio satisfactorio a los compradores y más difícil todavía dar un valor monetario a esas consecuencias.


La elección de un método de producción está influida por el objetivo de calidad. Este, a su vez, esta influido por el proyecto y por los criterios de aceptación. Cuando los criterios de aceptación son tales que los lotes con porcentaje bajos de piezas defectuosas tienen solamente una probabilidad pequeña de rechazo, puede ser más económico rechazar ocasionalmente algún lote que incrementar los costos de producción para evitar tales rechazos. Esto parece ser bastante posible cuando el productor tiene cierto grado de sofisticación estadística y cuando cree que las especificaciones de proyecto contienen suficiente margen de seguridad para que los lotes moderadamente defectuosos sean en realidad los bastante buenos para el fin a que se destinan.


Sucede a veces, que cuando se introduce el control de calidad en una organización y se ha utilizado durante unos pocos meses, la continuación de la utilización total de esas técnicas requiere hacer evidente a la Dirección General que su empleo ha sido rentable. La dirección se inclina a considerar el aspecto financiero y los costos para obtener esa evidencia y, a menudo, pide cifras anteriores y posteriores para compararlas. Aunque en algunos casos puede tenerse un cuadro bastante satisfactorio del efecto del control estadístico de calidad examinado los costos anteriores a su aplicación y comparándolos con los costos, después de cierto tiempo de establecidas las técnicas, este proceder tiene limitaciones precisas que deben comprenderse.

Los comentarios están cerrados



 Inciso a)

 El problema supone  una operación del proceso de producción de una planta dedicada al envasado de cereal donde se despliega todos  los aspectos involucrados.

En esta etapa se menciona exponer todos los aspectos estadísticos, como lo son las graficas muestreos tablas y todas las herramientas que se utilizan en control estadístico.

Como menciona el problema se nos pide en este inciso establecer una sugerencia como ayudante consultor lo primero que se debería hacer es pedir ala empresa los registros históricos de las operaciones para establecer un punto de referencia para poner en marcha estrategias de evaluación; seguir con las medias promédiales de todos los datos históricos del proceso para proceder  a realizar los muestreos necesarios y aplicar las herramientas estadísticas donde se necesite, para terminar realizando una evaluación  con lo datos anteriores y los propios míos  para determinar donde se encuentran los fallos posibles a resolver. Presentaría mis conclusiones a la gerencia con ideas claras y precisas de mejora.

 Inciso b)

 En este inciso se nos plantea señalarle al jefe de producción sobre el problema generado, específicamente sobre el proceso de envasado en donde se manifiesta con lujo los detalles, obtenidos en los muestreos y las grafica realizadas; pero con un lenguaje escasamente técnico e ideas claras de las consecuencias positivas de los datos arrojados, señalando también los registros anteriores y los mostrados por la estadística, así las ideas señaladas para el superintendente sean tomadas en cuenta con seriedad por este mismo.   

 Inciso c)

 Se deberá incluir en esta los motivos descritos del proceso del envasado claramente para entender el del porque de los errores cometidos para cumplir con la norma de dosificación del peso, ya que como se menciona en el problema es difícil obtener la media deseada y estar por encima de la media refiere la aceptación por parte de la norma pero una perdida considerable para la empresa, se buscara mostrar a la oficina gubernamental los datos estadísticos y los muestreos, las graficas y las posibles soluciones optimas, buscando llegar a un arreglo beneficiante para las dos partes; como un ejemplo se podría obtener un seguro sobre a confiabilidad del producto.

Leave a comment »


El análisis de los modos y de los efectos de fallo (FMEA) es metodología para analizar problemas potenciales de la confiabilidad temprano en el ciclo de desarrollo donde está más fácil tomar acciones para superar estas ediciones, de tal modo realzando confiabilidad con diseño. FMEA se utiliza para identificar modos de fallo potenciales, para determinar su efecto sobre la operación del producto, y para identificar acciones para atenuar las faltas.
Un paso crucial está anticipando qué pudo ir mal con un producto. Mientras que anticipar cada modo de fallo no es posible, el equipo del desarrollo debe formular tan extenso una lista de los modos de fallo potenciales como sea posible.
El uso temprano y constante de FMEA en el proceso del diseño permite que el ingeniero diseñe fuera de faltas y produzca productos agradables confiables, seguros, y del cliente. FMEA también captura la información histórica para el uso en la mejora futura del producto.

Tipos de FMEA
Hay varios tipos de FMEA, algo se utiliza mucho más a menudo que otros. FMEA debe ser hecho siempre siempre que las faltas significaran daño o lesión potencial al usuario del artículo del extremo que es diseñado. Los tipos de FMEA son:

Sistema – focos en funciones globales del sistema
Diseño – focos en componentes y subsistemas
Proceso – focos en procesos de la fabricación y de asambleas
Servicio – focos en funciones del servicio
Software – focos en funciones del software

Ventajas de FMEA
FMEA se diseña para asistir al ingeniero mejora la calidad y la confiabilidad del diseño. Utilizar correctamente el FMEA proporciona al ingeniero varias ventajas.
Entre otras, estas ventajas incluyen:

Mejorar la confiabilidad y la calidad de producto/proceso
Aumenta la satisfacción de cliente
Identificación y eliminación tempranas de los modos de fallo potenciales de producto/proceso
Da la prioridad a las deficiencias de producto/proceso
Captura el conocimiento de ingeniría/organización
Acentúa la prevención del problema
Proporciona el foco para la prueba mejorada y desarrollo
Reduce al mínimo últimos cambios y coste asociado
Catalizador para el intercambio del trabajo en equipo y de la idea entre las funciones

Comments (2) »

8 d s

El Proceso 8D’s es una herramienta que soluciona el método para la mejora de proceso y el producto. Es estructurado en 8 pasos (la D) y acentúa el equipo. A menudo requieren esto en industrias de automotor. Los 8 pasos básicos son: Defina el problema y prepárese para la mejora de proceso, establezca un equipo, describa el problema, desarrolle la contención intermedia, defina y verifice la causa de origen, escoja la acción permanente correctiva, ponga en práctica la acción correctiva, prevenga la repetición, reconozca y recompense a los contribuidores.
Desde luego, empresas diferentes tienen sus torceduras diferentes sobre lo que ellos llaman los pasos, etc. … pero es el básico.
8 D’s es la forma corta para Ocho Disciplinas que se Originaron de las CIMAS de Ford (el Equipo la Solución de Problema Orientada) el programa. (Primero publicado aproximadamente 1987)
D*1 – Establecen el Equipo
D*2 – Describen el problema.
D*3 – Se desarrollan una Acción de Contención Intermedia
D*4 – Define / Verifican que la Causa de origen
D*5 – Escoge / Verifican la Acción Permanente Correctiva
D*6 – el Instrumento / Valida la Acción Permanente Correctiva
D*7 – Impiden la Repetición
D*8 – Reconoce el Equipo

Leave a comment »


Un proceso disciplinado y sistemático de resolver problemas y prevenir su ocurrencia. Esta es la técnica de solución de problemas de la empresa, Ford Motor Company.

· Es un acrónimo de “Total de Operaciones del Sistema de Procesamiento”.

· Sistema de Procesamiento de Operaciones Total, sistema de créditos para algunos cambios en la forma en que el sistema.


Diagrama de Causa Efecto

A este diagrama se le conoce también como diagrama de espina de pescado Los Diagramas de Causa Efecto ilustran la relación entre las características (los resultados de un proceso) y aquellas causas que, por razones técnicas, se considere que ejercen un efecto sobre el proceso. Casi siempre por cada efecto hay muchas causas que contribuyen a producirlo.

El Efecto es la característica de la calidad que es necesario mejorar. Las causas por lo general se dividen en las causas principales de métodos de trabajo, materiales, mediciones, personal y entorno.

A veces la administración y el mantenimiento forman parte también de las causas principales.

El uso de este diagrama facilita en forma notables el entendimiento y comprensión del proceso y a su vez elimina la dificultad del control de calidad en el mismo, aun en caso de relaciones demasiado complicadas y promueven el trabajo en grupo, ya que es necesaria la participación de gente involucrada para su elaboración y uso.

Diagrama de Pareto

El Diagrama de Pareto es una gráfica en donde se organizan diversas clasificaciones de datos por orden descendente, de izquierda a derecha por medio de barras sencillas después de haber reunido los datos para calificar las causas. De modo que se pueda asignar un orden de prioridades.

Mediante el Diagrama de Pareto se pueden detectar los problemas que tienen más relevancia mediante la aplicación del principio de Pareto (pocos vitales, muchos triviales) que dice que hay muchos problemas sin importancia frente a solo unos graves. Ya que por lo general, el 80% de los resultados totales se originan en el 20% de los elementos.

La minoría vital aparece a la izquierda de la grafica y la mayoría útil a la derecha. Hay veces que es necesario combinar elementos de la mayoría útil en una sola clasificación denominada otros, la cual siempre deberá ser colocada en el extremo derecho. La escala vertical es para el costo en unidades monetarias, frecuencia o porcentaje.

Diagrama de Dispersión

Un Diagrama de Dispersión es la forma mas sencilla de definir si existe o no una relación causa efecto entre dos variables y que tan firme es esta relación, como estatura y peso. Una aumenta al mismo tiempo con la otra.

El Diagrama de Dispersión es de gran utilidad para la solución de problemas de la calidad en un proceso y producto, ya que nos sirve para comprobar que causas (factores) están influyendo o perturbando la dispersión de una característica de calidad o variable del proceso a controlar.


Presentación de datos en forma ordenada con el fin de determinar la frecuencia con que algo ocurre.

El Histograma muestra gráficamente la capacidad de un proceso, y si así se desea, la relación que guarda tal proceso con las especificaciones y las normas.

También da una idea de la magnitud de la población y muestra las discontinuidades que se producen en los datos.

Hojas de Verificación o Comprobación

Es un formato especial constituido para colectar datos fácilmente, en la que todos los artículos o factores necesarios son previamente establecidos y en la que los records de pruebas, resultados de inspección o resultados de operaciones son fácilmente descritos con marcas utilizadas para verificar. Para propósitos de control de procesos por medio de métodos estadísticos es necesaria la obtención de datos. El control depende de ellos y, por supuesto, deben ser correctos y colectados debidamente.

Además de la necesidad de establecer relaciones entre causas y efectos dentro de un proceso de producción, con propósito de control de calidad de productividad, las Hojas de Verificación se usan para:

· Verificar o examinar artículos defectivos.

· Examinar o analizar la localización de defectos.

· Verificar las causas de defectivos.

· Verificación y análisis de operaciones


Es un método que permite hallar el origen de un problema estudiando por separado cada uno de los componentes de un conjunto. Es la aplicación a esta técnica del principio romano “divide y vencerás” y del principio de Management que dice: “Un gran problema no es nunca un problema único, sino la suma de varios pequeños problemas”.

A veces, al analizar separado las partes del problema, se observa que la causa u origen está en un problema pequeño.

En la Estratificación se clasifican los datos tales como defectivos, causas, fenómenos, tipos de defectos (críticos, mayores, menores), en una serie de grupos con características similares con el propósito de comprender mejor la situación y encontrar la causa mayor mas fácilmente, y así analizarla y confirmar su efecto sobre las características de calidad a mejorar o problema a resolver.

Gráfica de control

Es una herramienta estadística que detecta la variabilidad, consistencia, control y mejora de un proceso.

La gráfica de control se usa como una forma de observar, detectar y prevenir el comportamiento del proceso a través de sus pasos vitales.

Así mismo nos muestra datos en un forma estática, tienen por supuesto sus aplicaciones, y es necesario saber sobre los cambios en los procesos de producción, la naturaleza de estos cambios en determinado período de tiempo y en forma dinámica, es por esto que las gráficas de control son ampliamente probadas en la práctica.

Características Generales de las Gráficas de Control: El termino consistencia se refiere a la uniformidad en la salida del proceso; es preferible tener un producto de un proceso consistente, que tener uno con calidad superior, pero de un proceso intermitente.

Una gráfica de control se inicia con las mediciones considerando, sin embargo que las mediciones dependen tanto de los instrumentos, como de las personas que miden y de las circunstancias del medio ambiente, es conveniente anotar en las gráficas de control observaciones tales como cambio de turno, temperatura ambiente.

Tipos de Gráfica y Características Principales

Para construir una gráfica de control, es importante distinguir el tipo de datos a graficar pueden ser. Datos continuos, datos discretos, dicha gráfica dependerá del tipo de datos.

Para la utilización de las gráficas se requiere un procedimiento específico: Decidir la gráfica de control a emplear, Construir gráficas de control para el control estadístico del proceso, Controlar el proceso, si aparece una anormalidad sobre la gráfica de control, investigar inmediatamente las causas y tomar acciones apropiadas.

Gráficas de variables

Una gráfica de control X-R, en realidad son dos gráficas en una, una representa los promedios de las muestras de la (gráfica X) y la otra representa los rangos (gráfica R), deben construirse juntas, ya que la gráfica X, nos muestra cualquier cambio en la media del proceso y la gráfica R nos muestra cualquier cambio en la dispersión del proceso, para determinar las X y R de las muestras, se basan en los mismos datos.

El uso particular de la grafica X-R es que nos muestra los cambios en el valor medio y en la dispersión del proceso al mismo tiempo, además es una herramienta efectiva para verificar anormalidades en un proceso dinámicamente.

Algunos puntos importantes a considerar previo a la elaboración de esta gráfica son: Variable a considerar, Tamaño de la muestra , Tener un criterio para decidir si conviene investigar causas de variación del proceso de producción.

Leave a comment »


Recibe cada nueva publicación en tu buzón de correo electrónico.