lunes, 27 de octubre de 2014

Los grandes de la Calidad y sus mejores libros

El número de personas que diariamente deben lidiar con las técnicas y herramientas relacionadas con el aseguramiento de la calidad aumenta día a día. Se estima que en Japón hay 10.000 especialistas, 5.000 en Canadá y cerca de 350.000 en Estados Unidos. Entre 1990 y 1995 China capacitó a más de 70 millones de personas en el conocimiento de la Calidad Total. Korea, Europa y, más recientemente, América Latina tampoco se quedan atrás en un proceso que podemos considerar global.

A pesar de ello, la Calidad en todas sus acepciones es un disciplina joven, acompañante inseparable de la revolución industrial y sistematizada tras la Segunda Guerra Mundial para permitir el milagro japonés.

LAS PRIMERAS ESCARAMUZAS

Vifredo Pareto

Este marqués e ingeniero francés de origen italiano, dedicó los últimos años de su vida al estudio de la eficiencia económica y la distribución de la riqueza, trabajos que tienen una aplicación directa en la ingeniería y las ciencias sociales.

Como consecuencia de ellos aparecieron conceptos como el Óptimo de Pareto, las Curvas de Indiferencia (o de Preferencia) o la Distribución de Pareto.

Dos resultados concretos le hacen merecedor de aparecer en esta lista. Uno fundamental, la regla del 80-20 que nos dice que el 80% de la riqueza está en manos de un 20% de la población y otro, derivado del principio anterior aunque más anecdótico, el Diagrama de Pareto tan profusamente empleado para analizar y segmentar información en los sistema de gestión y aseguramiento de la calidad (el 20% de las causas más habituales provocan el 80% de los defectos detectados).

domingo, 19 de octubre de 2014

Cuatro indicadores tan sencillos como fundamentales para controlar la entrega de proyectos

En todo proyecto esperamos gastar lo previsto, ingresar lo estipulado, entregar cuando hemos dicho que vamos a hacerlo y cumplir con los requisitos expresados por el cliente. Sólo así, cuando se cumplen las líneas base establecidas sobre el coste, tiempo y calidad, podemos considerar que un proyecto ha resultado todo un éxito.

Existen infinidad de indicadores para controlar el cumplimiento de las tres líneas base, diseñados para resaltar aspectos específicos del proceso de entrega de un proyecto. Aquí nos vamos a centrar en cuatro de ellos, una cuadrupla (MOP, OTD, QOD, RFT) de especial interés a la hora de diseñar cuadros de mando en un Oficina de Gestión de Proyectos (PMO de sus siglas en inglés).

Como veremos, los indicadores propuestos son también de aplicación a la entrega de servicios con algunas pequeñas alteraciones en su interpretación y alcance.

lunes, 13 de octubre de 2014

¿Se deben ofrecer incentivos por compartir el conocimiento?

Navegar por la redes sociales requiere siempre un cierto esfuerzo. Hay demasiada información y ésta no siempre resulta útil. Pero en algunas ocasiones das con algún lugar sorprendente, en el que te encuentras con gente inteligente debatiendo sobre un tema actual y aún sin resolver, compartiendo sus puntos de vista en base a experiencias reales.

Este fue el caso cuando me tope, hace unas pocas semanas,  con una discusión en un grupo de LinkedIn (KM Practitioners) sobre la conveniencia de fomentar la colaboración y la puesta en común del conocimiento a través de incentivos.

Me decido a resumir dicho debate dado el interés de las diferentes propuestas y experiencias expuestas.

EL DEBATE 

El debate lo inicia Terrence Wallerhost (Knowledge Business Manager, Consumer Practice at The Boston Consulting Group) exponiendo la existencia de importantes barreras para establecer una cultura efectiva en las organizaciones que fomente que el conocimiento se comparta de forma pro-activa.

lunes, 6 de octubre de 2014

Computación Cuántica, Computación Cognitiva y Biochips, el futuro de la tecnología

Nuestro amigo Gordon Moore enunció en 1965 una famosa ley que sugiere que cada 18 meses el número de transistores integrados en un chip se duplica mientras su coste se reduce en la misma proporción.

Esta ley empírica (más bien una conjetura) se ha mantenido inmutable durante 50 años aunque algunos predicen que pronto dejará de tener validez. El motivo: el tamaño de los transistores cada vez se aproxima más al del átomo, una barrera física insalvable.

Para que os hagáis una idea, recientemente Intel y TMSC se han embarcado en una encarnizada discusión sobre la posibilidad de bajar desde los 20 nanometros hasta los 16. Es una diferencia mínima pero sustancial pues estamos ya cerca de lo imposible. Y cuando se alcance esta barrera, cuando se deje de cumplir la Ley de Moore, la tecnología dejará de avanzar. Esas sorpresas que nos avasallan casi  diariamente dejarán de producirse y todo avanzará mucho más  lentamente.

De ahí que los grandes fabricantes comiencen a interesarse por la Computación Óptica, la Computación Cuántica, los Biochips o la Computación Cognitiva, un forma de progresar, de resolver algunos de los problemas más acuciantes de la actualidad utilizando arquitecturas diferentes.