domingo, 21 de diciembre de 2014

El Poder Digital: Las 20 personas más influyentes en la actualidad

Si seguís este blog, sabréis que hace unos días lancé un inocente juego "¿Quién es Quién?" para ver si alguno de vosotros era capaz de reconocer a una serie de personajes. He de admitir que yo tampoco hubiera sabido resolver ese pequeño acertijo aunque sí lo ha logrado una persona, Diego Soler. Mi más sincero reconocimiento a este curioso Internauta.

Lo más inquietante es que si, en lugar de las fotos seleccionadas, hubiera escogido a cualquiera de las personas que aparecen en una revista de la prensa rosa, probablemente habríais reconocido a un buen porcentaje de ellas.

Cantantes, actores, modelos, escritores, políticos, empresarios y protagonistas de Gran Hermano han dominado en las últimas décadas los medios de comunicación y cobrado una más que merecida fama. Veamos si pueden competir con las personas que os presento a continuación, las que atesoran una nueva forma de poder en este mundo ignoto dominado por la tecnología: El Poder Digital.

Ellos controlan una buena parte de la actividad en Internet, nos recomiendan qué debemos leer, con quién debemos comunicarnos, protegen nuestros documentos y nos ofrecen alternativas para ocupar nuestro tiempo de ocio. Y todos tienen muchas cosas en común: conocen la tecnología, son visionarios, buenos negociantes, inmensamente ricos e insultantemente jóvenes. La mayoría son, además, programadores y se han formado en las más prestigiosas universidades americanas.

Antes de comenzar, una última reflexión. En Abril de este año publiqué la lista de los que, para mí, han sido los mejores programadores de la historia. Si os fijáis, no hay ni una sola coincidencia entre ambos compendios (en realidad, Bill Gates y Larry Page sí merecerían aparecer en las dos). Entre los programadores, están los genios que han desarrollado Internet y los Sistemas Operativos y Lenguajes de Programación más importantes de la actualidad. Sin embargo, sólo unos pocos han conseguido hacerse inmensamente ricos y, curiosamente, a pesar de ser una lista dominada por europeos (sobre todo de los países nórdicos), todos son americanos. No estoy seguro de si deberíamos o no cambiar, pero está claro que el sistema educativo europeo está poco preparado para crear genios en los negocios.

Os dejo un interesante artículo sobre las universidades americanas que mejor futuro profesional ofrecen a sus alumnos

domingo, 14 de diciembre de 2014

¿Quién es Quién?

Os propongo un sencillo y, sólo quizás, deprimente juego. Consiste en adivinar quién son estos chavales.

No debería resultar muy complicado resolverlo pero, por si acaso, os dejo una pista:

Todos saben programan software, todos son mucho más ricos que tú y todos son insultatemente jóvenes

Empezamos ...

miércoles, 10 de diciembre de 2014

Nuevas Tecnologías de uso contidiano que nos ayudarán a salvar el planeta

Más tarde o más temprano tendremos que recurrir a nuevas fuentes de energía. Algunas serán renovables y otras no, pero combinadas transformarán el mundo. Y será más bien temprano pues las energías alternativas comienzan ya a competir en precio con los combustibles fósiles.

Como revela un estudio encargado por la ciudad de Sidney a Bloomberg New Energy Finance (más información) actualmente es ya más rentable en Australia construir y explotar un parque eólico que una planta de gas o carbón.

Mientras se produce este cambio, otras tecnologías, más modestas y de uso cotidiano, nos permitirán paliar en cierta medida el perjuicio que estamos causando al medio ambiente.

BATERÍAS SUPER-EFICIENTES

miércoles, 3 de diciembre de 2014

Estrategias para acelerar la Innovación: Open & Distributed Innovation

INNOVACIÓN DISRUPTIVA vs EVOLUTIVA

La innovación es un proceso curioso. Los grandes inventos parecen provenir de ideas geniales que surgen de la nada en los momentos más inesperados. Ya sabéis, Arquímedes en la bañera, Newton y su manzana, Vicky el Vikingo siempre saliendo airoso de cualquier situación gracias a su ingenio.

La Innovación Disruptiva entra dentro de esta categoría. Este concepto, introducido por Clayton Christensen en 1997 en su libro "The Innovation Dilema",  se refiere a productos desarrollados sin grandes pretensiones pero que, rápidamente, acaban dominando y transformando el mercado. Facebook creó una nueva forma de comunicación, Skype aprovechó la Voz IP para enfrentarse a las poderosas operadoras de telefonía, WhatsApp terminó con el negocio de los SMS. No hablemos ya de Apple cuando, en su momento, lanzó al mercado los primeros iPod, iPhone e IPad.

La  Innovación Evolutiva, por el contrario, se basa en el desarrollo progresivo de nuevas funcionalidades que van mejorando los productos existentes. La mayoría de las empresas se ven obligadas a practicar esta modalidad pues no pueden basar su estrategia en la irrupción de la genialidad. Les resulta más sencillo sistematizar y diversificar el proceso de innovación para mantener frescos los productos y seguir luchando en el mercado con la esperanza de que la próxima "idea féliz" surja en el seno de su organización y no en la competencia.

Y no es una mala estrategia. Fomentar, promover, incentivar, sistematizar la generación de ideas da resultados a corto y medio plazo y palia, en cierta manera, la incertidumbre inherente a la genialidad.

OPEN INNOVATION

miércoles, 19 de noviembre de 2014

8 Herramientas de Ticketing Open Source (totalmente gratuitas) para gestionar Helpdesks y Servicios

[Actualizado Diciembre 2016]

La gestión de incidencias y peticiones de servicios (el "ticketing") es una de las áreas mejor cubiertas por el software Open Source en cualquiera de sus modalidades (Sofware Abierto, Software Libre, servicios a través de Cloud, etc).

Si gestionas un Departamento de IT, un Data Center, un Centro de Llamadas o cualquier otro servicio en el que sea necesario atender con cierta frecuencia peticiones o resolver incidencias, recurrir a este tipo de aplicaciones puede ser una buena solución. No sólo por la inversión requerida (normalmente, poco más que un servidor de medianas prestaciones) sino por la completa funcionalidad que ofrecen (ver "Cómo elegir una herramienta Open Source")

Os dejo una lista de las que, en mi opinión, son las mejores opciones:

sábado, 15 de noviembre de 2014

Cuatro Indicadores clave para valorar la relación con tus Clientes


Hace poco hablábamos de un buen conjunto de indicadores para controlar nuestra cartera de proyectos y servicios (más información...). Nos dicen cuanto dinero estamos ganando en cada proyecto (MOP: Margen Operativo) y cuan bien estamos cumpliendo con los compromisos contractuales con los clientes: ¿entregamos a tiempo? (OTD: On Time Delivery), ¿ofrecemos lo que el cliente espera? (QOD: Quality of Delivery), ¿cometemos errores? (RFT: Right First Time).

El dinero debería asegurarnos la satisfacción de los accionistas, cumplir los plazos entregando con la suficiente calidad la de nuestros clientes.

Pero, ¿en verdad están nuestros clientes satisfechos con los servicios o productos que les ofrecemos?, ¿cómo podemos estar seguros?. De nuevo, podemos recurrir a unos cuantos indicadores para hacernos una buena idea.

CPS (Customer Profiability Score)

lunes, 10 de noviembre de 2014

7 maneras sencillas de introducir a tus hijos en la informática y la robótica

Diversos estudios insinúan una profunda transformación del mercado laboral en los próximos 10 o 20 años (ver "Cuáles serán las profesiones más demandadas en la próxima década"). Robots, drones, mundos virtuales y un montón de aparatos que inundarán nuestra vida cotidiana serán los promotores de este cambio.

Al igual que ocurrió hace 30 años (¿o ya han pasado 40?) con la aparición de los ordenadores personales, los mejores preparados participarán con cierta ventaja en un mercado laboral cada vez más convulso.

Podemos pensar que nuestros hijos ya están inmersos en este mundo tecnológico. Con cinco años manejan con soltura la tablet o el smartphone y participan en juegos y redes sociales. Teclear con el pulgar en una Blackberry, gesticular para sacar el máximo partido de un App o utilizar un teclado tradicional no supone para ellos ningún problema.

Y, sin embargo, todas estas competencias no resultarán suficientes para lo que se nos viene encima (es una forma de hablar, yo estoy encantado). Van a necesitar un conocimiento mucho más profundo de la tecnología y,en particular, de la informática y la robótica.

No me refiero a la informática más conocida (aunque sea por las películas): un programador marginado pasando noches en vela elaborando complicados algoritmos, escribiendo interminables líneas de código, empleando lenguajes de programación sólo aptos para iniciados. Hablo de herramientas mucho más intuitivas y visuales que permiten, con unas pocas interacciones, conseguir que un robot baile al son de tu canción preferida, crear tu propio juego o, ya con un poco más de esfuerzo, configurar tu propio ordenador.

Decía Steve Jobs: "todo el mundo debería a programar porque enseña a pensar" y, por si aín no estáis convencidos, os dejo un fantástico vídeo en el que hablan sobre el tema algunas de esas personas importantes de la informática (la mitad por debajo de los 30)


miércoles, 5 de noviembre de 2014

Verificación y Validación de las Entregas

Se puede argumentar, y con razón, que la correcta ejecución de procesos tales como la especificación de requisitos, el diseño del producto, la planificación en el tiempo o la gestión de cambios de alcance es crítica para el éxito de un proyecto. En consecuencia, se dedican ingentes recursos a la planificación de estos procesos y a su control y seguimiento.

Sin embargo, solemos olvidarnos de otros dos que resultan a la postre tan importantes como los anteriores:
  • El proceso de verificación interna previo a la entrega del producto
  • La forma en que el producto será validado por el cliente
La definición de estos procesos es realmente sencilla, incluso evidente, pero no les solemos prestar la suficiente atención en el Plan de Proyecto y, como consecuencia de esta dejadez, suelen venir una gran parte de los problemas. Y lo hacen justo cuando su solución es más complicada, en las últimas fases de desarrollo del producto.

VERIFICACIÓN

El proceso de verificación consiste en asegurar que un producto cumple con los requisitos del cliente antes de ser entregado. Es un proceso interno que debe ser planificado, formalizado y registrado conveniente y concienzudamente.

Desde un punto de vista técnico la verificación puede realizarse de diferentes maneras en función de la naturaleza del proyecto. En fabricación es frecuente establecer controles de calidad del producto final mientras que en software se suelen ejecutar planes de pruebas funcionales, de sistema o de integración y pasos a producción controlados. Incluso cuando se entrega documentación es necesaria esta verificación siendo frecuente recurrir a las revisiones Peer to Peer (de igual a igual), es decir, requiriendo la revisión de un experto externo al equipo del proyecto.

lunes, 27 de octubre de 2014

Los grandes de la Calidad y sus mejores libros

El número de personas que diariamente deben lidiar con las técnicas y herramientas relacionadas con el aseguramiento de la calidad aumenta día a día. Se estima que en Japón hay 10.000 especialistas, 5.000 en Canadá y cerca de 350.000 en Estados Unidos. Entre 1990 y 1995 China capacitó a más de 70 millones de personas en el conocimiento de la Calidad Total. Korea, Europa y, más recientemente, América Latina tampoco se quedan atrás en un proceso que podemos considerar global.

A pesar de ello, la Calidad en todas sus acepciones es un disciplina joven, acompañante inseparable de la revolución industrial y sistematizada tras la Segunda Guerra Mundial para permitir el milagro japonés.

LAS PRIMERAS ESCARAMUZAS

Vifredo Pareto

Este marqués e ingeniero francés de origen italiano, dedicó los últimos años de su vida al estudio de la eficiencia económica y la distribución de la riqueza, trabajos que tienen una aplicación directa en la ingeniería y las ciencias sociales.

Como consecuencia de ellos aparecieron conceptos como el Óptimo de Pareto, las Curvas de Indiferencia (o de Preferencia) o la Distribución de Pareto.

Dos resultados concretos le hacen merecedor de aparecer en esta lista. Uno fundamental, la regla del 80-20 que nos dice que el 80% de la riqueza está en manos de un 20% de la población y otro, derivado del principio anterior aunque más anecdótico, el Diagrama de Pareto tan profusamente empleado para analizar y segmentar información en los sistema de gestión y aseguramiento de la calidad (el 20% de las causas más habituales provocan el 80% de los defectos detectados).

domingo, 19 de octubre de 2014

Cuatro indicadores tan sencillos como fundamentales para controlar la entrega de proyectos

En todo proyecto esperamos gastar lo previsto, ingresar lo estipulado, entregar cuando hemos dicho que vamos a hacerlo y cumplir con los requisitos expresados por el cliente. Sólo así, cuando se cumplen las líneas base establecidas sobre el coste, tiempo y calidad, podemos considerar que un proyecto ha resultado todo un éxito.

Existen infinidad de indicadores para controlar el cumplimiento de las tres líneas base, diseñados para resaltar aspectos específicos del proceso de entrega de un proyecto. Aquí nos vamos a centrar en cuatro de ellos, una cuadrupla (MOP, OTD, QOD, RFT) de especial interés a la hora de diseñar cuadros de mando en un Oficina de Gestión de Proyectos (PMO de sus siglas en inglés).

Como veremos, los indicadores propuestos son también de aplicación a la entrega de servicios con algunas pequeñas alteraciones en su interpretación y alcance.

lunes, 13 de octubre de 2014

¿Se deben ofrecer incentivos por compartir el conocimiento?

Navegar por la redes sociales requiere siempre un cierto esfuerzo. Hay demasiada información y ésta no siempre resulta útil. Pero en algunas ocasiones das con algún lugar sorprendente, en el que te encuentras con gente inteligente debatiendo sobre un tema actual y aún sin resolver, compartiendo sus puntos de vista en base a experiencias reales.

Este fue el caso cuando me tope, hace unas pocas semanas,  con una discusión en un grupo de LinkedIn (KM Practitioners) sobre la conveniencia de fomentar la colaboración y la puesta en común del conocimiento a través de incentivos.

Me decido a resumir dicho debate dado el interés de las diferentes propuestas y experiencias expuestas.

EL DEBATE 

El debate lo inicia Terrence Wallerhost (Knowledge Business Manager, Consumer Practice at The Boston Consulting Group) exponiendo la existencia de importantes barreras para establecer una cultura efectiva en las organizaciones que fomente que el conocimiento se comparta de forma pro-activa.

lunes, 6 de octubre de 2014

Computación Cuántica, Computación Cognitiva y Biochips, el futuro de la tecnología

Nuestro amigo Gordon Moore enunció en 1965 una famosa ley que sugiere que cada 18 meses el número de transistores integrados en un chip se duplica mientras su coste se reduce en la misma proporción.

Esta ley empírica (más bien una conjetura) se ha mantenido inmutable durante 50 años aunque algunos predicen que pronto dejará de tener validez. El motivo: el tamaño de los transistores cada vez se aproxima más al del átomo, una barrera física insalvable.

Para que os hagáis una idea, recientemente Intel y TMSC se han embarcado en una encarnizada discusión sobre la posibilidad de bajar desde los 20 nanometros hasta los 16. Es una diferencia mínima pero sustancial pues estamos ya cerca de lo imposible. Y cuando se alcance esta barrera, cuando se deje de cumplir la Ley de Moore, la tecnología dejará de avanzar. Esas sorpresas que nos avasallan casi  diariamente dejarán de producirse y todo avanzará mucho más  lentamente.

De ahí que los grandes fabricantes comiencen a interesarse por la Computación Óptica, la Computación Cuántica, los Biochips o la Computación Cognitiva, un forma de progresar, de resolver algunos de los problemas más acuciantes de la actualidad utilizando arquitecturas diferentes.

lunes, 29 de septiembre de 2014

Perros, Niños Traviesos, Vacas y Estrellas. La Matriz BCG en el análisis de la Satisfacción del Cliente

Cada vez resulta más complicado asistir a una presentación de resultados sin oír hablar de Perros, Niños Traviesos, Vacas y Estrellas. Son los protagonistas de la Matrix BCG, también conocida como la Matriz de Crecimiento.

Esta herramienta fue concebida en la década de los 70 por el Boston Consulting Group (de ahí su nombre) y se utiliza, generalmente, para el análisis de la cartera de negocios de una organización. Está, por tanto, muy ligada con la planificación y el marketing estratégico.

En la matriz intervienen dos variables. Una de ellas suele estar relacionada con algún factor económico (la cifra de negocio, los margenes operativos, la inversión realizada) mientras que la otra caracteriza el proceso objeto de análisis (la actividad comercial, por ejemplo), generalmente a través de un coeficiente de crecimiento.

En definitiva, la herramienta habla de estrategia, de la cifra de negocios, de cuota de mercado, de porfolios de productos y servicios, de tasas de crecimiento y de toma de decisiones. Parecen conceptos un tanto alejados de los sistemas de gestión de la calidad y, sin embargo, a mí me parecen fundamentales.

Con frecuencia nos quejamos de la falta de apoyo de la dirección, de la incomprensión de los gerentes ante nuestras propuestas de mejora, de las continuos reproches ante la burocracia impuesta por el sistema. Y cual herrero con cuchara de palo, olvidamos que el cliente siempre tiene la razón. Ellos contratan nuestros servicios y esperan que les ayudemos a mejorar, a potenciar el negocio, a conseguir más ventas o mejorar la productividad.

Y precisamente, ahí, en la falta de enfoque radican muchos de los males de Departamento de Calidad. Mientras nosotros hablamos de gestión, procesos, no-conformidades o acciones correctoras, ellos piensan en la cifra de negocio, el margen, los costes o en cómo mejorar el porfolio.

Ante la falta de entendimiento, los dos púgiles se ven obligados a pelear. Practican el mismo deporte, respetan las mismas reglas, utilizan los mismos guantes aunque sean de diferente color y persiguen un mismo objetivo aunque planteando estrategias dispares. Y es aquí donde la Matriz BCG puede resultar de inestimable ayuda al establecer un lenguaje común entre el mundo de los negocios y el de la gestión de la calidad.

domingo, 21 de septiembre de 2014

¿Cómo elegir un Software Open Source?

Hay grandes herramientas de Software Libre (Open Source) que pueden competir sin pudor con las comerciales. Sólo por citar algunas de las más conocidas:
  • OpenOffice: la alternativa a Microsoft Office. Uno de sus fork (hablaremos de esta palabreja en un momento), LibreOffice, está arrasando últimamente
  • Mozilla Firefox: competencia directa de Chrome y Explorer. Aunque no pasa por su mejor momento, estuvo cerca de dominar el mercado
  • Linux: qué vamos a decir de este Sistema Operativo
  • Apache: el servidor de aplicaciones más implantado
  • VLC: uno de los mejores reproductores de vídeo jamás desarrollados ahora también con capacidades de streaming
  • eMule, bitTorrent: dos herramientas para facilitar la comunicación Peer to Peer que revolucionaron Internet. Se usan profusamente con fines menos nobles pero, en su momento, ofrecían protocolos de comunicación innovadores y extremadamente eficientes
  • MySql: una base de datos que amenazaba con desbancar a SqlServer u Oracle. Y digo "amenazaba" porque Oracle compró todo el código hace unos años. También hablaremos sobre cómo es posible comprar un software que suele ser gratuito
  • Android: también ha sido publicado como Software Libre aunque no tiene licencia CopyLeft (ya sabéis, en un momento) ni deja abierto todo el código fuente.
Es posible encontrar aplicaciones que cubran prácticamente todas las necesidades de una empresa. Basta con darse una vuelta por SourceForce, una de las principales plataformas de Software Libre, para comprobarlo.

Suelen ser gratuitas, algunas realmente potentes y, sin embargo, optar por cualquiera de ellas siempre supone un cierto riesgo, más en el entorno empresarial. ¿Cómo saber si he elegido la más adecuada?, ¿dará demasiados problemas?, ¿carecerá de alguna funcionalidad importante? ¿sera complicada su instalación y puesta en marcha?, ¿tendrá soporte?.

lunes, 15 de septiembre de 2014

Seis consejos para Integrar Sistemas de Gestión

Es bastante frecuente encontrar organizaciones con varios Sistemas de Gestión, a veces casi incompatibles, desarrollados para cumplir los requisitos específicos de ciertas normativas.

Disponen de un Sistema de Gestión de la Calidad (ISO 9001), otro de Gestión Medioambiental (ISO 14001), uno más para la Gestión de Servicios (ISO 20000) y, ¿por qué no? uno adicional para asegurar la Seguridad de la Información (ISO 27001), por nombrar sólo algunas de las normativas más "populares".

En mi caso trabajamos con las cuatro normas anteriores y algunas más variopintas como EN 9100 (Calidad en los sectores Aeronáutico, Espacio y Defensa), CMMI DEV (niveles de madurez en proyectos de desarrollo software) o EFR (Empresa Familiar Responsable). Y vendrán más, los clientes cada vez se muestran más exigentes.

Y, sin embargo, sólo tenemos un Sistema de Gestión, diseñado para facilitar la integraciónde todos los requisitos de las normas anteriores.

domingo, 7 de septiembre de 2014

Una herramienta para incorporar el análisis de Riesgos y Oportunidades en el proceso de Revisión por la Dirección


No en todas las normas se da la suficiente relevancia al proceso de análisis y gestión de riesgos y oportunidades. Es un punto crítico en normas como la ISO 14001 (gestión medioambiental) o la ISO 27001 (Seguridad de la Información). También lo encontramos en la ISO 20000 (Gestión de Servicios) y en algunas más. Sin embargo, no está presente en la más genérica, la norma ISO 9001, aunque lo estará en la próxima revisión que será publicada en 2015 (ver más adelante).

Esta ausencia tan significativa es consecuencia de la complejidad de implementar este proceso en todos los niveles de la organización. En CMMI, por ejemplo, la gestión de riesgos no se introduce de forma global  hasta el cuarto nivel de madurez de los cinco establecidos.

Por el contrario, muchas organizaciones le restan importancia limitando su alcance a las operaciones (al desarrollo de productos y servicios) y reduciendo la gestión de riesgos a la mera selección de unos cuantos entre los expuestos en listas previamente preparadas y su posterior evaluación en cuanto a probabilidad de ocurrencia y posible impacto.

miércoles, 3 de septiembre de 2014

Dos increíbles inventos de la antigüedad que pudieron cambiar el mundo, pero que no lo hicieron

La innovación está de moda. Todo el mundo habla de ella. Las empresas dedican una ingente cantidad de recursos para transformarse en máquinas de innovar. Se fomenta la creatividad, la generación de ideas (incluso la cocreación haciendo partícipes a los clientes), se invierte incluso en las más alocadas. Resulta suficiente con que unas pocas consigan desarrollarse hasta llegar al mercado para justificar la inversión en un mundo tan competitivo como el actual. Innovar o morir es el mensaje.

Cada nuevo avance parece capaz de perdurar en el tiempo, promoviendo un proceso de cambio exponencial que logrará, a la postre, transformar el mundo. Sin embargo, la historia nos enseña que casi nunca ocurre así; hay demasiados factores que pueden relegar a grandes inventos al olvido.

Os dejo aquí dos muestras, dos inventos increíbles de hace ¡dos milenios! que debería haber cambiado nuestra civilización pero que no lo lograron.

lunes, 1 de septiembre de 2014

Cómo acceder a la Formación Online (MOOC) de Coursera, EdX, MiriadaX y OpenCourse vía RSS

Hace unos meses estuve intentando encontrar una forma sencilla y automática para acceder a las novedades de las principales plataformas que ofrecen MOOC (ver: MOOC una nueva forma de aprendizaje basada en la tecnología). Para mí, además de un gran pérdida de tiempo, carece de sentido tener que ir visitándolas una a una; lo haces el primer día y una semana después lo dejas.

Fue toda una sorpresa descubrir la enconada lucha que libran algunas Plataformas Web y la mayoría de las Redes Sociales por anular los protocolos abiertos de intercambio de información, limitando cada vez más, o eliminando directamente, la posibilidad de acceder a cualquier dato mediante protocolos como RSS, Atom or RDF (ver: Un protocolo asesinado en plena juventud, se busca a los culpables).

Comenté esta problemática con Carlos Méndez, un colega, un friki de la tecnología y un gran amigo. Tras quince minutos, la conversación derivó hacia los Sistemas de Vigilancia Tecnológica y, en particular, a las herramientas de extracción automática de datos no estructurados, también conocidos como Web Scraping (ver Una forma práctica de implantar un Sistema de Vigilancia Tecnológica).

Resultó evidente que las funcionalidades de este tipo de herramientas deberían permitirnos acceder a las plataformas MOOC para extraer la lista de novedades y transformar esta información en un formato estándar que pueda ser leído por cualquier Lector de Noticias basado en RSS o ATOM.

jueves, 28 de agosto de 2014

Dos maneras ¿enfrentadas? de entender la Gestión del Conocimiento

Cuando hablo o participo en debates sobre la Gestión del Conocimiento suelo encontrar dos posturas enfrentadas. Una de ellas se centra en la COLABORACIÓN, en cómo crear valor a partir la interacción entre las personas. La otra se basa en el ANÁLISIS, en cómo explotar la información disponible para convertirla en conocimiento. Conocimiento Implícito y Conocimiento Explícito siempre juntos, siempre enfrentados.

He de reconocer que soy un acérrimo seguidor de una de ellas mientras que la otra levanta en mí ciertas dudas. Espero, no obstante, ser lo suficientemente objetivo para no desvelar mis preferencias. Incluso he seleccionado imágenes de películas de los Hermanos Marx que, espero, resulten suficientemente neutrales para no ofrecer demasiadas pistas.

Pero, si habéis podido deducirla de las reflexiones subsiguientes o queréis expresar la vuestra, utilizad la opción COMENTARIOS de este blog o de cualquiera de las redes sociales en donde encontréis este artículo.

miércoles, 27 de agosto de 2014

La Formación Interna, una poderosa herramienta para la Gestión del Conocimiento

Hace un tiempo puse el grito en el cielo al recibir la propuesta de un gerente para formar a uno de sus colaboradores. Podía comprender que ofrecer formación como incentivo o sucedáneo de retribución resultase lícito ante limitaciones presupuestarias y las subsiguientes restricciones salariales, pero un curso de conducción sobre nieve en Finlandia era excesivo. ¿Que vendría después?, ¿rafting en los pirineos?, ¿doma de caballos en Jerez?. Afortunadamente, supe contener mi ira e indagué un poco más. La propuesta estaba plenamente justificada pues el destinatario trabajaba en un equipo de pruebas de un importante fabricante de automóviles y necesitaba realmente entender el estrés que sufren los vehículos en situaciones extremas.

Es un ejemplo límite pero ilustra bastante bien el tipo de formación externa que una organización debería ofrecer: cursos muy especializados, impartidos por expertos reconocidos, con un alto valor añadido tanto para el empleado como para el negocio.

Sin embargo, por aquélla época, la mayor parte de los recursos se dedicaban a contratar proveedores de formación, digamos, clásica como gestión de proyectos y servicios, desarrollo software, pruebas de sistemas, uso de herramientas de diseño o para obtener certificaciones técnicas. Las valoraciones de los alumnos eran aceptables aunque nunca excelentes; incluso se suspendían algunas formaciones ante la constatación de la falta de conocimiento o experiencia del formador.

No me costó demasiado entender la raíz del problema: con cierta frecuencia nuestros expertos sabían más que los formadores. No es de extrañar; somos una empresa especializada en tecnología, ingeniería e innovación; lo contrario habría llamado poderosamente la atención.

Recalco "con cierta frecuencia" porque no quiero menospreciar o menoscabar las capacidades de los proveedores de Formación Técnica. Existen loables empresas en este sector y grandes formadores con excelentes conocimientos técnicos y capacidades de comunicación. El hilo de mi rozamiento va por un camino muy diferente.

UN NUEVO MODELO DE FORMACIÓN TÉCNICA

domingo, 17 de agosto de 2014

Los 20 robots más sorprendentes de la actualidad en acción (y algunos más)

La robótica es una ciencia o una técnica aún en pleno desarrollo. Aunque lo más común es encontrarnos con formas humanoides o inspiradas en la naturaleza (especialmente en el mundo de los insectos), se están realizando continuas pruebas de concepto que nos ofrecen diseños sorprendentes.

La utilidad de estos robots alternativos puede parecer escasa pero algunos de ellos sentarán, sin duda, la base para la creación de una nueva generación de ingenios más flexibles, más adaptables al entorno, más especializados.

Aquí os dejo nueve de los que me han llamado más la atención y un fantástico vídeo final con los que, probablemente, sean los más avanzados jamás construidos.

ORIGAMI

Científicos del MIT se encuentran estudiando las posibilidades del auto-ensamblaje, es decir, la posibilidad de que los robots se construyan a sí mismos para realizar tareas específicas en función del entorno en donde deban trabajar. Para lograrlo, han seleccionado polímeros con memoria (capaces de recuperar su forma original por sí solos) diseñados para contraerse cuando alcanzan los 100%, temperatura que se consigue gracias a la propia circuitería electrónica que acompaña a tan extraño ingenio.


Recientemente, investigadores del MIT y la Universidad de Munich han presentado una evolución de esta tecnología bajo un título, "Un origami micro-robot sin ataduras que se despliega, anda y se degrada" que, creo, lo dice todo. Echad un vistazo a este increíble ingenio (más información... y mucha más...)


sábado, 16 de agosto de 2014

Aplicación de las 8 Disciplinas en la gestión de Quejas y Reclamaciones

Según el diccionario:
  • Una queja es una muestra de dolor, pena, descontento o enfado, una muestra de disconformidad, oposición o protesta por alguna cosa.
  • Una reclamación es la protesta u oposición que se hace a una cosa que se considera injusta o insatisfactoria, la exigencia de una cosa que se hace con derecho o insistencia
En ambas hay una PROTESTA, una expresión de DISCONFORMIDAD aunque, en las reclamaciones, el énfasis recae más en la EXIGENCIA, en la REPARACIÓN de un agravio.

Sea como fuere, establecer un proceso adecuado para la gestión de quejas y reclamaciones es uno de los puntos clave en la implantación de cualquier sistema de gestión al estar íntimamente relacionado con el negocio y con el grado de satisfacción de los clientes.

Esta gestión dependerá en gran medida del entorno en el que se desarrolle la actividad de una organización. No puede diseñarse el mismo proceso para una empresa que lance al mercado productos de gran consumo, ofrezca servicios en línea o desarrolle productos a medida para un selecto conjunto de clientes. Aún así existen aspectos comunes, actividades que, con un mayor o menor grado de desarrollo, siempre deben acometerse.

miércoles, 13 de agosto de 2014

El Coste de la Calidad en los Proyectos

Para el control financiero de los proyectos se suele utilizar la Contabilidad Analítica. Así, semanal o mensualmente, los miembros de los equipos de desarrollo deben reportar las horas dedicadas al proyecto empleando algún tipo de herramienta. Son horas que duelen pues, al ser imputadas, aumentan el coste y afectan directamente al margen del proyecto y, en consecuencia, al cumplimiento del presupuesto establecido.

Se entiende así que, hace unos días, un Jefe de Proyecto, nos preguntara:

"¿Dónde imputo las horas que dedico a la Calidad?"

Es una pregunta que, por derecho propio y ocupando un puesto destacado, merece ser incluida en la sección que dedicamos en este blog a recopilar las "Frases Memorables de la Calidad".

El objetivo de nuestro ínclito protagonista era, desde luego, obtener algún código en el que pudiera imputar unos trabajos que considera ajenos a su proyecto.

Para responder, perdonadme que vaya a recurrir a la lógica aristotélica y a al famoso método de "Reductio ad absurdum" o, simplemente, Reducción al Absurdo (poner algo en latín siempre aporta algo de categoría a un artículo). Y os pido perdón porque es una técnica que puede ser tachada de excesivamente simplista y que, además, suele provocar una cierta irritación en el interlocutor. Sin embargo, me va a permitir abordar este tema, sobre el que tanto se ha hablado y se habla, desde una perspectiva un tanto diferente.

Os propongo tres posibles alternativas para dar respuesta a esta trascendente cuestión. La primera un tanto absurda, la segunda algo menos y la última un tanto más razonable.

domingo, 3 de agosto de 2014

La carrera por crear la primera Inteligencia Artificial

1905 es conocido como el Annus Mirabilis de la ciencia gracias a los cuatro artículos que publicó Albert Einstein destinados a transformar la física y cambiar nuestra forma de concebir la realidad. 

En el primero, explicaba el Movimiento Browniano -la vibración aleatoria de las partículas microscópicas que se produce cuando se encuentran sumergidas en un fluido- y con él los fenómenos físicos de la Difusión y la Osmosis. Este trabajo confirmaba, además, la existencia de los átomos (aún cuestionada en aquella época) y sentaba los fundamentos de la física estadística y la Mecánica Cuántica

En el segundo, Einstein explicaba el Efecto Fotoeléctrico mediante el cual la materia emite electrones cuando se ve iluminada por una radiación electromagnética. Curiosamente, Einstein recibió el premio Nobel por este trabajo y no por su Teoría de la Relatividad, publicada en el tercero de los artículos.

Finalmente, en la cuarta publicación, Einstein desarrolló la equivalencia entre la masa y la energía y presentaba al mundo su famosa ecuación: E=mc2, seguramente la fórmula más conocida de la física y quizás la más denodada pues gracias a ella se han desarrollado los reactores nucleares y, lamentablemente, las bombas atómicas de fusión y fisión.

Einstein es, sin duda, el protagonista absoluto de este brillante capítulo de la historia de la física. Pero no estuvo solo. Sin los trabajos de algunos otros grandes científicos como Max Planck, James Maxwell, Ludwig Boltzmann, Heinrich Hertz o Niels Bohr jamás se habría podido lograr tal transformación de la física.

EL ANNUS MIRABILIS DE LA TÉCNICA

miércoles, 23 de julio de 2014

To meet or not to meet, that is the question

Ayer rememoré una situación un tanto cómica (casi esperpéntica). Ocurrió en una casa rural en Asturias cuando escuché a un amigo despotricar en un tono demasiado elevado a través de la puerta del baño. No podía estar hablando por el móvil, aún no estaban disponibles, así que, cuando salió, me atreví a preguntarle qué demonios estaba haciendo. Me contestó que ensayaba frente al espejo la reunión del Lunes con su Jefe. Esa persona era, por aquél entonces, un ingeniero industrial y ahora es Director General de una importante empresa española.

La importancia de las reuniones. Las omnipresentes, odiadas y temidas reuniones. Todos las sufrimos, todos las necesitamos. Son ladrones de tiempo para la mayoría y la única forma de comunicar, implicar o motivar para el resto.

He tenido algunos grandes jefes y otros muy pequeños. Uno de los primeros me dijo una vez: "nunca organices una reunión sin saber cuál va a ser el resultado", que equivale a decir, "nunca abandones una sala sin haber conseguido lo que buscabas", recomendaciones que he seguido al pie de la letra desde entonces.

Sin negar (aunque sin compartir completamente) la necesidad o utilidad de algunas sesiones, orientadas a fomentar la colaboración, la cohesión del equipo o la generación de ideas (recordemos aquellas tormentas de ideas tan populares hace unos años), voy a centrarme en las más habituales, al menos en el entorno en donde se desarrolla mi actividad profesional.

Son aquéllas organizadas por un gestor con su equipo o con sus iguales. La temática puede ser variada pero el resultado debe ser siempre el mismo: conseguir cumplir los objetivos que nos hemos marcado. Parece obvio pero en demasiadas ocasiones me encuentro participando en reuniones anárquicas, sin saber muy bien qué hago allí, con la clara sensación de que el organizador tampoco lo tiene claro.

lunes, 21 de julio de 2014

Cumplimos 6 meses

A principios de año me decidí (por fin) a participar de forma activa en la Red (perdonadme, no sé muy bien cómo referirme a ella: Internet, Web 2.0, Red Social).

No me sobra el tiempo pero duermo mucho menos que las personas con las que comparto mi vida así que opté por aprovechar esas tempranas horas fantasmas para compartir mi experiencia profesional.

Tenía dos objetivos: conocer el punto de vista de otras personas con intereses parecidos y comprender mejor los infinitos canales de comunicación y colaboración disponibles en la actualidad.

jueves, 17 de julio de 2014

Las siete cosas que aprendí de PMP

Hace más de tres lustros recibí la formación para la preparación de PMP (Project Management Professional certification). No recuerdo la fecha exacta y, lo que es más lamentable, he olvidado también el nombre de formador. Era el presidente de PMI (Project Managment Institute) en España pero hasta ahí llego.

Fui un alumno participativo lo que equivale a decir rebelde y un tanto puñetero. Por aquél entonces era un Jefe de Proyecto con poca experiencia, acostumbrado a técnicas de gestión caseras (por no decir, chapuceras), muy diferentes de las propuestas por aquel organismo. Salí contento de la formación pero sin la más mínima intención de aplicar lo aprendido en el trabajo. Como decía el gran Obelix: "están locos estos americanos".

Sin embargo, algunas recomendaciones de aquél formador anónimo quedaron grabadas en mi cabeza y, poco a poco, las fui interiorizando y aplicando en mi trabajo diario.

Son siete lecciones, tamizadas por el tiempo y mi experiencia profesional. En estos años, la certificación PMP ha cambiado y yo también. Es posible que estas buenas prácticas hayan recibido un nuevo enfoque pero creo que lo aprendido aún sigue manteniendo cierta vigencia.

sábado, 12 de julio de 2014

¿Qué hay detrás de Siri, Google Now?, ¿Por qué los asistentes parecen cada vez más inteligentes?

Comenzamos con una foto de la Siri propuesta por los chicos de Big Bang Theory, mucho más atractiva que el triste micrófono que identifica a los asistentes personales de Apple o Google.

En el capítulo, Rajesh Ramayan Koothrappali descubre las bondades de disponer de un asistente personal hasta el punto de llegar a enamorarse del ente electrónico. Lamentablemente, cuando al fin consigue conocerla (en un sueño), su problema con las mujeres le impide proferir palabra alguna.

Aunque de forma más controlada, algo similar le está ocurriendo a los usuarios de Apple y Android (para los que os pique la curiosidad, la propuesta de Microsoft se llama Cortana). El motivo es sencillo: los asistentes cada vez aciertan más, ofreciendo información pertinente en un buen número de ocasiones.

Pero, ¿cómo lo consiguen?. Te sorprenderá comprender la cantidad de información de diferente naturaleza que son capaces de analizar para extraer datos personales y conocer tus gustos, preferencias y costumbres.

COMPRENSIÓN DEL LENGUAJE NATURAL

viernes, 11 de julio de 2014

Most important events of Internet and Social Networks history


March 24, 1844 Samuel Morse transmitted the first telegram: "What hath God wrought?", a bible place that it's just part of the history (more...).

March 7, 1876 Grahan Bell called his assistant to say him:: "Mr. Watson--come here--I want to see you." (más...). However it was not the first telephone call, On word of the real inventor, Antonio Meucci, the first words were: "How are you, darling?, It's me, Antonio, Do you hear me?" (more...)

On April 3, 1973 the fist call using a mobile phone was done. The story  (or the legend) is well knon. Martin Cooper, a Director in Motorola, decided to call to the Joel Engel phone, its main competitor in Bell, Labs, to say him "Joel, this is Marty. I'm calling you from a cell phone, a real handheld portable cell phone" (more...)

Those three events are just now part of the history. There are others, more recent, that will be shortly included in. Maybe, in one or two centuries, they still being studied in schools and universities. Over most of them, there are interesting stories that, due to space limitations, I cannot expose here. Anyway, you will find links where they are explained in detail.

THE FIRST TRANSMITTED WORD

October, 29th of 1969, around 22:30, Leonard Kleinrock and his student, Charley Kline, of the UCLA sent the first message through the military network ARPANET. The tries to transmit a LOGIN command to server located in the, but the network failed y only "LO" was transmitted. This was the first word sent between two servers; undoubtedly a modest beginning.

THE FIRST EMAIL

It was sent by Ray Tomlinson on September 1973. It was only a test between two server connected by ARPANET (the precursor of Internet) separated by only ten meters. The other great innovation of Tomlinson was to include the "@" for differentiate user and server in eMail addresses.

Whenever Ray in interviewed, then same question arrives "Which was the text you sent in the first email? and he always answers the same: "I don't remember, it was a test, maybe I wrote something line QWERTYUIOP". It's a pity, but Do you remember you first eMail. Anyway, we have a photograh of those server that sent the first email; it's not the same but something (más...)

THE FIRST JOKE

lunes, 7 de julio de 2014

13 hitos fundamentales en la historia de Internet y las Redes Sociales

El 24 de Mayo de 1844 Samuel Morse transmitió el primer telegrama de la historia: "What hath God wrought?" (¿Qué nos ha forjado dios?), una cita bíblica que ha pasado a la historia (más...).

El 7 de Marzo de 1876, Grahan Bell llamó a su ayudante para decirle: "Sr Watson, venga, quiero verle" (más...), aunque no fue la primera llamada telefónica. Según el verdadero inventor, Antonio Meucci, las primeras palabras que transmitió fueron: "¿Cómo estás, querida?, soy yo, Antonio, ¿me oyes BIEN?" (más...)

El 3 de Abril de 1973 se realizó la primera llamada mediante un teléfono móvil. La historia es bien conocida, Martin Cooper, un directivo de Motorola, decidió llamar al fijo de Joel Engel, su competidor en los laboratorios Bell, para decirle "¿A qué no sabes desde dónde te llamo?" (más...)

Estas tres efemérides han pasado a la historia. Hay otras, mucho más recientes, que lo harán en breve. Quizás dentro de uno o dos siglos aún se sigan estudiando en escuelas y universidades. Tras casi todas ellas ellas hay jugosas historias que, por motivos de espacio, no puede exponer aquí, aunque si os dejo enlaces donde son explicadas en detalle.

LA PRIMERA PALABRA TRANSMITIDA

El 29 de Octubre de 1969, un poco más tarde de las 22:30, Leonard Kleinrock y su alumno, Charley Kline, de la Universidad de California enviaron el primer mensaje a través de la red militar ARPANET. Intentaban transmitir el comando "LOGIN" a un servidor del SRI, pero la red falló y sólo llegó al otro extremo "LO". Fue ésta la primera palabra enviada entre dos servidores; un modesto comienzo sin duda. .

EL PRIMER CORREO ELECTRÓNICO

Lo envió Ray Tomlinson en Septiembre de 1973. Fue una prueba entre dos servidores conectados por la red ARPANET (la precursora de Internet) separados por apenas 10 metros. Su otra gran innovación fue incluir la @ para separar usuario y servidor.

Cada vez que entrevistan a Ray le hacen la misma pregunta: "¿Qué texto enviaste?" y siempre responde lo mismo: "No me acuerdo, eran pruebas, quizás escribiera algo del estilo QWERTYUIOP". Una pena pero ¿os acordáis vosotros de cuál fue vuestro primer correo electrónico?". Sí tenemos una fotografía de esos dos primeros servidores; valga como triste sucedáneo (más...)

Comentar también que el 11 de marzo de 1992, Nathaniel Borenstein envió a sus colegas el primer adjunto de un correo electrónico de la historia: una foto de su cuarteto musical —The Telephone Chords— y una canción a capela al estilo barbershop: Let me send you email. La música es terrible, pero histórica (más info).

EL PRIMER BROMISTA

La hizo alguien en 1984, enviando un mensaje por UseNet, un sistema de mensajería, en el que comunicaba que la Unión Soviética se abría al mundo occidental inaugurando un foro en esta plataforma.

El mensaje fue enviado desde la dirección "Chernenko@kremvax.UUCP" en clara referencia a Konstantín_Chernenko, el secretario general de la URSS en aquélla época, y al Kremilin ("krem+vax").

Fue una guiño al proceso de apertura ruso que tardó dos semanas en ser descubierto. Seis años más tarde, cuando la URSS abrió sus comunicaciones, se aprobó usar el dominio "kremvax" como homenaje a aquella primera burla.

viernes, 4 de julio de 2014

Los 6 algoritmos de recompensa más relevantes en las Redes Sociales y Plataformas Web 2.0

Exceptuando a algunas personas realmente altruistas, cuando alguien participa de forma activa en una Red Social lo hace por algún motivo, colabora en busca de algún beneficio personal o profesional (entendidos de la forma más amable posible). Son estas recompensas en buena parte responsables del éxito de dichas redes y de otras plataformas y herramientas de Internet. Es un hecho conocido desde hace años que sólo ahora se está formalizando mediante las Técnicas de Gamificación.

Cuando intentas trasladar lo aprendido en las Redes Sociales al entorno empresarial lo haces con gran optimismo. Es una necesidad real de tu empresa y esperas que todos participen animosamente, compartiendo las perlas de conocimiento que atesoran en sus cabezas.Sueñas con transformar la empresa, con convertirla en una Learning Organization, en una organización capaz de aprender de cada una de las actividades que emprende, capaz de extraer y explotar en beneficio de los empleados todo el conocimiento disponible.

Pero esos animosos empleados, ¿por qué van a participar en esta transformación?:
  • Porque quieren contribuir al desarrollo de la empresa. Sin comentarios.
  • Para ser más productivos en su trabajo. Dedicar tiempo a ofrecer información implica dedicar menos tiempo al trabajo diario lo que va, precisamente, en contra de la productividad. O eso piensan.
  • Porque quieren ayudar a otros compañeros. Hay personas así, pero no son mayoría.
  • Para salir airosos ante problemas que no sabes resolver. Por aquí vamos mejor, el problema es que tendrás mucha gente ávida de información y muy poca dispuesta a ofrecerla.
  • Para obtener un reconocimiento profesional, para destacar entre los mejores expertos, para ganar visibilidad. Y por aquí, mucho mejor.

El BOE, ¿está obligado a ocultar los indultos?

No sé bien por qué, pero llevo toda la semana topándome con algunas joyas que destapan problemillas como la seguridad en los terminales de las bicicletas de alquiler de Madrid o la del portero automático de tu vivienda.

Le toca ahora al BOE (el Boletín Oficial del Estado, ya sabéis). Y creo que voy a dejar de leer este tipo de cosas; comienzo a asustarme.

Es un tema antiguo del que ya se habló bastante en 2011. En ese año se aprobó el derecho al olvidó en España lo cuál podía afectar, y afectó, al BOE. Ese mimo año, la Agencia Española de Protección de Datos dictaminó que el BOE debería poner los medios necesarios para impedir que los buscadores pudieran acceder a cierta información de carácter personal. El BOE recurrió, pero de nada sirvió así que tuvo que buscar una solución.

Cualquier sitio Web puede crear un fichero de nombre "Robots.txt" para instruir a los buscadores sobre la forma en que deben tratar la información allí expuesta. Si pulsáis AQUÍ, podéis ver el que utiliza este Blog, una obra de arte de 8 líneas.

Mediante este sistema se pueden añadir claves de búsqueda al Blog, ofrecer un enlace al mapa del sitio y otras muchas cosas más; entre ellas evitar que ciertas páginas del sitio aparezcan en los resultados de la búsqueda.

Pues bien, el BOE optó por esta posibilidad y la ha empleado de forma intensiva durante los últimos tres años. Ahora su fichero ROBOTS.TXT tiene la friolera de 8000 líneas (algunas más, pero perdonadme la imprecisión). Hasta aquí todo correcto, es un derecho de cualquier ciudadano poder solicitar que no aparezcan sus datos personales en los buscadores.

El problema surge cuando comenzamos a analizar el contenido. Podéis ver el fichero del BOE pulsando AQUÍ. Encontraréis una lista interminable de referencias a Internet que podéis consultar fácilmente (cogéis la referencia, la pegáis en el navegador y anteponéis www.boe.es/[REFERENCIA])

jueves, 3 de julio de 2014

¿Es seguro el portero automático de tu casa?

Hace unos días me encontré por Internet una auditoría interna independiente realizada a los terminales de la bicicletas de alquiler de Madrid que muestra una serie grave de fallas de seguridad y explica algunos de los problemas que se están presentando en la puesta en marcha de este sistema tan necesario para la ciudad (acceder al artículo...).

Ahora me encuentro con otra joya, esta vez relacionada con los poteros automáticos de una cierta marca (no voy a nombrarla aquí) y los problemas de seguridad que presentan, más por la instalación que por el propio terminal. Desconozco si lo aquí expuesto es de aplicación a otros productos de otros fabricantes, pero merece la pena informarse.

El tema es que los manuales de estos porteros automáticos están publicados en Internet (cómo debe ser) y explican cómo ponerlos en modo administrador para cambiar su configuración (de nuevo, cómo debe ser).

El problema viene cuando el instalador (no es un problema del fabricante) decide no cambiar la clave de acceso y deja la de fábrica por defecto (estoy seguro que es una práctica habitual, ya pasaba antes con los routers que nos instalaban los operadores para acceder a Internet). En esta situación, pulsando unas cuántas teclas puedes, por ejemplo, aumentar el tiempo que tarda la puerta en abrirse o, poniendo cero, impedir que ésta se abra, dejando a los vecinos en la calle.

Una persona maliciosa también podría cambiar la clave de administración y tomar el control. Para "resetearla" sería necesario desmontar el aparato completo.

Os dejo aquí la joya a la que me refería, en la que se explica mucho mejor todo el proceso:


Y una pregunta, ¿es posible tomar el control de los vídeo porteros de una forma tan sencilla?. De ser así, ¿alguien podría ver el salón de tu casa desde la calle pulsando unos cuantas teclas?

También puede interesarte:


martes, 1 de julio de 2014

¿Qué les ha pasado a las bicicletas de alquiler de Madrid?

Vas a coger un bicicleta en Madrid, de esas eléctricas que puedes alquilar, y te encuentras con una imagen porno en el terminal. Alguien ha hackeado el sistema.

Los problemas no acaban aquí. Dada la inseguridad de los terminales, se han bloqueado algunas opciones de pago y sólo se admiten las más básicas (principalmente con tarjeta de abono). A lo que se añaden problemas de velocidad, bloqueos y demás.

Por cierto, en la foto parece la mayor parte de los espacios vacíos, raro es considerando estos problemas, pero vamos a pensar que es así.

Aquí podéis encontrar una noticia del mundo con algo más de detalle.

Lo que en realidad ha ocurrido es que los terminales tienen unas enormes fallas de seguridad. Decompilando la aplicación móvil de BiciMadrid se pueden obtener enlaces a fuentes de datos, se utilizan conexiones a Internet no cifradas y se puede acceder a una serie de ficheros de configuración, incluyendo los peligrosos ".PEM" (para ellos se entiende) y la clave privada del RSA (sí, una clave privada aunque puede que ya no esté en uso).

Os dejo aquí un joya, una auditoría de seguridad independiente realizadas a los terminales que muestra todo el proceso técnico y los principales problemas encontrados. No os la perdáis:


Y nada más. Montar en bici puede resultar más o menos peligroso hasta que Madrid esté algo mejor preparada. Mucho más arriesgado es confiar a día de hoy cualquier dato a esos terminales.

Pero, no os preocupéis; seguro que lo arreglan en un momento.

Si te interesa la seguridad, también puedes consultar:

Si te interesa el medioambiente, recomendamos:

lunes, 30 de junio de 2014

Super-Capacitadores, baterías ecológicas de carga ultra-rápida

El grafeno es un material generado a partir del grafito; es poco más que carbono puro con los átomos dispuestos en un patrón regular hexagonal sobre una superficie tan fina como quepa imaginar. En realidad se puede considerar al grafito como una serie de láminas de grafeno apiladas y cohesionadas gracias a las fuerzas de Van der Waalls

Pero es un material con propiedades asombrosas. Es 200 veces más ligero que el acero (una placa de 1 metro cuadrado pesa 0,77 miligramos) y 200 veces más resistente. Es duro (más que el diamante) y muy flexible (más que la fibra de carbono) además de elástico y completamente transparente. Presenta muy buena conductividad tanto térmica como eléctrica lo que le permite transmitir la corriente eléctrica sin calentarse demasiado.

El grafeno es, en definitiva, un super-material, quizás el más importante jamás descubierto, con un tremendo potencial de aplicaciones consecuencia de su alta reactividad química y de la posibilidad de ser dopado para alterar sus propiedades.

Entre estas aplicaciones está la creación de transistores y cables de fibra óptica más veloces, cámaras fotográficas más sensibles, nuevas pantallas táctiles flexibles o super-capacitadores. Son estos últimos lo que presentar un mayor potencial de beneficio medioambiental.

sábado, 28 de junio de 2014

Cuando tu móvil sea casi tan inteligente como tú

Es curioso, a los ordenadores siempre se les ha considerado "máquinas tontas". Manipulaban datos (de ahí el término francés "ordinateur" que les da nombre), realizaban cálculos (la alternativa anglosajona, "computer", mucho más acertada) y poco más.

Todo cambió hace apenas un lustro cuando algún avispado director de marketing decidió incorporar la palabra "smart" (listo, inteligente, rápido, elegante pero también escozor o dolor) a su catálogo de productos. Fue un pequeño despiste; en realidad quería decir que nos iba a poner una de esas "máquinas tontas" en la palma de la mano.

Si los fabricantes de móviles ("smart phones", perdón) se afanan por minimizar un ordenador, los de televisores ("smart TV", perdón de nuevo) luchan por ocultarlo, haciéndonos creer que hemos comprado otra cosa cuando, en realidad, hemos puesto un ordenador en el salón.

Sin embargo, nadie habla de "smart labtops" o de "smarts tablets", como digo, cosas del marketing.

El hecho es que ninguno de estos dispositivos, ordenadores con diferentes camisas, tiene un ápice de inteligencia. A pesar de ello, se están produciendo avances acelerados en Inteligencia Artificial que podrían alterar esta situación.

SMART MINSKY

Si alguien se merece esta calificativo es, sin duda, Marvin Minsky, uno de los fundadores de la Inteligencia Artificial, disciplina que nació oficialmente en la famosa conferencia de ciencias de computación celebrada en el Darmouth College en 1956 (aquí podéis ver una entrevista que ha concedido recientemente en la que comenta su visión sobre los avances en IA que se están produciendo recientemente).

Acompañaban a Minsky genios de la talla de John McCarthy (fue él quien acuñó el término Inteligencia Artificial y, más recientemente, Cloud Computing), Allen Newel (autor del lenguaje IPL y de interesantes trabajos sobre la teoría cognitiva) o Herbert Simon (además de todo, premio Nobel en Economía).

Ese día los ordenadores dejaron de ser calculadoras para convertirse en máquinas que, potencialmente, llegarían a equipararse con el cerebro humano. Comenzaron así dos décadas de investigación básica encaminada a modelar las funciones mentales superiores y diseñar sistemas capaces de aprender de la experiencia.

Se concibieron los primeros sistemas expertos que aplicaban un conjunto de reglas heurísticas para tomar decisiones (los sistemas más avanzados podían incluso generar nuevas reglas a partir del conjunto inicial). Les siguieron las redes neuronales que sustituyeron la algoritmia lineal por un proceso no-determinista capaz de aprender de los errores y los algoritmos genéticos en donde las potenciales soluciones a un problema luchan sin piedad por sobrevivir en un proceso de selección artificial; una idea brillante de John Henry Holland inspirada por otra aún más colosal de Charles Darwin,.

En paralelo, prometedoras teorías cognitivas (sobre la forma en que las personas adquieren y generan nuevos conocimientos) se fueron desarrollando en un entorno cada vez más optimista. El propio Minsky llegó a afirmar que “en una generación, el problema de crear inteligencia artificial estaría básicamente resuelto”.

Pero, como el propio Minsky supo reconocer, se equivocó.

jueves, 19 de junio de 2014

Una forma práctica de implantar un Sistema de Vigilancia Tecnológica (Parte Segunda)

En la entrada anterior hemos visto las principales actividades que deben realizarse en un Sistema de Vigilancia Tecnológica Activa. Resumiendo:
  • Se debe establecer un proceso para recibir peticiones y analizar su viabilidad
  • Se deben elegir los expertos (internos o externos) que trabajarán en el informe de vigilancia
  • Se deben seleccionar las fuentes de información más relevantes.
  • La información obtenida de estas fuentes (generalmente de forma automática) deberá ser estructurada y valorada para determinar su relevancia
  • Será necesario preparar un informe que vendrá plagado de indicadores y gráficos de tendencia.
Parece complicado, ¿verdad?. Sin embargo, la mayor parte de estas actividades pueden ser automatizadas lo que nos permitirá centrar los esfuerzos en el proceso intelectual, compañero inseparable de la Vigilancia Tecnológica.

MODELO ORGANIZATIVO

En función de las necesidades anteriores, podemos identificar los siguientes roles:
  • Sponsor: como todo proceso de cambio, implantar un sistema de Vigilancia Tecnológica requiere del apoyo de la dirección, de una persona que haga suyo el proyecto y sus objetivos con suficiente autoridad para resolver conflictos, asegurar la disponibilidad de recursos y promover los resultados entre los diferentes estamentos de la organización.
  • Gestor: será el responsable de coordinar toda la actividad. Entre sus funciones, recibir las peticiones de información, evaluarlas y priorizarlas. También deberá formar los equipos de trabajo, y asegurar la disponibilidad de fuentes de información. Otras de sus funciones más relevantes pasas por validar y difundir los informes generados y determinar los Factores Críticos de Vigilancia.
  • Técnicos: la primera de sus funciones consiste en configurar las herramientas disponibles para que sean capaces de extraer datos de las fuentes de información requeridas y faciliten la colaboración. La organización dispondrá de algunas estándar, seleccionadas (o contratadas) desde el mismo momento de la concepción del sistema, pero suele ser frecuente tener que preparar otras, más específicas, para cubrir las necesidades concretas de cada proyecto de vigilancia. Normalmente, los técnicos realizarán un primer filtrado de los datos recolectados y generarám los indicadores primarios, aquéllos que pueden obtenerse automáticamente de los datos extraídos.
  • Expertos: serán las personas encargadas de analizar la información disponible y elaborar los informes requeridos. Entre sus funciones también está seleccionar las fuentes de información que deberán ser inspeccionadas y definir el conjunto de indicadores derivados que aportaran valor a los informes de vigilancia. Este equipo podrá estar formado exclusivamente por personas de la organización aunque suele ser frecuente contar con la colaboración de personal externo.
Puede parecer que está estructura requiere de un inversión elevada y es así en su máxima expresión. Sin embargo, puede ser aligerada utilizando herramientas y fuentes de información gratuitas o de pago por uso y haciendo partícipes a los expertos internos de la organización.


sábado, 14 de junio de 2014

Una forma práctica de implantar un Sistema de Vigilancia Tecnológica (Parte Primera)

¿QUÉ ES?

Como para cualquier otro concepto, podemos encontrar infinidad de definiciones. Yo he simplificado la establecida por la familia de normas UNE 166000 (ya hablaremos de ellas más adelante):

"Un sistema de Vigilancia Tecnológica debe permitir a una organización seleccionar información tanto externa como interna, clarificarla, difundirla y analizarla para convertirla en conocimiento que pueda ser utilizado para disminuir el riesgo en la toma de decisiones."

En cuanto al tipo de información, el foco en esta disciplina está, evidentemente, en la tecnología. Sin embargo, los modelos organizativos y las plataformas de soporte son igual de válidos para cubrir cualquier área de interés. Si, por ejemplo, nos centramos en la actividad de otras empresas del sector estaríamos hablando de Análisis de la Competencia o de la Inteligencia Competitiva. También podríamos utilizar los mismos mecanismos para investigar los modelos de gestión de personal que se están aplicando en otras organizaciones o la forma en que despliegan su marketing en las redes sociales.

Lo que si es fundamental es que el sistema de Vigilancia Tecnológica Sistemática incorpore un fuerte componente tecnológico que facilite la extracción de datos de las distintas fuentes de información y permita difundirla entre a los grupos de interés. Por supuesto, la Vigilancia Tecnológica puede realizarse manualmente encargando el trabajo a expertos; probablemente obtengas unos informes inmejorables, pero no lo harás de forma sistemática.

Indicar también que aquí hablaremos de los sistemas de vigilancia activa (monitoring) frente a los de vigilancia pasiva (scanning). En los primeros se busca localizar y analizar información para satisfacer una necesidad concreta, un proceso que suele realizarse bajo demanda. Por el contrario, en los segundos se realiza un análisis continuo de la evolución de un determinado sector con propósitos más generalistas; es un modelo frecuente en los Observatorios y Radares Tecnológicos.

Por último es importante establecer una clara diferenciación entre la Vigilancia Tecnológica y, en especial, la Inteligencia Competitiva frente al Espionaje Industrial. En el primer caso deben existir unos compromisos éticos y morales y una estricta garantía del cumplimiento de la legislación y las normas que protegen la propiedad intelectual. Del segundo no sé qué deciros, quizás tendríamos que preguntar a algún colega de James Bond.

Si estáis interesados en esta segunda rama de adquisición ilegal del conocimiento os dejo un artículo en el que se ofrecen detalles de 10 grandes casos de espionaje industrial.

¿LA NECESITO REALMENTE?