lunes, 30 de junio de 2014

Super-Capacitadores, baterías ecológicas de carga ultra-rápida

El grafeno es un material generado a partir del grafito; es poco más que carbono puro con los átomos dispuestos en un patrón regular hexagonal sobre una superficie tan fina como quepa imaginar. En realidad se puede considerar al grafito como una serie de láminas de grafeno apiladas y cohesionadas gracias a las fuerzas de Van der Waalls

Pero es un material con propiedades asombrosas. Es 200 veces más ligero que el acero (una placa de 1 metro cuadrado pesa 0,77 miligramos) y 200 veces más resistente. Es duro (más que el diamante) y muy flexible (más que la fibra de carbono) además de elástico y completamente transparente. Presenta muy buena conductividad tanto térmica como eléctrica lo que le permite transmitir la corriente eléctrica sin calentarse demasiado.

El grafeno es, en definitiva, un super-material, quizás el más importante jamás descubierto, con un tremendo potencial de aplicaciones consecuencia de su alta reactividad química y de la posibilidad de ser dopado para alterar sus propiedades.

Entre estas aplicaciones está la creación de transistores y cables de fibra óptica más veloces, cámaras fotográficas más sensibles, nuevas pantallas táctiles flexibles o super-capacitadores. Son estos últimos lo que presentar un mayor potencial de beneficio medioambiental.

sábado, 28 de junio de 2014

Cuando tu móvil sea casi tan inteligente como tú

Es curioso, a los ordenadores siempre se les ha considerado "máquinas tontas". Manipulaban datos (de ahí el término francés "ordinateur" que les da nombre), realizaban cálculos (la alternativa anglosajona, "computer", mucho más acertada) y poco más.

Todo cambió hace apenas un lustro cuando algún avispado director de marketing decidió incorporar la palabra "smart" (listo, inteligente, rápido, elegante pero también escozor o dolor) a su catálogo de productos. Fue un pequeño despiste; en realidad quería decir que nos iba a poner una de esas "máquinas tontas" en la palma de la mano.

Si los fabricantes de móviles ("smart phones", perdón) se afanan por minimizar un ordenador, los de televisores ("smart TV", perdón de nuevo) luchan por ocultarlo, haciéndonos creer que hemos comprado otra cosa cuando, en realidad, hemos puesto un ordenador en el salón.

Sin embargo, nadie habla de "smart labtops" o de "smarts tablets", como digo, cosas del marketing.

El hecho es que ninguno de estos dispositivos, ordenadores con diferentes camisas, tiene un ápice de inteligencia. A pesar de ello, se están produciendo avances acelerados en Inteligencia Artificial que podrían alterar esta situación.

SMART MINSKY

Si alguien se merece esta calificativo es, sin duda, Marvin Minsky, uno de los fundadores de la Inteligencia Artificial, disciplina que nació oficialmente en la famosa conferencia de ciencias de computación celebrada en el Darmouth College en 1956 (aquí podéis ver una entrevista que ha concedido recientemente en la que comenta su visión sobre los avances en IA que se están produciendo recientemente).

Acompañaban a Minsky genios de la talla de John McCarthy (fue él quien acuñó el término Inteligencia Artificial y, más recientemente, Cloud Computing), Allen Newel (autor del lenguaje IPL y de interesantes trabajos sobre la teoría cognitiva) o Herbert Simon (además de todo, premio Nobel en Economía).

Ese día los ordenadores dejaron de ser calculadoras para convertirse en máquinas que, potencialmente, llegarían a equipararse con el cerebro humano. Comenzaron así dos décadas de investigación básica encaminada a modelar las funciones mentales superiores y diseñar sistemas capaces de aprender de la experiencia.

Se concibieron los primeros sistemas expertos que aplicaban un conjunto de reglas heurísticas para tomar decisiones (los sistemas más avanzados podían incluso generar nuevas reglas a partir del conjunto inicial). Les siguieron las redes neuronales que sustituyeron la algoritmia lineal por un proceso no-determinista capaz de aprender de los errores y los algoritmos genéticos en donde las potenciales soluciones a un problema luchan sin piedad por sobrevivir en un proceso de selección artificial; una idea brillante de John Henry Holland inspirada por otra aún más colosal de Charles Darwin,.

En paralelo, prometedoras teorías cognitivas (sobre la forma en que las personas adquieren y generan nuevos conocimientos) se fueron desarrollando en un entorno cada vez más optimista. El propio Minsky llegó a afirmar que “en una generación, el problema de crear inteligencia artificial estaría básicamente resuelto”.

Pero, como el propio Minsky supo reconocer, se equivocó.

jueves, 19 de junio de 2014

Una forma práctica de implantar un Sistema de Vigilancia Tecnológica (Parte Segunda)

En la entrada anterior hemos visto las principales actividades que deben realizarse en un Sistema de Vigilancia Tecnológica Activa. Resumiendo:
  • Se debe establecer un proceso para recibir peticiones y analizar su viabilidad
  • Se deben elegir los expertos (internos o externos) que trabajarán en el informe de vigilancia
  • Se deben seleccionar las fuentes de información más relevantes.
  • La información obtenida de estas fuentes (generalmente de forma automática) deberá ser estructurada y valorada para determinar su relevancia
  • Será necesario preparar un informe que vendrá plagado de indicadores y gráficos de tendencia.
Parece complicado, ¿verdad?. Sin embargo, la mayor parte de estas actividades pueden ser automatizadas lo que nos permitirá centrar los esfuerzos en el proceso intelectual, compañero inseparable de la Vigilancia Tecnológica.

MODELO ORGANIZATIVO

En función de las necesidades anteriores, podemos identificar los siguientes roles:
  • Sponsor: como todo proceso de cambio, implantar un sistema de Vigilancia Tecnológica requiere del apoyo de la dirección, de una persona que haga suyo el proyecto y sus objetivos con suficiente autoridad para resolver conflictos, asegurar la disponibilidad de recursos y promover los resultados entre los diferentes estamentos de la organización.
  • Gestor: será el responsable de coordinar toda la actividad. Entre sus funciones, recibir las peticiones de información, evaluarlas y priorizarlas. También deberá formar los equipos de trabajo, y asegurar la disponibilidad de fuentes de información. Otras de sus funciones más relevantes pasas por validar y difundir los informes generados y determinar los Factores Críticos de Vigilancia.
  • Técnicos: la primera de sus funciones consiste en configurar las herramientas disponibles para que sean capaces de extraer datos de las fuentes de información requeridas y faciliten la colaboración. La organización dispondrá de algunas estándar, seleccionadas (o contratadas) desde el mismo momento de la concepción del sistema, pero suele ser frecuente tener que preparar otras, más específicas, para cubrir las necesidades concretas de cada proyecto de vigilancia. Normalmente, los técnicos realizarán un primer filtrado de los datos recolectados y generarám los indicadores primarios, aquéllos que pueden obtenerse automáticamente de los datos extraídos.
  • Expertos: serán las personas encargadas de analizar la información disponible y elaborar los informes requeridos. Entre sus funciones también está seleccionar las fuentes de información que deberán ser inspeccionadas y definir el conjunto de indicadores derivados que aportaran valor a los informes de vigilancia. Este equipo podrá estar formado exclusivamente por personas de la organización aunque suele ser frecuente contar con la colaboración de personal externo.
Puede parecer que está estructura requiere de un inversión elevada y es así en su máxima expresión. Sin embargo, puede ser aligerada utilizando herramientas y fuentes de información gratuitas o de pago por uso y haciendo partícipes a los expertos internos de la organización.


sábado, 14 de junio de 2014

Una forma práctica de implantar un Sistema de Vigilancia Tecnológica (Parte Primera)

¿QUÉ ES?

Como para cualquier otro concepto, podemos encontrar infinidad de definiciones. Yo he simplificado la establecida por la familia de normas UNE 166000 (ya hablaremos de ellas más adelante):

"Un sistema de Vigilancia Tecnológica debe permitir a una organización seleccionar información tanto externa como interna, clarificarla, difundirla y analizarla para convertirla en conocimiento que pueda ser utilizado para disminuir el riesgo en la toma de decisiones."

En cuanto al tipo de información, el foco en esta disciplina está, evidentemente, en la tecnología. Sin embargo, los modelos organizativos y las plataformas de soporte son igual de válidos para cubrir cualquier área de interés. Si, por ejemplo, nos centramos en la actividad de otras empresas del sector estaríamos hablando de Análisis de la Competencia o de la Inteligencia Competitiva. También podríamos utilizar los mismos mecanismos para investigar los modelos de gestión de personal que se están aplicando en otras organizaciones o la forma en que despliegan su marketing en las redes sociales.

Lo que si es fundamental es que el sistema de Vigilancia Tecnológica Sistemática incorpore un fuerte componente tecnológico que facilite la extracción de datos de las distintas fuentes de información y permita difundirla entre a los grupos de interés. Por supuesto, la Vigilancia Tecnológica puede realizarse manualmente encargando el trabajo a expertos; probablemente obtengas unos informes inmejorables, pero no lo harás de forma sistemática.

Indicar también que aquí hablaremos de los sistemas de vigilancia activa (monitoring) frente a los de vigilancia pasiva (scanning). En los primeros se busca localizar y analizar información para satisfacer una necesidad concreta, un proceso que suele realizarse bajo demanda. Por el contrario, en los segundos se realiza un análisis continuo de la evolución de un determinado sector con propósitos más generalistas; es un modelo frecuente en los Observatorios y Radares Tecnológicos.

Por último es importante establecer una clara diferenciación entre la Vigilancia Tecnológica y, en especial, la Inteligencia Competitiva frente al Espionaje Industrial. En el primer caso deben existir unos compromisos éticos y morales y una estricta garantía del cumplimiento de la legislación y las normas que protegen la propiedad intelectual. Del segundo no sé qué deciros, quizás tendríamos que preguntar a algún colega de James Bond.

Si estáis interesados en esta segunda rama de adquisición ilegal del conocimiento os dejo un artículo en el que se ofrecen detalles de 10 grandes casos de espionaje industrial.

¿LA NECESITO REALMENTE?

miércoles, 11 de junio de 2014

Retroalimenación Positiva 3 - Cambio Climático 0

El viento y la lluvia van erosionando las montañas lenta pero inexorablemente. El sentido común nos lleva a pensar que este desgaste disminuye poco a poco su altura, convirtiendo a escarpados macizos montañosos en tranquilas colinas y suaves lomas hasta que, finalmente, acaban disgregadas transformadas en miriadas de diminutos granos de arena.

Sin embargo, ocurre justamente lo contrario. La erosión, efectivamente, hace perder volumen a las montañas.Sin embargo, los cientos de miles de toneladas de sedimentos que son arrastradas por el viento y el agua acaban depositándose en las llanuras colindantes. Así, la presión ejercida sobre estos terrenos aumenta día a día hundiendo la corteza terrestre cada vez un poco más en el manto superior.

El manto está formado por un material fluido y viscoso que ostenta propiedades plásticas. En consecuencia, el hundimiento de los terrenos atosigados por la acumulación de sedimentos provoca, gracias a un efecto elástico, un abombamiento del manto, la elevación de la corteza adyacente y de los macizos montañosos instalados sobre ella.

A este efecto se le conoce como isostasia y a los desplazamientos verticales provocados por la alteración del equilibrio isostático entre manto y corteza movimientos epirogénicos (anticlinales y sinclinales).

Lo más curioso es que el fenómeno se produce de forma acelerada en los primeros estadios. Cuanto más peso pierde la montaña, más presión se ejerce sobre el manto a su alrededor y el empuje vertical aumenta provocando una elevación cada vez más pronunciada favorecida y potenciada por el progresivo aligeramiento de la montaña. Entramos así en un círculo vicioso en el que los efectos acrecientan la relevancia de las causas, lo que se conoce como Ciclo de Retroalimentación Positiva.

El proceso sólo termina cuando intervienen factores externos. En este caso, cuando los sedimentos acumulados en las llanuras terminan en el mar arrastrados por las corrientes fluviales. Liberados del empuje vertical, los restos de la montaña comenzarán un descenso progresivo y, de nuevo, acelerado, hasta que, finalmente, no quede rastro de ella.

EL PARTIDO

Viendo el capítulo 12 de la nueva edición de la serie Cosmos, dedicado al cambio climático, me llamó la atención que el presentador, Neil deGrasse Tyson, dedicara un buen montón de valiosos segundos televisivos a recalcar la veracidad del cambio climático. Siguiendo su ejemplo (no en vano estas líneas están inspiradas por aquel capítulo):

domingo, 8 de junio de 2014

¿Cuál ha sido el organismo que más ha perjudicado la salud del planeta?

Quizás estés pensando en un virus tan contagioso como dañino, en algún insecto o en cualquier otro bicho de aspecto tenebroso.

Pero no.

Está ampliamente reconocido que el organismo que más daño ha causado a nuestro planeta ha sido un ingeniero de la General Motors: Tomas Migdley. El solito envenenó cada centímetro cuadrado de tierra del Planeta y alteró la dinámica atmosférica hasta hacer peligrar la vida de miles de millones de personas.

La biografía de este ínclito personaje es bien conocida; podéis encontrar los escabrosos detalles en un buen artículo publicado en Fogonazos y, cómo no, en Wikipedia. En consecuencia, esbozaré sólo aquí algunos hechos relevantes que me servirán para hablar de dos factores que están afectando, de forma quizás irreversible, a la salud del Planeta.

GASOLINA CON PLOMO

No creo que Migdley fuera una persona intrínsecamente malvada. Es más, fue un ingeniero brillante e innovador. Pero le tocó vivir otros tiempos, marcados por el "progreso" desmesurado en donde aún no se había creado una conciencia de protección medioambiental.

En 1921 nuestro héroe se encontraba trabajando en el Dayton Research Center bajo la supervisión de Charles F. Kettering (vamos a intentar no dejar sólo a Thomas) cuando le encargaron revolver un problema que atormentaba a los fabricantes de automóviles. El ruido y traqueteo que generaban los motores de combustión interna incomodaban en demasía a los conductores.

jueves, 5 de junio de 2014

El Exoesqueleto controlado por la mente que inaugurará el mundial de Brasil

Hace ya 28 años (sí, 28 años) vimos a Sigourney Weaver en "Alien, el Regreso" enfrentarse al terrorífico bicho ayudada por un enorme exoesqueleto.

Esta tecnología de Ciencia Ficción presentada por James Cameron creó escuela y pronto comenzó a aparecer de forma habitual en las salas de cine medio mundo. ¿Quién no recuerda la numantina defensa de Sidón en Matrix Revolutions (ésta sólo tiene 13 años)?. Iron Man es otro buen ejemplo.

La tecnología se desarrolló, como casi siempre, con fines militares. Se buscaba ampliar la capacidad física de los soldados. No sé muy bien para qué pues la guerra lleva ya tiempo alejada del campo de batalla; te armas hasta los dientes, te entierras en un bunker inexpugnable y un misil, lanzado por un caza volando tranquilamente en un lugar situado a trescientos kilómetros de distancia, te fulmina en un instante. Si este modo de combate es impersonal, no digamos ya lo que pueden hacer los drones.

Las aplicaciones civiles para estos artilugios son también variopintas.y especialmente relevantes para permitir trabajar en entornos peligroso u ofrecer a personas con discapacidad la oportunidad de superar las barreras que la vida les ha impuesto.

Aunque los exosesqueletos parten de una estructura mecánica, pronto incorporaron componentes electrónicos. Decenas de motores controlados por procesadores comenzaron a mover las partes mecánicas para potenciar de forma más efectiva la fuerza muscular. Poco más tarde se les dotó de cierta autonomía incorporando algoritmos provenientes de la Inteligencia Artificial y la Robótica. Más recientemente apareció la biónica para conectar la mecánica con músculos y terminaciones nerviosas. Se consiguió así un control más ágil y una mayor variedad de movimientos o grados de libertad.

El Responsable de la Gestión de la Ignorancia

Releyendo un viejo artículo que publiqué hace ya tres meses (¿A qué se dedica el Responsable de Gestión del Conocimiento?), me he percatado que no supe poner suficiente énfasis en una de las principales funciones del Responsable de Gestión del Conocimiento: la Gestión de la Ignorancia, entendida ésta en su acepción más amable posible (si es que existe alguna).

Espero con estas líneas subsanar este imperdonable descuido.

DOS MISIONES

Desde mi punto de vista, el Responsable de Gestión del Conocimiento tiene (o puede tener) dos misiones principales:
  • Promover un Cambio Cultural en la empresa para conseguir que el conocimiento aflore de forma natural y convertirla así en una organización capaz de aprender de cada una de las actividades que emprende (ver Learning Organization). Es una labor tan apasionante como complejos son los retos que plantea. Implica crear una cultura de colaboración (altruista o interesada) y dotar a la empresa de los mecanismos que le permitan promoverla (procesos, herramientas, mecanismos de reconocimiento, etc.)
  • Gestionar la Ignorancia, un proceso no menos importante que tiene que ver con identificar, estructurar y empaquetar el conocimiento que genera la empresa en su actividad para poder ofrecerlo a quién lo requiera en el momento oportuno. Hablamos aquí de explicitar el conocimiento tácito o implícito, de mapas de conocimiento, taxonomías y demás mecanismos que llevan pululando por ahí desde hace varias décadas.
GESTIONAR LA IGNORANCIA

Centrándonos en la segunda de estas dos misiones, la que podríamos considerar más tradicional, el proceso sería el siguiente: