jueves, 19 de junio de 2014

Una forma práctica de implantar un Sistema de Vigilancia Tecnológica (Parte Segunda)

En la entrada anterior hemos visto las principales actividades que deben realizarse en un Sistema de Vigilancia Tecnológica Activa. Resumiendo:
  • Se debe establecer un proceso para recibir peticiones y analizar su viabilidad
  • Se deben elegir los expertos (internos o externos) que trabajarán en el informe de vigilancia
  • Se deben seleccionar las fuentes de información más relevantes.
  • La información obtenida de estas fuentes (generalmente de forma automática) deberá ser estructurada y valorada para determinar su relevancia
  • Será necesario preparar un informe que vendrá plagado de indicadores y gráficos de tendencia.
Parece complicado, ¿verdad?. Sin embargo, la mayor parte de estas actividades pueden ser automatizadas lo que nos permitirá centrar los esfuerzos en el proceso intelectual, compañero inseparable de la Vigilancia Tecnológica.

MODELO ORGANIZATIVO

En función de las necesidades anteriores, podemos identificar los siguientes roles:
  • Sponsor: como todo proceso de cambio, implantar un sistema de Vigilancia Tecnológica requiere del apoyo de la dirección, de una persona que haga suyo el proyecto y sus objetivos con suficiente autoridad para resolver conflictos, asegurar la disponibilidad de recursos y promover los resultados entre los diferentes estamentos de la organización.
  • Gestor: será el responsable de coordinar toda la actividad. Entre sus funciones, recibir las peticiones de información, evaluarlas y priorizarlas. También deberá formar los equipos de trabajo, y asegurar la disponibilidad de fuentes de información. Otras de sus funciones más relevantes pasas por validar y difundir los informes generados y determinar los Factores Críticos de Vigilancia.
  • Técnicos: la primera de sus funciones consiste en configurar las herramientas disponibles para que sean capaces de extraer datos de las fuentes de información requeridas y faciliten la colaboración. La organización dispondrá de algunas estándar, seleccionadas (o contratadas) desde el mismo momento de la concepción del sistema, pero suele ser frecuente tener que preparar otras, más específicas, para cubrir las necesidades concretas de cada proyecto de vigilancia. Normalmente, los técnicos realizarán un primer filtrado de los datos recolectados y generarám los indicadores primarios, aquéllos que pueden obtenerse automáticamente de los datos extraídos.
  • Expertos: serán las personas encargadas de analizar la información disponible y elaborar los informes requeridos. Entre sus funciones también está seleccionar las fuentes de información que deberán ser inspeccionadas y definir el conjunto de indicadores derivados que aportaran valor a los informes de vigilancia. Este equipo podrá estar formado exclusivamente por personas de la organización aunque suele ser frecuente contar con la colaboración de personal externo.
Puede parecer que está estructura requiere de un inversión elevada y es así en su máxima expresión. Sin embargo, puede ser aligerada utilizando herramientas y fuentes de información gratuitas o de pago por uso y haciendo partícipes a los expertos internos de la organización.


FACTORES CRÍTICOS DE VIGILANCIA

Antes de comenzar la implementación del sistema conviene tener claro cuáles serán los aspectos fundamentales que deben ser vigilados. ¿Buscamos tener controlada a la competencia?, ¿nos interesan las nuevas patentes que se están registrando?, ¿debemos centrarnos en publicaciones científicas?, ¿en el lanzamiento de nuevos productos?, ¿en proyectos de investigación?, ¿en cambios legislativos?, ¿en factores económicos?, ¿buscamos nuevos socios?.

Con demasiada frecuencia, los Informes de Vigilancia Tecnológica ofrecen ingentes cantidades de datos excelentemente analizados y expuestos que, sin embargo, carecen de interés para los destinatarios. No es cuestión de recopilar cualquier información que pulule por la red (Google ya ha ganado esa batalla hace tiempo), hay que recordar que el fin último de la Vigilancia Tecnológica es apoyar la toma de decisiones estratégicas.

Una buena selección de estos factores marcará en gran medida el éxito de la implantación pues permiten focalizar y priorizar los esfuerzos y garantizan el alineamiento de los resultados con los objetivos perseguidos por la organización.

Os dejo un articulo que versa sobre este tema con mucho mayor detalle.



FUENTES DE INFORMACIÓN

Existen diferentes bases de datos, accesibles normalmente desde Internet, que nos ofrecen información de muy diversa índole y que puede resultar valiosa en función de los FCV que hayamos establecido. Algunas son de pago y otras gratuitas. 

Aquí os dejo una lista no exhaustiva con algunos ejemplos que debéis considerar como tales. No son las únicas ni, probablemente, las mejores pero son fácilmente accesibles y, en general, de carácter público:
  • Tesis doctorales y publicaciones científico-técnicas de universidades, centros de investigación y organismos públicos. El CSIC ofrece buenas bases de datos que incorporan toda la producción científica publicada en España desde 1970; tienen un coste pero es asequible. También ofrecen la plataforma de acceso abierto, eRevist@s, para localizar artículos en publicaciones españolas y latinoamericanas. En cuanto a las tesis doctorales tenéis un buen ejemplo en TESEO, un servicio del Ministerio de Educación y Cultura.
  • Legislación, Litigios, Normativas y, por supuesto, el Boletín Oficial del Estado (BOE en España). Aquí tenéis una búsqueda en el BOE de legislación relacionada con vehículos eléctricos. En cualquier caso, lo más normal en este área es contratar algún servicio que preseleccione la legislación más relevante en función del área de actividad de la empresa. Si no está a vuestro alcance hay servicios gratuitos como el ofrecido por el Colegio de Abogados de Barcelona.
  • Ferias y Convenciones: La red CICA ofrece un buscador de congresos aunque existen infinidad de servicios del estilo
Podríamos seguir así indefinidamente enumerando fuentes de información de indicadores económicos, noticias sobre avances científicos y técnicos, noticias sectoriales, ayudas y subvenciones o proyectos de I+D+i en curso (CORDIS, otro de esos servicios en los que se puede obtener la información vía RSS). También puede interesaros el Observatorio Abaco, una fuente de indicadores "macro" bastante interesante; los datos pueden obtenerse, además, utilizando el software PC-Axis mediante el cuál publica la información estadística el INE.

Como veremos, empleando las herramientas adecuadas, incluso Google, la Wikipedia o las Redes Sociales son susceptibles de ser explotadas. 


HERRAMIENTAS DE EXTRACCIÓN

Si sois afortunados y podéis contratar servicios de pago, es probable que recibáis la información conveniente estructurada en hojas de cálculo, bases de datos o cualquier otro formato que pueda ser procesado de forma automática.

Si no disponéis de estos recursos, será necesario conectarse a fuentes públicas y buscadores para obtener la información que necesitamos. Si habéis consultado algunos de los ejemplos anteriores, comprobaréis que la búsqueda se realiza de forma manual obteniendo, en el mejor de los casos, un listado de información bastante básica y enlaces a los contenidos propiamente dichos.

Parece, y es, un tarea titánica; no digamos ya si queréis consultar las páginas corporativas de la competencia o cualquier otra fuente de información menos estructurada. Afortunadamente existen una serie de herramientas que nos permiten automatizar este proceso.

La primera de ellas es un protocolo: RSS (o ATOM y RDF en versiones extendidas). Este tipo de protocolos han sido diseñados para permitir la interconexión entre dos ordenadores (Machine-to-Machine) de forma que se puede solicitar información y recibirla de forma estructurada siguiendo una especificación estándar basada en XML. La mayoría de blogs y servicios gubernamentales ofrecen esta posibilidad así que son buenos candidatos para formar parte del sistema. Sin embargo, el protocolo está siendo eliminado de las Redes Sociales por lo que perdemos una gran parte del potencial actual de la Red (más información...).

En cualquier caso, supongamos que somos capaces de localizar una buena colección de Blogs y sitios Web que ofrecen la información vía RSS/ATOM/RDF. Aún así, no es viable ir conectándose a todos ellos de forma periódica en busca de lo que necesitamos. Afortunadamente existen herramientas que nos permiten agrupar todos estos canales en uno solo. Se las conoce como Agregadores siendo Yahoo Pipes el más popular de ellos y una herramienta muy potente capaz de componer, agregar y manipular contenidos de Internet de muy diversa naturaleza. Permite, ademas, realizar "mashup" para combinar contenidos de diferentes fuentes y ofrecer el resultado a través de un único servicio.

A pesar de las barreras, zancadillas y puñaladas por la espalda que están sufriendo estos protocolos (son abiertos, de uso libre y difíciles de explotar para obtener beneficios económicos), otras formas de intercambio de metadatos se usan cada vez con mayor profusión. La mayoría de los intermediarios de Internet que utilizas habitualmente para buscar hoteles, viajes o comparar precios de seguros utilizan una variación de este tecnología para localizar ofertas en cientos de Web especializadas.

En demasiadas ocasiones no podremos contar la ayuda de estos facilitadores para explorar y explotar ciertas fuentes de información. Algunas, como los buscadores de Internet o Wikipedia, nos ofrecen listas de contenidos expuestos con un formato que podemos denominar semi-estructurado. En los resultados es posible identificar un título, un enlace al contenido y un pequeño resumen, con suerte una fecha, pero nunca el contenido en sí. Además, la estructura puede cambiar sin previo aviso lo que complica cualquier intento de extracción sistemática de la información.

Para solucionar este problema se han desarrollado algunas herramientas, conocidas de forma genérica como Web Scraping ("rascado de Internet" en un vano intento de traducción al español). El software de scraping permite seleccionar cualquier página Web y convertir los contenidos que ofrecen en una fuente de información estructurada. Para ello, debes seleccionar aquéllos lugares donde aparezca información que consideres relevante (algunas herramientas los sugieren directamente) y el software se encargará del resto. Localizará todos los contenidos y construirá una base de datos a la que podrás acceder siguiendo algún mecanismo estándar de los ya mencionados. 

No es el objetivo de este artículo entrar en detalles sobre la forma de realizar el scraping así que os dejo un vídeo que lo explica en detalle (se utiliza Open Dapper para obtener la lista de goleadores de la última Eurocopa). Explicaciones incluidas, todo el proceso dura 6 minutos así que es una tarea que podemos afrontar sin demasiadas complicaciones a la hora de implantar el sistema de Vigilancia Tecnológica.

Open Dapper no es la única herramienta disponible. Aquí os dejo algunas interesantes: ScrapyImport Io, Web HarvyWeb Scrapper (un plugin para Chrome) y Kimono (en su página Web podemos encontrar un ejemplo de Scraping para obtener información estructurada sobre el funesto Mundial de Brasil (sí ya nos han eliminado). 

Kimono es una herramienta interesante, de ésas capaces de reconocer patrones en las páginas Web lo que acelera enormemente el proceso de configuración de la herramienta. También es posible programar cuándo queremos recibir la información actualizada (otro buen detalle) y te ofrece la información aunque el servidor se encuentre caído en un momento dado (pierde algo de frescura pero, al menos, tendrás algo). Os dejo un excelente tutorial de manejo de esta herramienta y una evaluación independiente de sus funcionalidades. Por cierto, no tengo nada que ver con esta empresa, ya sabéis que aquí no hacemos publicidad ni estamos afiliados con nadie; simplemente me ha gustado la herramienta. También un enlace a un artículo sobre cómo acceder a los nuevos MOOC publicados en Coursera, OpenCourseWare, MiriadaX y EdX vía RSS utilizando esta herramienta.

Queda un pregunta por resolver: ¿es legal hacer Web Scraping? La respuesta es compleja. Algunos sitios lo prohíben es sus términos de acceso, algunos servidores detectan el uso de este tipo de herramientas y lo impiden. Pero, en general, es legal duplicar los contenidos que se ofrecen públicamente siempre y cuando no sea con fines comerciales directos. 

Como comentamos en su momento, la vigilancia tecnológica conlleva establecer unos compromisos éticos y morales y, cuando la legislación no es clara, son ellos los que no deben guiar la toma de decisiones.

PLATAFORMAS

Es posible solventar el acceso a las fuentes de información partiendo de algunas bases de datos comerciales o gratuitas, utilizando fuentes y agregadores RSS y salvando otras dificultades mediante técnicas de Web Scraping.

Ahora toca exponer la información recolectada en alguna plataforma colaborativa para que los expertos puedan clasificarla y realizar la selección de los contenidos relevantes para el objetivo fijado. Si tienes Sharepoint (más...), integrar RSS o información proveniente de bases de datos externas u hojas Excel es relativamente sencillo. Con Google Apps for Business (más...) también puede hacerse aunque de forma un poco más enrevesada. Lo mismo es de aplicación para otros gestores de contenidos comerciales u Open Source.

También existe la posibilidad de implantar una plataforma especialmente diseñada para cubrir todo el proceso de vigilancia, desde el establecimiento de objetivos, la selección de fuentes y la extracción de datos, hasta la toma de decisiones. El uso se simplifica aunque la integración con otras herramientas corporativas puede resultar algo más complicada.

Por mencionar algunas de ellas: Vicubo Cloud, Vigiale, Xerka.net o GoldFire Innovation, una de las herramientas más potentes y reconocidas en el sector (también por su elevado precio). Entre las gratuitas, mencionar OVTT, impulsada por el Banco de Santander y Universia entre otros, y Hontza, un proyecto Open Source para crear una plataforma que cubra todo el ciclo de Inteligencia Competitiva incluyendo la toma de decisiones estratégicas. Hontza ha sido seleccionada por el proyecto Alerta, entre cuyos objetivos está el establecimiento de una plataforma abierta de colaboración en este ámbito.

Os dejo un enlace a un estudio comparativo que incluye algunas de estas plataformas.

NORMALIZACIÓN

No podemos terminar esta larga introducción sin hablar, aunque sea brevemente, de las normas que pueden ayudarnos a implantar y gestionar este tipo de sistemas.

Dentro de la familia de normas UNE 166000, la UNE 166001 es bien conocida en algunas empresas pues marca los requisitos que debe cumplir una actividad para ser considerado como de I+D+i. Certificar una proyecto bajo esta norma ofrece ciertas garantías frente a Hacienda a la hora de las desgravaciones lo que, en parte, explica, su popularidad.


Su hermana mayor, la norma UNE 166002, determina los requisitos que debe cumplir un sistema de Gestión de I+D+i; entre ellos, establecer un proceso de Vigilancia Tecnológica que puede ser desarrollado siguiendo las directrices de la norma UNE 166006:2011.

Hace nada, Juan Carlos Vergara, una de esas personas que realmente sabe de esta disciplina, me ha comentado que el próximo día 26 de Junio se publicará, por fin, la norma CEN TS16555 Parte 2 sobre Inteligencia Estratégica basada (si no copiada,) en la norma UNE 166006 desarrollada por AENOR

CONCLUSIONES

Implantar un sistema de Vigilancia Tecnológica puede ser un proceso tan sencillo o complejo cómo deseemos y requerir ciertas inversiones que pueden ser reducidas si nos apoyamos en herramientas y plataformas gratuitas. Todo dependerá del valor que aporte a la organización y del retorno de la inversión esperado.

Es en cualquier caso, este tipo de procesos es cada vez más necesario para las empresas que se mueven en un entorno tecnológico en donde los cambios se producen de forma acelerada y podemos quedarnos obsoletos en apenas unos meses si no somos capaces de predecir la evolución de la tecnología y las estrategias que sigue la competencia.

La Vigilancia tiene también aplicación cuando queremos seleccionar proveedores o los mejores socios para ofrecer valor añadido a las soluciones de la organización. La tecnología no es el único campo de aplicación pues los procesos son de carácter general así como muchas de las herramientas disponibles.


También puede interesarte:

No hay comentarios:

Publicar un comentario