sábado, 28 de junio de 2014

Cuando tu móvil sea casi tan inteligente como tú

Es curioso, a los ordenadores siempre se les ha considerado "máquinas tontas". Manipulaban datos (de ahí el término francés "ordinateur" que les da nombre), realizaban cálculos (la alternativa anglosajona, "computer", mucho más acertada) y poco más.

Todo cambió hace apenas un lustro cuando algún avispado director de marketing decidió incorporar la palabra "smart" (listo, inteligente, rápido, elegante pero también escozor o dolor) a su catálogo de productos. Fue un pequeño despiste; en realidad quería decir que nos iba a poner una de esas "máquinas tontas" en la palma de la mano.

Si los fabricantes de móviles ("smart phones", perdón) se afanan por minimizar un ordenador, los de televisores ("smart TV", perdón de nuevo) luchan por ocultarlo, haciéndonos creer que hemos comprado otra cosa cuando, en realidad, hemos puesto un ordenador en el salón.

Sin embargo, nadie habla de "smart labtops" o de "smarts tablets", como digo, cosas del marketing.

El hecho es que ninguno de estos dispositivos, ordenadores con diferentes camisas, tiene un ápice de inteligencia. A pesar de ello, se están produciendo avances acelerados en Inteligencia Artificial que podrían alterar esta situación.

SMART MINSKY

Si alguien se merece esta calificativo es, sin duda, Marvin Minsky, uno de los fundadores de la Inteligencia Artificial, disciplina que nació oficialmente en la famosa conferencia de ciencias de computación celebrada en el Darmouth College en 1956 (aquí podéis ver una entrevista que ha concedido recientemente en la que comenta su visión sobre los avances en IA que se están produciendo recientemente).

Acompañaban a Minsky genios de la talla de John McCarthy (fue él quien acuñó el término Inteligencia Artificial y, más recientemente, Cloud Computing), Allen Newel (autor del lenguaje IPL y de interesantes trabajos sobre la teoría cognitiva) o Herbert Simon (además de todo, premio Nobel en Economía).

Ese día los ordenadores dejaron de ser calculadoras para convertirse en máquinas que, potencialmente, llegarían a equipararse con el cerebro humano. Comenzaron así dos décadas de investigación básica encaminada a modelar las funciones mentales superiores y diseñar sistemas capaces de aprender de la experiencia.

Se concibieron los primeros sistemas expertos que aplicaban un conjunto de reglas heurísticas para tomar decisiones (los sistemas más avanzados podían incluso generar nuevas reglas a partir del conjunto inicial). Les siguieron las redes neuronales que sustituyeron la algoritmia lineal por un proceso no-determinista capaz de aprender de los errores y los algoritmos genéticos en donde las potenciales soluciones a un problema luchan sin piedad por sobrevivir en un proceso de selección artificial; una idea brillante de John Henry Holland inspirada por otra aún más colosal de Charles Darwin,.

En paralelo, prometedoras teorías cognitivas (sobre la forma en que las personas adquieren y generan nuevos conocimientos) se fueron desarrollando en un entorno cada vez más optimista. El propio Minsky llegó a afirmar que “en una generación, el problema de crear inteligencia artificial estaría básicamente resuelto”.

Pero, como el propio Minsky supo reconocer, se equivocó.

SIMBIONTES

Los niños no aprenden a hablar memorizando una serie de reglas, las deducen por si mismos escuchando los interminables "cuchi cuchi" y "hola bonito" que les regalan sus progenitores. Tampoco ven muy bien; en los primeros seis meses apenas distinguen las formas más básicas y los colores primarios, lo cual explica que se queden horas hipnotizados viendo los tele-tabbies o su desmesurada pasión por los dibujos animados.

Pero nacen preparados para aprender. Primero para reconocer a las personas que los cuidan, después trabajan la visión estereoscópica para calcular distancias; el tacto y el gusto se muestran también fundamentales en esta tarea, se meten cualquier cosa en la boca y lo tocan todo en un experimento vital por ir reconociendo el entorno.

Es un proceso de configuración en el que las neuronas se van conectando para acometer tareas muy simples que, combinadas, producen la ilusión de "inteligencia". Esta idea mecanicista, expuesta por Minsky en 1987 en su obra más conocida "La Sociendad de la Mente", sugiere que la inteligencia puede surgir como el resultado de la interacción de muchas partes no inteligentes y es, ahora, la base para el desarrollo de sistemas que incorporen procesos cognitivos capaces de competir con los humanos.

Dotar de inteligencia a las máquinas requiere, en consecuencia, conocer en detalle los procesos neurológicos que acontecen en el cerebro. Si estudiar el cerebro ayuda a desarrollar software más inteligente, los esfuerzos por modelar los procesos cognitivos contribuyen a una mejor comprensión de su funcionamiento interno. Biología e Informática establecen así una relación simbiótica, un bucle retroalimentado en el que los avances de una contribuyen al progreso de la otra.

De esta relación surge otra idea especialmente interesante. Las neuronas presentan una estructura común y, sólo a través de la experiencia, se especializan para participar en procesos cognitivos específicos. Esta especialización es reversible; el cerebro posee una elevada plasticidad que le permite reconfigurar los circuitos neuronales muy rápidamente. De aquí se infiere la posibilidad de diseñar un mecanismo común de aprendizaje, una teoría válida tanto para permitir a las máquinas comprender el lenguaje o reconocer formas como para resolver problemas complejos o acometer cualquier otra tarea que requiera de un cierto grado de inteligencia.

SERÁ POR TECNOLOGÍA...

Se estima que el cerebro dispone de 86.000 millones de neuronas (en realidad las han contado; más información) y un número muy superior de conexiones entre ellas; una neurona puede establecer entre 5.000 y 100.000 sinapsis con otras.

Es posible que 500 Petabytes (quinientos mil billones de bytes) resulten suficientes para almacenar toda esta información (más...). Parece una cifra desmesurada, pero está al alcance de la tecnología actual. En 2007 YouTube tuvo un tráfico de 27 Petabytes, Facebook anda ahora por los 250 Petabytes; los Exabytes (el trillón de bytes) están ya a la vuelta de la esquina.

El pasado mes de Mayo, Sony anunció una nueva tecnología capaz de almacenar 148 Gibabytes por pulgada cuadrada (más...) lo que permitirá sacar al mercado cartuchos de cinta magnética de 185 Terbytes. Teóricamente, con tres de ellos podríamos hacer un backup de todos nuestros recuerdos.

La velocidad de procesamiento tampoco parece suponer un gran problema para emular el funcionamiento del cerebro. El superordenador Blue Gene desarrollado por IBM, el segundo más rápido del mundo (el primero está en China, el Thianhe2), cuenta con 147.456 procesadores trabajando en paralelo (más...) que operan a 36 Teraflops, es decir, que pueden realizar 36 billones de operaciones por segundo.

Con sólo 512 de ellos se podría emular el cerebro de un ratón, para un gato serían necesarios 24.576 (no sé por que siempre pierden Tom y Silvestre contra Jerry y Piolín) y para el ser humano cerca de 800.000, cifra a la que IBM espera llegar en 2019.

En cualquier caso, aún queda mucho por hacer, Blue Gene es unas 643 veces más lento de lo debido y consume una cantidad ingente de energía; el cerebro humano es un monstruo en cuanto a eficiencia energética se refiere. Sea como fuere, 1.617 millones de neuronas y casi 9 billones de sinapsis es un gran logro.

Desde luego, no nos van a colocar casi un millón de procesadores en el móvil. Además de pesar bastante, el calor generado nos derretiría la mano en un instante. En realidad, los móviles dispondrán de servicios a través de Internet que les aportarán el grado de "inteligencia" requerido; la resabida tecnología Cloud Computing obrará el milagro ofreciendo a los mortales toda la potencia de computación y almacenamiento de superordenadores como Deep Gene.


Ejemplos de este tipo de servicios (salvando las distancias) los tenemos en la famosa Siri de Apple y en el algo menos conocido Sherpa de Android, ambas "inteligencias" especializadas en el procesamiento del lenguaje natural y ambas tan alejadas de la verdadera compresión como puede ser posible.

Sin embargo, cuentan con la ventaja de tener a su disposición ingentes cantidades de información (miles de millones de documentos de texto, imágenes, vídeos, resultados de búsquedas) que puede ser procesada, utilizando tecnologías BigData, para facilitar el aprendizaje y conseguir el mayor acierto estadístico posible.

CUANDO "SMART" SIGNIFIQUE REALMENTE INTELIGENTE

Capacidad de almacenamiento, velocidad de proceso o disponibilidad de datos para el aprendizaje son barreras que pueden ser superadas con cierta facilidad en la próxima década. Alcanzar la verdadera comprensión del lenguaje, el entendimiento de las premisas de un problema complejo o la capacidad de reconocer formas y objetos requiere algo más que simple tecnología. En necesario crear nuevos modelos que emulen el funcionamiento del cerebro, capaces de generar inteligencia a partir de una jerarquía bastante elaborada de componentes simples.

Utilicemos la música como ejemplo. El oído cuenta con unas 3.500 células ciliares (nada en comparación con los 100 millones de fotoreceptores del ojo). Son el primer frente de procesado y están diseñadas para descomponer sonidos complejos en sus frecuencias básicas y transmitir la información obtenida, a través del nervio auditivo, a la corteza auditiva del lóbulo temporal. Allí ,existen neuronas configuradas para responder de forma óptima a una determinada frecuencia. Esta segunda capa aísla cada sonido y lo transmite a otras áreas del cerebro en donde se buscarán relaciones entre las frecuencias captadas para así poder, por ejemplo, reconocer una melodía concreta (más...).

Un gran número de capas neuronales intervienen en este proceso, cada una de ellas con una función perfectamente definida.

Los problemas complejos (reconocer una melodía, un rostro, comprender una frase) se subdividen en tareas más sencillas (descomponer los sonidos, analizar las frecuencias, detectar líneas, geometrías, palabras) que son encargadas a redes neuronales independientes y estructuradas jerárquicamente.

Es precisamente este modelo el que intentan simular los algoritmos conocidos como Deep Learning utilizados en la actualidad por Google, Apple, Facebook o IBM para conseguir que los móviles reconozcan rostros, comprendan qué les estamos pidiendo o realicen traducción simultánea de diversas lenguas. Son sistemas capaces de aprender de los errores, capaces de potenciar o relajar conexiones ante aciertos o fallas, capaces de explotar la experiencia obtenida por los miles de millones de intentos de comprensión que se producen diariamente a través de móviles y otros dispositivos conectados a Internet.

Si finalmente se confirma (aún hay demasiada controversia sobre los resultados), el 7 de Junio de 2014 pasará a la historia como el día en que las máquinas dieron el primer paso hacia la inteligencia (entendida en la forma mecanicista de la que ya hemos hablado).

Un joven ucraniano de 13 años y nombre Eugene Goostman consiguió convencer a un tercio del jurado que le examinaba de su humanidad (más información...). Algunos de los miembros del tribunal destacaron la naturalidad de sus respuestas y su gran sentido del humor. Eugene es en realidad un inteligencia artificial, la primera que ha superado el Test de Turing, un desafío propuesto por Alan Turing en su memorable artículo "Computing Machinery and Intelligence".

Básicamente Turing propuso conceder la inteligencia a una máquina cuando un 30% de las personas con las que hablara durante 5 minutos no fueran capaces de detectar su falta de humanidad. Eugene lo consiguió convenciendo a un 33% del jurado.

Parece que, por fin, "Smart" significará realmente Inteligente.

CONCLUSIONES

Nos encontramos actualmente coqueteando con las barreras tecnológicas que impiden emular el funcionamiento de un cerebro humano. Quizás en una década logremos superarlas. Capacidad de almacenamiento, velocidad de proceso están ya al alcance de la mano.

Las nuevas técnicas de resonancia magnética (FRMI), electroencefalogramas (EGG) o tomografía (PET) nos permiten estudiar con cada vez mayor detalle la actividad neuronal que se produce ante determinados estímulos y, con ella, comprender mejor el funcionamiento del cerebro.

A partir de este conocimiento se están desarrollando nuevos modelos cognitivos y algoritmos como Deep Learning que, quizás combinados con otros de carácter más simbólico, nos permitan dar el último paso para crear una Inteligencia Artificial.

Proyectos relacionados:
También puede interesarte:

No hay comentarios:

Publicar un comentario en la entrada