May 2016 Theme: Computación similar al cerebro
Guest Editor's Introduction: Tiejun Huang

El Reporte de 2022 de la IEEE Computer Society, que fuera publicado en el sitio de Computing Now en 2014, presenta visiones de los tecnólogos líderes que exploran como seria nuestro mundo en 2022. Entre sus hallazgos, el reporte predice una red integrada de dispositivos inteligentes, a los cuales denomina “Inteligencia Continua”, la cual será capaz de conectarse directamente con nuestras ondas cerebrales. Esto nos deja con algunas preguntas lógicas pendiente sobre la tecnología de computación que es necesaria para hacer que tal visión sea una realidad y cómo podemos crear maquinas que pueden implementar una inteligencia genérica, similar a la de los humanos.

Cuando se trata de alta velocidad de cálculo, razonamiento lógico y memorización precisa, las computadoras modernas son claramente más potentes que los humanos, pero aún continúan dependiendo de los humanos para proporcionar el conocimiento que poseen. La Inteligencia Artificial, AI, no es la excepción en la AI tradicional, la “inteligencia” queda expresada explícitamente en las bases de conocimiento y las reglas que la computadora puede manejar. En la AI de alta performance, la maquina “aprende” el conocimiento a partir de una base de datos extendida y utiliza un modelo de aprendizaje diseñado por los humanos. El modelo de inteligencia (diseñado por los humanos) motorizado por los grandes datos (capturados del mundo) es visto ampliamente, como un desafío pendiente.

La edición de Mayo 2016 de Computing Now desarrolla seis artículos, tomados de la Biblioteca Digital de la IEEE Computer Society (CSDL), que fueron publicados el pasado año. Aunque muchos otros artículos tratan temas técnicos específicos en el campo, he seleccionado estos artículos porque ofrecen resúmenes o inspiran al debate en los tópicos excitantes de la computación similar al cerebro.

Cambio Fundamental

La computación similar al cerebro es un termino aun no bien definido. Para muchas personas, “similar al cerebro” significa “que hace lo que el cerebro puede hacer” (IA tradicional), o que “hace como el cerebro lo hace” (IA con máquina de aprendizaje). Pero, en realidad no siempre sabemos lo que el cerebro puede hacer o como trabajo, porque no nos comprendemos por completo a nosotros mismos.

En los enfoques tradicionales y de máquina de aprendizaje, en los cuales intentamos copiar las funciones cerebrales, que con computación neuromórfica se remeda la estructura del cerebro. Al construir un cerebro electrónico con dispositivos neuromorficos, este enfoque proclama que se emula la estructura fisiológica del cerebro, (neuronas, sinapsis, circuitos neuronales y las regiones funcionales de la corteza), es más simple que comprender los principios de la inteligencia, y que suponer que una estructura similar puede generar funciones similares. Sin importar si similar al cerebro este inspirado en el cerebro o en el remedo de las funciones cerebrales, este campo podría ser fundamental para el cambio de los modelos actuales de computación e incluso para comprender la inteligencia.

En esta Edición

El tema de este mes se inicia con dos artículos de Diciembre de 2015, “Relanzando la Computación”, editado por Computer, en la cual se investigan las posibilidades de los cambios fundamentales en el modelo actual de computacion por medio de la computación neuromorfica. En el artículo “Arquitectura de la Inteligencia Causal en Nanoescala”, Santosh Khasanvis y sus colaboradores delinean las ventajas del azar en conjunción con los nuevos métodos de programación neuromorfica. En el artículo “Onda Óhmica: Redes de Compuertas con Retención Basada en Memristor”, David J Mountain y sus colaboradores describen como actualmente las maquinas derivadas de Turing podrían incorporar las capacidades neuromorficas.

El Proyecto de Cerebro Humano fondeado por la UE, ofrece actualmente acceso a dos máquinas neuromorficas complementarias, recientemente completadas, para el modelado de microcircuitos neuronales y sus aplicando los principios de similaridad con el cerebro en las máquinas de aprendizaje y la computación cognitiva: a los sistemas de Karlheinz Meiers BrainScaleS, basados en dispositivos neuromorficos y en los sistemas de Steve Furber SpiNNaker establecido en la Arquitectura de máquinas avanzadas RISC (ARM). En una actualización de las dos ponencias previas sobre el hardware SpiNNaker, construido por Andrew D Brown y sus colaboradores, describe el fundamento (un poco inusual) del desarrollo de software de bajo nivel para soportar la operación de la maquina en el artículo “Modelo de Programación de SpiNNaker

Las máquinas de aprendizaje basadas en redes neuronales, (especialmente las de aprendizaje profundo) nos muestran el éxito a lo largo de un rango muy amplio de aplicaciones. En el artículo “Un Acelerador de Red Neuronal de Alto Desempeño”, Tianshi Chen y sus colaboradores describen como diseñan una arquitectura de acelerador de gran escala con redes neuronales al minimizar las transferencias de memoria y desarrollas en la forma más eficiente posible.
En el artículo “HFirst: Un Enfoque Temporal al Reconocimiento de Objetos” de Garrick Orchand y sus colaboradores, se presenta un modelo jerárquico puntual para el reconocimiento de objetos que utiliza una información de temporización inherentemente precisa, presente en la salida de una Representación de Evento de Dirección, (AER), asincrónico, inspirado en lo biológico

En el artículo final, giramos nuestra atención a la maquina inteligente en los robots. Para un robot, el cuerpo permite el descubrimiento del mundo real y sus elementos inciertos e impredecibles, lo cual se hace importante en el surgimiento de la inteligencia. En el artículo”Un Robot Aprende Como Atraer un Insecto”, Ji’Hwan Son y Hyo’Sung Ahn demuestran como un robot, utilizando una cámara para reconocer a un insecto biológico t su ángulo de enfoque, puede diseminar un olor específico para inducir al insecto a viajar en una trayectoria determinada.

Recursos Relacionados

Meier y Furber presentan los sistemas BraiScales y SpiNNaker del Proyecto de Cerebro Humano, en el Primer Workshop de Aplicaciones de Computación Neuromorfica en Marzo de 2016. El video está disponible aquí.

El principio de Memoria Temporal Jerárquica, (HTM), que fuera propuesto por Jeff Hawkins en su famoso libro, “Sobre la Inteligencia”, es aun uno de los modelos más prometedores de como el cerebro resuelve los problemas. Hawkins ha cofundado una compañía innovadora llamada Numenta, para construir un conjunto de software operativo según los principios HTM. Disponible por medio de la comunidad de código abierto NuPIC, el software muestra como el enfoque de computación basado en principios de aprendizaje de base biológica puede hacer posible una nueva generación de capacidades. La compañía describe sus fundamentos y trabajos en este par de videos

Conclusión

Desde el cambio del modelo de computación clásico a los robots revolucionarios, la computación similar al cerebro, está tomando el centro del escenario de computación. Esperamos que esta edición de Computing Now lo inspire para considerar a la IA como una parte esencial del futuro de la tecnología de computación. Le rogamos compartir sus visiones e ideas a pie de página.

Cita
T. Huang, “Brain-Like Computing,” Computing Now, vol.9, no.5, May. 2016, IEEE Computer Society [online]; https://www.computer.org/web/computingnow/archive/brain-like-computing-may-2016.

Guest Editor

Tiejun Huang es profesor en la Escuela de Ingeniería Eléctrica y Ciencias de la Computación y es el encargado del Departamento de Ciencias de la Computación de la Universidad de Pekín, China. Ha sido actuado como Profesor Distinguido del Programa de Becas de Chang Jiang por el Ministerio de Educación, así como ganado el premio de Jóvenes Distinguidos de la Natural Sciencie Foundation de China. Huang es miembro del cuadro consejero de Computing Now, actuando como representante para China y supervisando las traducciones al chino. Se lo puede contactar en tjhuang@pku.edu.cn.