Nuevo método de procesamiento de información a gran velocidad

Nuevo método de procesamiento de información a gran velocidad

Por UIB.-Investigadores del Instituto de Física Interdisciplinar y Sistemas Complejos (UIB-CSIC) han demostrado experimentalmente el potencial que tiene una arquitectura fotónica simple para procesar información con una tasa de transferencia de datos sin precedentes. La propuesta, que acaba de publicar la revista Nature Communications, se basa en el uso de componentes ópticos corrientes y en sistemas con capacidad de aprendizaje.

 

La edición digital de la revista Nature destaca en su portada un artículo de investigadores del Instituto de Física Interdisciplinar y Sistemas Complejos (IFISC, organismo mixto CSIC-Universidad de las Islas Baleares) sobre un nuevo "enfoque óptico" para procesar información.

 

El trabajo, que se ha publicado en la sección Nature Communications, propone un método de procesamiento de los datos a gran velocidad –hasta gigabytes por segundo– basado en sistemas con capacidad de aprendizaje y que utiliza componentes ópticos comunes en los laboratorios.

 

Los sistemas informáticos modernos exigen métodos de procesamiento de la información más eficientes para llevar a cabo cálculos que son cada vez más complejos. Uno de los enfoques más prometedores para mejorar esta eficiencia es el conocido como reservoir computing. Esta propuesta, en la que enmarca el estudio, utiliza los estados transitorios de un sistema no lineal como base, de manera parecida al que hace una red neural tradicional. 
 
En contreto, los investigadores Daniel Brunner, Miguel C. Soriano, Claudio Mirasso y Ingo Fischer del del IFISC han implementado un sistema de reservoir computing utilizando un sistema fotónico construido íntegramente con componentes ópticos estándares.

 

Este sistema consta de un láser semiconductor que genera los estados transitorios necesarios, mientras un bucle de fibra óptica, como el que se usa en las comunicaciones ópticas tradicionales, se emplea para llevar a cabo el cálculo. 
 
Los científicos han demostrado que es adecuado para llevar a cabo tareas de predicción (como el procesamiento de secuencias temporales) y de clasificación (como el reconocimiento simultáneo de dígitos pronunciados y de las personas que los pronuncian) a velocidades de gigabytes por segundo. Estas tareas son las que se utilizan habitualmente para determinar la fiabilidad de un sistema para gestionar información. 
 
La implementación de este sistema demuestra las posibilidades del reservoir computing para llevar a cabo tareas de procesamiento de datos de forma eficiente y completamente óptica.

 

Portada de la web de Nature.com

 

Dejar un comentario

captcha