Conseguir diseñar y construir máquinas capaces de realizar procesos con cierta inteligencia ha sido uno de los principales objetivos de los científicos a lo largo de la historia. De los intentos realizados en este sentido se han llegado a definir las líneas fundamentales para la obtención de máquinas inteligentes: En un principio los esfuerzos estuvieron dirigidos a la obtención de autómatas, en el sentido de máquinas que realizaran, con más o menos éxito, alguna función típica de los seres huma
Las primeras explicaciones teóricas sobre el cerebro y el pensamiento ya fueron dadas ya por Platón
(427-347 a.C.) y Aristóteles (348-422 a.C.). Las mismas ideas también las mantuvo Descartes
(1569-1650) y los filósofos empiristas del siglo XVIII.
La clase de las llamadas máquinas cibernéticas, a la cual la computación neuronal pertenece, tiene
más historia de la que se cree: Herón (100 a.C) construyó un autómata hidráulico.
1936 - Alan Turing. Fue el primero en estudiar el cerebro como una forma de ver el mundo de la
computación. Sin embargo, los primeros teóricos que concibieron los fundamentos de la
computación neuronal fueron Warren McCulloch, un neurofisiólogo, y Walter Pitts, un matemático,
quienes, en 1943, lanzaron una teoría acerca de la forma de trabajar de las neuronas (Un Cálculo
Lógico de la Inminente Idea de la Actividad Nerviosa - Boletín de Matemática Biofísica 5: 115-133).
Ellos modelaron una red neuronal simple mediante circuitos eléctricos.
1949 - Donald Hebb. Escribió un importante libro: La organización del comportamiento, en el que se
establece una conexión entre psicología y fisiología. Fue el primero en explicar los procesos del
aprendizaje (que es el elemento básico de la inteligencia humana) desde un punto de vista
psicológico, desarrollando una regla de como el aprendizaje ocurría. Aun hoy, este es el fundamento
de la mayoría de las funciones de aprendizaje que pueden hallarse en una red neuronal. Su idea fue
que el aprendizaje ocurría cuando ciertos cambios en una neurona eran activados. También intentó
encontrar semejanzas entre el aprendizaje y la actividad nerviosa. Los trabajos de Hebb formaron las
bases de la Teoría de las Redes Neuronales
1950 - Karl Lashley. En sus series de ensayos, encontró que la información no era almacenada en forma
centralizada en el cerebro sino que era distribuida encima de él.
1956 - Congreso de Dartmouth. Este Congreso frecuentemente se menciona para indicar el nacimiento
de la inteligencia artificial.
1957 - Frank Rosenblatt. Comenzó el desarrollo del Perceptrón. Esta es la red neuronal más antigua;
utilizándose hoy en día para aplicación como reconocedor de patrones. Este modelo era capaz de
generalizar, es decir, después de haber aprendido una serie de patrones podía reconocer otros
similares, aunque no se le hubiesen presentado anteriormente. Sin embargo, tenía una serie de
limitaciones, por ejemplo, su incapacidad para resolver el problema de la función OR-exclusiva y, en
general, era incapaz de clasificar clases no separables linealmente. En 1959, escribió el libro Principios
de Neurodinámica, en el que confirmó que, bajo ciertas condiciones, el aprendizaje del Perceptrón
convergía hacia un estado finito (Teorema de Convergencia del Perceptrón).
1960 - Bernard Widrow/Marcial Hoff. Desarrollaron el modelo Adaline (ADAptative LINear Elements).
Esta fue la primera red neuronal aplicada a un problema real (filtros adaptativos para eliminar ecos en
las líneas telefónicas) que se ha utilizado comercialmente durante varias décadas.
1961 - Karl Steinbeck: Die Lernmatrix. Red neuronal para simples realizaciones técnicas (memoria
asociativa).
1967 - Stephen Grossberg. A partir de sus conocimientos fisiológicos, ha escrito numerosos libros y
desarrollado modelo de redes neuronales. Realizó una red: Avalancha, que consistía en elementos
discretos con actividad que varía en el tiempo que satisface ecuaciones diferenciales continuas, para
resolver actividades como reconocimiento continuo de habla y aprendizaje de los brazos de un robot.
1969 - Marvin Minsky/Seymour Papert. En este año surgieron críticas que frenaron, hasta 1982, el
crecimiento que estaban experimentando las investigaciones sobre redes neuronales. Minsky y Papera,
del Instituto Tecnológico de Massachussets (MIT), publicaron un libro Perceptrons. Probaron
(matemáticamente) que el Perceptrón no era capaz de resolver problemas relativamente fáciles, tales
como el aprendizaje de una función no-lineal. Esto demostró que el Perceptrón era muy débil, dado que
las funciones no-lineales son extensamente empleadas en computación y en los problemas del mundo
real. A pesar del libro, algunos investigadores continuaron su trabajo. Tal fue el caso de James
Anderson, que desarrolló un modelo lineal, llamado Asociador Lineal, que consistía en unos elementos
integradores lineales (neuronas) que sumaban sus entradas. Este modelo se basa en el principio de que
las conexiones entre neuronas son reforzadas cada vez que son activadas. Anderson diseñó una
potente extensión d
1974 - Paul Werbos. Desarrolló la idea básica del algoritmo de aprendizaje de propagación hacia atrás
(backpropagation); cuyo significado quedó definitivamente aclarado en 1985.
1977 - Stephen Grossberg. Teoría de Resonancia Adaptada (TRA). La Teoría de Resonancia Adaptada es
una arquitectura de red que se diferencia de todas las demás previamente inventadas. La misma
simula otras habilidades del cerebro: memoria a largo y corto plazo.
1977 - Teuvo Kohonen. Ingeniero electrónico de la Universidad de Helsinki, desarrolló un modelo
similar al de Anderson, pero independientemente.
1980 - Kunihiko Fukushima. Desarrolló un modelo neuronal para el reconocimiento de patrones
visuales..
1985 - John Hopfield. Provocó el renacimiento de las redes neuronales con su libro: "Computación
neuronal de decisiones en problemas de optimización."
1986 - David Rumelhart/G. Hinton. Redescubrieron el algoritmo de aprendizaje de propagación hacia
atrás (backpropagation). A partir de 1986, el panorama fue alentador con respecto a las investigaciones
y el desarrollo de las redes neuronales. En la actualidad, son numerosos los trabajos que se realizan y
publican cada año, las aplicaciones nuevas que surgen (sobretodo en el área de control) y las empresas
que lanzan al mercado productos nuevos, tanto hardware como software (sobre todo para simulación)