Conferencia magistral del padre del algoritmo GENITOR en la Escuela Superior de Ingeniería 26 febrero 2020
El profesor Darrell Whitley de la Universidad de Colorado habló sobre ‘Neural Darwinism: Optimal Neuron Selection as Pseudo-Boolean Optimization’ en la UCA
La Escuela Superior de Ingeniería de la Universidad de Cádiz ha organizado la conferencia magistral del padre del algoritmo GENITOR, del científico Darrell Whitley (Universidad Estatal de Colorado, USA), titulada Neural Darwinism: Optimal Neuron Selection as Pseudo-Boolean Optimization.
El profesor Whitley ha sido recientemente nombrado ACM Fellow por su “liderazgo técnico y profesional en el campo de la computación genética y evolutiva”, convirtiéndose en el primer investigador en este campo en recibir este galardón.
En su teoría, el ganador del premio Nobel “Darwinismo neuronal”, Gerald Edelman, propuso que el mecanismo más fundamental utilizado por el cerebro para el aprendizaje es la selección de neuronas, donde los circuitos neuronales generados aleatoriamente se activan y desactivan. La ponencia del profesor Darrell Whitley explora cómo se puede lograr el aprendizaje automático activando y desactivando las neuronas en una capa oculta especial de una red neuronal. Las pruebas empíricas indican que “la selección de neuronas da como resultado un aprendizaje rápido y, lo que es más importante, una generalización mejorada”.
El algoritmo GENITOR es lo que actualmente se conoce como algoritmo genético de estado estacionario. Este tipo de algoritmos presentan notables ventajas sobre los algoritmos genéticos tradicionales en numerosas aplicaciones prácticas. General Electric ha reconocido su contribución de los algoritmos genéticos de estado estacionario en los 80 al diseño y optimización de los motores a reacción de los Boeing 777. El trabajo del profesor Whitley en la computación evolutiva incluyen además el algoritmo de selección por rangos, diversos métodos innovadores para resolver el problema del viajante de comercio y nuevos algoritmos para crear túneles entre óptimos locales que permiten mejorar las soluciones encontradas en problemas de optimización, tal y como comentan desde la Dirección de la ESI.
Sus numerosas contribuciones se plasman en más de 200 trabajos, incluyendo el primer artículo científico sobre neuroevolución en inteligencia artificial. Sus obras acumulan más de 20 000 citas, convirtiéndole en uno de los autores más reputados y citados de su disciplina.