En todas áreas en donde se busque solucionar algún problema en específico es factible la búsqueda de la mejor solución posible / deseable. Esta búsqueda ha originado el desarrollo de algoritmos de optimización, que pueden ser de naturaleza determinista o estocástica. Los primeros requieren enormes esfuerzos computacionales para resolver problemas de optimización, que tienden a fallar a medida que aumenta el tamaño del problema. Esta es la motivación para emplear algoritmos de optimización estocástica bio-inspirados como alternativas computacionalmente eficientes al enfoque determinista. Las metaheurísticas como la Evolución Diferencial se basan en la mejora de una población de soluciones y emplean mayormente operadores como cruza, mutación y selección para resolver el problema dado.  Por otro lado, los algoritmos de estimación de probabilidad (EDAs, por sus siglas en inglés) guían la búsqueda del la solución óptima construyendo y muestreando modelos probabilísticos de soluciones candidatas prometedoras.  En general, los algoritmos metaheurísticos gozan de una buena reputación para resolver problemas de optimización para cualquier función del espacio continuo.
En el presente trabajo se muestra la implementación del algoritmo metaheurístico Evolucíón Diferencial, y los EDAs UMDA y BUMDA para la búsqueda de los óptimos globales de las funciones Ackley, Griewank, Rosenbrock, Schwefel y Zakharov.