Si tuviese un procesador con infinitos Ghz, memoria infinita y disco duro infinito, entonces no importa que tarea tenga que realizar, si esta tiene pasos lógicos para su solución, solo tendría que generar algoritmos al azar, porque instantáneamente tendría el algoritmo que llevaría a cabo dicha tarea.
Pero el mundo se mueve bajo límites, así que generar algoritmos al azar en un procesador de unos pocos 2 Ghz, con memoria de 512MB y disco duro de 40Gb no es muy efectivo, luego se debe optimizar este proceso para dar con el algoritmo que podrá cumplir una determinada tarea.
Ese es un gran dilema que se enfrenta uno cuando trabaja con la Vida Artificial: uno quiere que rápidamente se den resultados (vivimos en una cultura occidental capitalista contra-reloj), luego la tardanza que uno observa operando un algoritmo evolutivo lo hace a uno meditar de que es mejor optimizar o hacer algo para mejorar el desempeño. Esto puede ser una trampa mortal porque la "optimización" puede restringir la libertad que tendría un proceso evolutivo, y esta restricción muy probablemente evitará que se genere el algoritmo preciso que se espera.
Pero como se vio en las simulaciones, la mutación es mucho mejor que la simple generación al azar de algoritmos, da resultados mas precisos en menor tiempo. Pero también se ve que en ocasiones las mutaciones caen en "falsos positivos", es decir, mejorando un algoritmo que no puede progresar mas y no ofrece mejor precisión.
La evolución de las especies es un proceso MUY lento, los biólogos hablan de millones de años, ¿por qué esperar que en unos pocos minutos tener los mismos resultados? es ridículo.
Por esta situación, la investigación y la planeación de nuevas simulaciones será muy cuidadosa, para no restringir libertad evolutiva. Deben pensarse muy bien las optimizaciones.
Tal vez en unos años cuando estemos en arquitectura de 64 bits o 128 bits, hablemos de varios Ghz y Gb de memoria RAM, entonces los resultados sean mas rápidos de concluir.