Чтобы проверить это утверждение, я бы хотел увидеть эксперимент немного другого вида: уберем из проекта аспиранта. Вместо робота, сконструированного так, чтобы он мог развивать свои способности к ходьбе, возьмем робота, который уже применяется в какой-нибудь реальной ситуации и может ходить. Далее, мы не будем создавать специальный язык подпрограмм для выражения гипотез о том, как ходить, а заменим существующую программу в существующем микропроцессоре случайными числами. В качестве мутаций возьмем ошибки того типа, которые все равно случаются в таких процессорах (хотя при моделировании можно задавать частоту, с которой мы позволим им случаться). Все это делается, чтобы исключить возможность того, что в конструкцию системы вводятся человеческие знания и привносимые ими новые возможности будут восприниматься как результат эволюции. Затем, как обычно, начнем моделирование этой мутирующей системы — столько раз, сколько угодно. Если робот в конце концов пойдет лучше, чем было изначально, то я ошибся. Если он продолжит совершенствовать свой навык и после этого, то я ошибся очень сильно.