Третья причина, по которой я не предсказываю появление сверхинтеллектуального ИИ, — его принципиальная непредсказуемость. Он требует «концептуальных прорывов», как заметил Джон Маккарти в интервью 1997 г. Далее он сказал: «Вы хотите получить 0,7 Эйнштейна и 0,3 Манхэттенского проекта, причем сначала Эйнштейна