Как самая та вероятность попадания ненужных страниц, это начало. именно момент формирования сайта, создание, наполнение... не сформирован robots.txt. Я как то рекомендовал, закрыть всё для всех поисковых для начала.
А то что гугл хочет увидеть, он увидит, и js тут Вам не в помощь, порой бывает хуже - "Вы пытались нае... нашу поисковую систему..". В некоторых моментах, например как "подтяжка" информации, можно использовать и js.
Про rel="canonical", да, если есть правило, и есть возможность, то почему бы и нет. лишним не будет.
а то что основные поисковые системы игнорирую(или начинают игнорировать) rel="nofollow" или <noindex>, дык это понятно))). Умников упрятать инфу/ссылки хватает, и цели то разные))
Ну и стоит учесть, что гуль не "центр вселенского поиска" и не "пуп единой оптимизации", есть и другие поисковые системы, хотя пожалуй есть и "любимые движки", или так сказать "правильные"...
На примере, у меня у дружка/конкурента самописный движок(года 4-ре уже его сайту), товар у нас схожий, только у меня уникальный контент на основные позиции, а он копирайтит тупо всегда, а в выдаче его сайт выше без раскрутки и продвижения!!!
Вот и думай чё от гугля ожидать завтра.
Думаю основное это работа над контентом, статьи обзоры, описание интересное, не гуглу! набитое тупо ключевиками, а для людей. тем более что поговаривали(правда ещё летом) о интелектуальном распознавании контента поисковыми системами. хотя это, пожалуй, понты, обычный просчёт плотности ключевых слов.
ну как то имхо моЁ жизневиденье.