Ссылки типа: lodkiargo.in.ua/add2cart/a-280t-grebnaya-trehmestn... в индекс заходят по причине того, что кнопка "ЗАКАЗАТЬ" является для ПС обычной ссылкой!
да фиг с ним, в роботс добавить исключение, и всех делов... ага... а что делать с тем что уже "проглотил" бот?
и эти сслыки просто не выкинуть из поиска. выход вижу один: идти на стр. вебмастера в гугле и создавать запрос на удаления урлов. но..это происходит оч долго и нудно, и то не всегда, и гуглу это явно не нравиться. а что делать...
Вывод: перед тем как открыть и установить сайт, создайте robots.txt в корне магазина и подумайте от том, чтоб всё было закрыто, вообще всё!!!, то есть:
User-agent: *
Disallow: /
А после того когда Вы будете уверены в том что готовы и всё отладили для запуска проекта, тогда можно отменить общее правило, ну прописать нужные исключения. примеров хватает, на форуме вроде тоже есть.