1
Общие вопросы / Re: Периодические проблемы с загрузкой JQuery
« : Апреля 04, 2012, 12:35:35 pm »
на 5 сайте полоса под шапкой привязана к левому краю и при больших разрешениях съезжает.
🔶 Свежий релиз CMS Legosp 6.3.1
😎 Новый универсальный шаблон "Store"
👉 Новая услуга "Бесплатный SEO анализ" вашего сайта!
🔴 6 супер модулей всего за 👉100$ В разделе модули "Комплект из 6-ти модулей"
💣 УРА! Мы обновили дизайн сайта!
☁️ Интернет-магазин в облаке Legosp CLOUD!⚡⚡⚡
В этом разделе можно просмотреть все сообщения, сделанные этим пользователем.
if((!isset($_GET['searchstring'])) and ($_SERVER['REQUEST_METHOD']=="GET"))
{
$reqUrl=$_SERVER['REQUEST_URI'];
$reqUriLen=strlen($reqUrl);
$lasSymb = $reqUrl[$reqUriLen-1];
if (preg_match("/[^a-z,0-9,\/,\-,\_]/", $reqUrl))
{ header("HTTP/1.0 404 Not Found");
header("location: /404/");
exit; }
if($lasSymb!="/"){ header("HTTP/1.1 301 Moved Permanently"); header("location: $reqUrl/");
exit;
}
}
Думаю основное это работа над контентом, статьи обзоры, описание интересное, не гуглу! набитое тупо ключевиками, а для людей. тем более что поговаривали(правда ещё летом) о интелектуальном распознавании контента поисковыми системами. хотя это, пожалуй, понты, обычный просчёт плотности ключевых слов.За это и боремся! Чтобы написанная статья была в единственном экзампляре, на одной единственной странице, а не 20-ти дублях. К тому же наличие дублей сильно снижает скорость переиндексации всего сайта в целом и вхождения нового контента в индекс в частности. Так, что сам контент это не единственное над чем нужно задумываться, ИМХО!
ну как то имхо моЁ жизневиденье.
Google больше не рекомендует блокировать доступ поисковых роботов к повторяющемуся контенту с помощью файла robots.txt или иных способов. Если поисковые системы не имеют возможности сканировать страницы с повторяющимся контентом, то они не смогут автоматически определять, что разные URL имеют одинаковый контент, и будут обращаться с ними как с уникальными страницами. Наилучший выход из этого положения – разрешить поисковым системам сканировать все URL, предварительно отметив их как повторяющиеся с помощью элемента link rel="canonical", функции обработки параметров URL или переадресации 301. Если на вашем сайте очень много страниц с повторяющимся контентом, рекомендуется настроить скорость сканирования в Инструментах для веб-мастеров.Зявление о том, что дублированый контент не является основанием для принятия мер, думаю, можно поставить под сомнение!
Наличие на сайте повторяющегося контента не является основанием для принятия каких-либо мер по отношению к нему. Такие меры применяются только в том случае, если это сделано с целью ввести пользователей в заблуждение или манипулировать результатами поиска. Если у вас возникают проблемы из-за повторяющегося контента, но вы не последовали приведенным выше советам, то мы выберем версию контента для показа в результатах поиска на свое усмотрение.
я так понимаю что речь о LiqPayНасколько проблематично такое прикрутить? Сейчас пытаемся наладить работу с Приватом и они требуют установить оплату через эту штуку.