Тэг «»

Яндекс начал кампанию против кликджекинга
Перед самым Новым годом произошло событие, для многих так и оставшееся незамеченным. 30 декабря 2015 года Яндекс рассказал о введении нового фильтра, призванного бороться с так называемым кликджекингом. Это новый вид интернет-мошенничества, при котором пользователей обманным путем заставляют кликнуть на элемент, отвечающий совсем не за то, что видно им на экране.

Яндекс.Директ представил бета-версию «Мастера отчетов»
В Яндекс.Директе можно ознакомиться с бета-версией «Мастера отчетов» второго поколения. Обновленный инструмент для анализа кампаний стал более функциональным и получил настраиваемые отчеты.

Google обновляет основной алгоритм
По всему миру оптимизаторы и вебмастера сообщают о заметных изменениях в позициях сайтов в выдаче Google. Гэри Илш, инженер отдела качества Google, официально заявил о том, что эти изменения объясняются обновлениями основного алгоритма поисковой системы и никак не связаны с апдейтом «Пингвина».

Google перевел четверть топа своей выдачи на HTTPS
По подсчетам аналитиков, каждый четвертый результат поиска в Google на первой странице уже работает на HTTPS. Эти данные были получены после анализа более 10 тысяч различных запросов.

Twitter планирует внедрить новый рекламный формат
В Twitter всерьез думают над внедрением в сервис нового рекламного формата. Благодаря ему бренды получат возможность продвигать самих себя при помощи твитов простых пользователей.

50 самых высококонкурентных запросов Байнета
Конкурентность поисковых запросов — важный показатель, с помощью которого можно наиболее оптимально подобрать семантическое ядро сайта и определиться со стратегией продвижения и бюджетом.

В выдаче Google наблюдаются значительные изменения
В выдаче Google в англоязычном сегменте интернета наблюдаются серьезные изменения позиций отдельных сайтов. Наибольшее количество сообщений об изменениях пришлось на 29 декабря минувшего года. Многие вебмастера предполагают, что эти изменения связаны с тестированием обновления алгоритма «Пингвин», которое планируется выпустить в январе 2016 года.

Google: при переносе сайта дублированный контент является нормой
Каждый seo-специалист знает, что Google негативно относится к дублированному контенту. Однако бывают случаи, когда о повторяющемся контенте можно не переживать. Один из них – перенос либо склейка сайтов.

Как ускорить индексирование файла robots.txt роботами Google?
Обычно поисковые роботы Google опрашивают файл robots.txt один раз в сутки или немного реже. Но можно ли в случае необходимости «заказать» его индексирование во внеочередном режиме? Оказывается, можно!

Распознает ли Google скрытые в тексте ссылки?
В состоянии ли роботы Google распознавать скрытые ссылки, которые появляются только после выполнения пользователем каких-либо действий? Именно такой вопрос во время видеоконференции был задан Джону Мюллеру, сотруднику отдела качества поиска Google.