#SEO Создайте свою внутреннюю семантическую сетку с @ visiblis- Tutorial на #Starwars

SEO развивается изо дня в день, и машинное обучение занимает большое место, давая начало все более и более продвинутым семантическим инструментам, а также все более и более интеллектуальным поисковым системам

SEO развивается изо дня в день, и машинное обучение занимает большое место, давая начало все более и более продвинутым семантическим инструментам, а также все более и более интеллектуальным поисковым системам. Этот пост - мой рождественский подарок, где я учу вас, как создать собственную внутреннюю семантическую сетку вокруг темы «Звездных войн».

Как и в саге, я разрезал этот билет на 3 части, которые я буду транслировать с 9 по 25 декабря 2015 года.

Как и в саге, я разрезал этот билет на 3 части, которые я буду транслировать с 9 по 25 декабря 2015 года

Прежде чем начать, вот список, инструменты, которые могут улучшить его семантический корпус. Благодаря пересечению большого количества инструментов уровень шума ограничен и мы достигаем очень хороших результатов.

Инструменты
Конечно, есть инструменты Google:

Тогда есть инструменты, посвященные семантическому анализу.

  • Лейпцигский университет предоставляет базу данных под названием «Французский корпус», состоящую из почти 37 миллионов предложений, или около 700 миллионов слов.
    http://wortschatz.uni-leipzig.de/ws_fra/
  • Visiblis - это набор семантического программного обеспечения, которое позволяет лучше писать его содержимое и заголовки, оптимизируя при этом его сетку и ранг семантической страницы. Я считаю, что это лучший семантический инструмент SEO на данный момент для тех, кто новичок или у которого нет слишком сложных потребностей (сайт с более чем 100 000 URL для анализа, слишком длинное содержание, специальная кодировка, страницы на английском языке). , сайты в javascript ...).
    Поздравляем Джерома Россигнала, который дает SEO-сообществу очень практичный инструмент по доступной цене.
    http://www.visiblis.com

Наконец, я не буду перечислять большое количество API-интерфейсов, предназначенных для интеллектуального анализа данных, потому что, по моим сведениям, их минимум 12.
В своей статье я собираюсь использовать API-интерфейс Aylian, который дает 1000 запросов в день, чтобы показать вам его потенциал и создать собственную внутреннюю семантическую сетку. API Aylien остается по разумной цене (199 долларов в месяц) за 180 000 анализов.

  • Aylien - это API, который позволяет анализировать текст, извлекать информацию и извлекать данные (микроформаты, теги) с использованием машинного обучения для извлечения смысла и эффективности из текстового и визуального контента.
    http://aylien.com/

Эпизод 1: Выбор страниц поддержки
Требуется много страниц поддержки, чтобы повысить целевую страницу.
Избегайте классических ошибок при выборе страниц поддержки и слушайте советы Мастера Йоды:

  • Страницу с окончанием публикации вы избежите
  • Страница, не исследованная Google, откажется
  • Страница с глубиной слишком сильна, вы устраните
  • Страницу без отчета вы исключите

У SCiFI-Universe есть умный срез: рабочая карта, которая затем разрезается на циклы (оригинальная трилогия, прелогия, новое трило), а затем на медиа-карты (фильмы, книги, игры) и издания (DVD, редактирование). особенная игра, роман в карманном варианте ...)

Я дам вам несколько инструментов для извлечения страниц поддержки:

Query Explorer
Этот инструмент позволяет извлечь все данные из вашего аккаунта Google Analytics
Это простой в использовании, выполните следующие действия, чтобы извлечь URL, которые генерируют трафик SEO

1 / Настройте свой аккаунт GA
1 / Настройте свой аккаунт GA

2 / Укажите следующие параметры:
2 / Укажите следующие параметры:

3 / Нажмите «Выполнить запрос», и вы получите свой первый список.

Пакет Р
С R это еще проще, потому что я создал специальную функцию.
Вам просто нужно указать в параметре дату начала, дату окончания и идентификатор, который соответствует параметру p URL в Google Analytics.
Таким образом, вы получаете готовый к использованию фрейм данных.

analyticsGetOrganicLandingPage <- function (id, startdate, enddate) {DF <- google_analytics (id = id, start = startdate, end = enddate, metrics = "ga: сеансы", размеры = "ga: landingPagePath", sort = "-ga : сеансы ", фильтры =" ga: medium = @ органический, ga: source = @ google ", samplingLevel =" WALK ") DF <- summaryBy (сессий ~ landingPagePath, data = DF, FUN = сумма) имен столбцов (DF) < - c ('Address', 'Sessions') DF <- организовать (DF, -Sessions) возврат (DF)}

Ползет с ксену
Начните сканирование своего сайта для получения ценной информации:

  • URL (который будет служить идентификатором)
  • глубина страницы (уровень)
  • повторный код (Status.Code)
  • количество входящих ссылок (Links.In)
  • количество исходящих ссылок (Links.Out)

Не забудьте ограничить глубину сканирования вашего сканера:

Xenu остается очень простым в использовании, вам просто нужно указать начальный URL.

После полного сканирования сайта вы можете экспортировать текстовый файл, содержащий все ссылки.

Экспорт в TAB-файл ...

С помощью R я объединяю результаты списка просканированных страниц со списком страниц с SEO-трафиком и применяю рекомендации Мастера Йоды.

site <- "http://www.scifi-universe.com" # эта переменная после параметра URL-адреса Google Analytics idAnalytics <- "144342" # займет не менее двух последних месяцев DF_analytic <- analyticsGetOrganicLandingPage (idAnalytics , "2015-09-01", "2015-11-30") # укажите путь к текстовому файлу Xenu DF_crawler <- read.csv ("./ projects / scifi-universe.com / xenu_links.txt", header = TRUE, sep = "t") # мы сохраняем некоторые данные DF_crawler <- фильтр (DF_crawler, grepl ("html", Type))%>% select (Level, Links.Out, Links.In, Address, Status .Code, Size #, Title) # мы заменяем URL-адрес сайта пустой строкой, поскольку Google Analytics не указывает имя домена DF_crawler <- as.data.frame (sapply (DF_crawler, gsub, pattern = site, replace = ") ")) # мы объединяем две таблицы DF_merged <- merge (x = DF_analytic, y = DF_crawler, by =" Address ", all.x = TRUE)%>% # мы удаляем URL, где уровень глубины не имеет не найден фильтр (! is.na (Level))%>% # удалить профессионала фильтр основателей больше или равен 8 (as.integer (Level) <8)%>% # сортировка по порядку сеанса (-Sessions) write.table (DF_crawler, file = "./projects/scifi-universe.com/page -support.csv ", sep ="; ", col.names = FALSE)

Ползать с Кричащей Лягушкой
Screaming Frog более полная, чем Xenu, и позволяет получать больше информации с лицензией 99 фунтов в год:

  • URL (который будет служить идентификатором)
  • глубина страницы (уровень)
  • повторный код (Status.Code)
  • Мета Роботы (Meta.Robots.1)
  • тег H1 (H1.1)
  • канонический (Canonical.Link.Element.1)
  • количество входящих ссылок (Inlinks)
  • количество исходящих ссылок

Это может сэкономить вам много времени, если вы не владеете R, поскольку оно может пересекать ваши данные во время сканирования с информацией из Google Analytics.

Я написал статью на эту тему: http://data-seo.com/2015/07/09/tutoriel-screamingfrog-v4-decouvrez/

заключение
Это конец эпизода 1, и обычно у вас должен быть список страниц поддержки, готовый к использованию.

Внутреннюю семантическую сетку можно настроить, работая с такими инструментами, как R, Xenu, Google Analytics.

Я работал с R на моем любимом языке, но использую технологию, которая вам наиболее удобна.

Я использовал сканер для идентификации страниц поддержки, но в конечном итоге я проделал ту же работу с анализатором журналов.

Этот тип сетки не только поможет вашим пользователям находить статьи, связанные с их исследованиями, но также поможет ботам находить качественные страницы.

В следующем эпизоде ​​вы узнаете, как выбирать целевые страницы и оптимизировать их с помощью Visiblis.

Да пребудет с тобой сила! Продолжение следующего эпизода

Фото предоставлены: StarWars

 

Категории

  • Новости

  • Новости



     


    © NFL24.RU | 2011.
    Использование материалов сайта NFL24.ru возможно при ссылке на сайт NFL24.ru (для интернет-изданий обязательно размещение активной гиперссылки).
    Официальные сайты команд NFL