анализировать результаты поиска Google Scholar, очищенные с помощью rvest

Я пытаюсь использовать rvest для очистки одной страницы результатов поиска Google Scholar в фреймворке данных об авторе, названии статьи, году и названии журнала.

Упрощенный воспроизводимый пример ниже - это код, который ищет в Google Scholar примерные термины «сохранение высших хищников».

Примечание: чтобы оставаться в рамках Условий обслуживания, я хочу обрабатывать только первую страницу результатов поиска, которые я получил бы при ручном поиске. Я не прошу автоматизировать очистку дополнительных страниц.

Следующий код уже работает для извлечения:

  • автор
  • название статьи
  • год

но в нем нет:

  • название журнала

Я хотел бы извлечь заголовок журнала и добавить его к выходным данным.

library(rvest)
library(xml2)
library(selectr)
library(stringr)
library(jsonlite)

url_name <- 'https://scholar.google.com/scholar?hl=en&as_sdt=0%2C38&q=apex+predator+conservation&btnG=&oq=apex+predator+c'
wp <- xml2::read_html(url_name)
# Extract raw data
titles <- rvest::html_text(rvest::html_nodes(wp, '.gs_rt'))
authors_years <- rvest::html_text(rvest::html_nodes(wp, '.gs_a'))
# Process data
authors <- gsub('^(.*?)\\W+-\\W+.*', '\\1', authors_years, perl = TRUE)
years <- gsub('^.*(\\d{4}).*', '\\1', authors_years, perl = TRUE)
# Make data frame
df <- data.frame(titles = titles, authors = authors, years = years, stringsAsFactors = FALSE)

df

источник: https://stackoverflow.com/a/58192323/8742237

Таким образом, вывод этого кода выглядит так:

#>                                                                                                                                                   titles
#> 1                                                                                    [HTML][HTML] Saving large carnivores, but losing the apex predator?
#> 2                               Site fidelity and sex-specific migration in a mobile apex predator: implications for conservation and ecosystem dynamics
#> 3                  Effects of tourism-related provisioning on the trophic signatures and movement patterns of an apex predator, the Caribbean reef shark

#>                                           authors years
#> 1                  A Ordiz, R Bischof, JE Swenson  2013
#> 2  A Barnett, KG Abrantes, JD Stevens, JM Semmens  2011

Два вопроса:

  1. Как я могу добавить столбец с заголовком журнала, извлеченным из необработанных данных?
  2. Есть ли ссылка, по которой я могу прочитать и узнать больше о том, как решить, как извлечь для себя другие поля, чтобы мне не нужно было спрашивать здесь?

person Jeremy K.    schedule 16.06.2020    source источник


Ответы (1)


Один из способов добавить их:

library(rvest)
library(xml2)
library(selectr)
library(stringr)
library(jsonlite)

url_name <- 'https://scholar.google.com/scholar?hl=en&as_sdt=0%2C38&q=apex+predator+conservation&btnG=&oq=apex+predator+c'
wp <- xml2::read_html(url_name)
# Extract raw data
titles <- rvest::html_text(rvest::html_nodes(wp, '.gs_rt'))
authors_years <- rvest::html_text(rvest::html_nodes(wp, '.gs_a'))
# Process data
authors <- gsub('^(.*?)\\W+-\\W+.*', '\\1', authors_years, perl = TRUE)
years <- gsub('^.*(\\d{4}).*', '\\1', authors_years, perl = TRUE)


leftovers <- authors_years %>% 
  str_remove_all(authors) %>% 
  str_remove_all(years)


journals <- str_split(leftovers, "-") %>% 
            map_chr(2) %>% 
            str_extract_all("[:alpha:]*") %>% 
            map(function(x) x[x != ""]) %>% 
            map(~paste(., collapse = " ")) %>% 
            unlist()

# Make data frame
df <- data.frame(titles = titles, authors = authors, years = years, journals = journals, stringsAsFactors = FALSE)

По вашему второму вопросу: расширение chrome гаджета селектора css является удобно для получения CSS-селекторов нужных вам элементов. Но в вашем случае все элементы используют один и тот же класс css, поэтому единственный способ распутать их - использовать регулярное выражение. Думаю, я немного узнаю о селекторах css и regex: )

person Dominik S. Meier    schedule 16.06.2020