Ich versuche, eine for-Schleife schreiben, die durch viele Websites durchlaufen wird und extrahieren ein paar Elemente, und speichern Sie die Ergebnisse in einer Tabelle in R. Hier ist mein bisher so weit, nur nicht sicher Wie starte ich die for-Schleife oder kopiere alle Ergebnisse in eine Variable, um sie später zu exportieren.Loop-URL und speichern Sie Informationen in R
library("dplyr")
library("rvest")
library("leaflet")
library("ggmap")
url <- c(html("http://www.webiste_name.com/")
agent <- html_nodes(url,"h1 span")
fnames<-html_nodes(url, "#offNumber_mainLocContent span")
address <- html_nodes(url,"#locStreetContent_mainLocContent")
scrape<-t(c(html_text(agent),html_text(fnames),html_text(address)))
View(scrape)
Arbeitete groß! Wie kann ich einstellen, dass die Daten von jedem Kratzen in einer separaten Reihe gespeichert werden? Gerade jetzt speichert sie alle nebeneinander – CHopp
Ich bin mir nicht sicher, ob ich Ihre Frage verstehe. Innerhalb des dat.frame von 'lapply' könnte man folgendes' data.frame (Agent = Agent, Fnames = fnames, Adresse = Adresse, URL = u) 'haben, um die entsprechende URL zu jeder generierten Zeile zu haben –
Ich habe es herausgefunden , aber eine andere Frage, warum würde ich einen Fehler wie diese erhalten, wenn Sie versuchen, eine Website zu suchen "Fehler: 'www.website.com' existiert nicht im aktuellen Arbeitsverzeichnis" – CHopp