Metode ketiga yaitu import data dari url dengan fungsi read. Pertama kita perlu me-load package tidyverse kemudian gunakan fungsi read_csv() atau read_excel() sesuai format data, Kita coba meng-import data raw csv dari Data Pangan pada repository github Komposisi Pangan
#> Load packagelibrary(tidyverse)#> Identifikasi url data dengan nama data_pangandata_pangan <-read_csv("https://raw.githubusercontent.com/AktUPNYK/Project-DA/main/data/komposisi_pangan.csv")#> Tampilkan datadata_pangan
Panggunaan package googlesheet hampir mirip dengan import online hanya saja diganti dengan sheet_id. Pertama kita me-load package googlesheets4 dan kemudian gunakan fungsi read_sheet. Misal kita akan mengimport data Penjualan Buah dari google sheet : https://docs.google.com/spreadsheets/d/18TaWfcpqvwAvMDbsX6j8FCNZPVcL--x23abId0tzBEI maka kita akan mengambil id sheet sebagai key call nya yaitu 18TaWfcpqvwAvMDbsX6j8FCNZPVcL--x23abId0tzBEI
#> Load paket googlesheetlibrary(googlesheets4)googlesheets4::gs4_deauth()#> Membaca sheet berdasarkan sheet idread_sheet("18TaWfcpqvwAvMDbsX6j8FCNZPVcL--x23abId0tzBEI")
# A tibble: 100 × 7
shop_id item_id item item_name sold `price (Rp)` city
<dbl> <dbl> <chr> <chr> <dbl> <dbl> <chr>
1 1590 3578 Apel Apel merah 1921 22549 Kab. Bogor
2 1968 4327 Apel Apel rome beauty 2077 36256 Kota Bandung
3 1911 2153 Apel Apel fuji 1971 43525 Kota Malang
4 1579 1223 Apel Apel manalagi 1961 38031 Jakarta Pusat
5 1574 4675 Apel Apel wanglin 3239 23299 Kab. Bogor
6 3512 3279 Apel Apel merah 4474 35882 Kota Bandung
7 1904 2643 Apel Apel rome beauty 2288 25221 Kota Malang
8 1943 4171 Apel Apel fuji 1505 10693 Jakarta Pusat
9 3131 3728 Apel Apel manalagi 1860 27556 Kab. Bogor
10 4530 4649 Apel Apel wanglin 1195 41518 Kota Bandung
# ℹ 90 more rows
Web scraping adalah metode pengambilan data dari sebuah website secara otomatis. Teknik ini sangat berguna dalam bisnis online, baik itu untuk riset pasar, riset kompetitor, atau mencari leads 1. Ada beberapa teknik web scraping yang umum dilakukan, yaitu:
Menyalin data secara manual
Menggunakan regular expression
Parsing HTML
Kali ini kita akan menggunakan fungsi read_html() untuk meng-ekstrak element tabel dari website dengan me-load package tidyverse dan rvest terlebih dahulu Misal kita akan meng-import data dari tabel website chart trending Youtube maka :
#> Load Packagelibrary(tidyverse)library(rvest)#> Url data tabelurl <-"https://kworb.net/youtube/insights/id_daily.html"html <-read_html(url)#> Ekstrak element tabeltable <- html |>html_element("table") |>html_table()#> Tampilkan Tabeltable