Taufiksi – Haloo, pagi pagi enaknya ngopi sambil baca twitter ehh dapet tugas di suruh crawling data twitter wkwk. Jadi pada artikel ini kita akan membahas seputar pengambilan data.
Biasanya crawling ini berguna untuk kamu yang ingin meneliti suatu masalah yang ada di internet. Ohh jangan jangan kamu belum tau apa itu crawling ?
Yahh, kalau kamu dari jurusan informatika pasti akan belajar tentang mata kuliah yang ada crawling data ini. Makanya kamu ketemu deh artikel yang di tulis oleh saya ini.
Semoga berhasil menjawab semua yang ada di benakmu ya.
Apa Itu Crawling ?
Crawling adalah semacam pengambilan data dari media sosial kemudian di kumpulkan menjadi satu untuk di evakuasi dan di bentuk agar menjadi sebuah penelitian.
Prosesnya cukup mudah tergantung kamu ingin mengambil data dari sosial media mana. Misalkan kamu ingin crawling data dari twitter ada dua cara yaitu dengan menggunakan API dan tanpa API.
Di artikel ini kita akan menggunakan yang tanpa API, karena saya belum di terima saat mengajukan API pada twitter developer.
Secara singkat seperti itu pengertian dari crawling data.
Tools Yang Digunakan
Untuk yang tools yang di gunakan untuk crawling data twitter kali ini kita akan menggunakan beberapa. Apa aja itu ? Simak berikut ini.
- Jupyter Notebook
- Python
Sudah itu saja tools yang di rekomendasikan artikel ini untuk crawling data twitter.
Rekomendasi Hardware
Mungkin ada dari kamu yang punya spesifikasi laptop tingkat dewa yang tidak pernah berfikir aplikasi apa aja yang ingin di instal. Namun ada beberapa di antaranya memiliki spek kentang seperti punya saya.
- Sistem Operasi : Windows, Linux & MacOS
- Prosesor : i3 keatas
- RAM : 4GB sampai batas
Tahap Crawling Data Twitter
Seperti yang sudah di bilang artikel kali ini kita akan mengcrawl tanpa menggunakan api, mungkin lain kali akan saya update jika sudah di terima oleh pihak twitter.
Terus apa saja tahapnya ?
Buka Jupyter Notebook
Pastikan kamu sudah menginstal jupyter dan juga python. Untuk download jupyter bisa melalui aplikasi anaconda yang sizenya mungkin sekitar 400 mb.
Buat File Baru
Kamu bisa membuat file baru dan di beri nama sesuka hati kamu. File ini nantinya berekstensi .ipynb karena untuk running nya kita menggunakan kernel.
Instal Twint
Caranya cukup mudah kamu tinggal memasukan kode di bawah ini.
!git clone --depth=1 https://github.com/twintproject/twint.git
%cd twint
!pip3 install . -r requirements.txt
Kemudian running dan tunggulah sebentar karena kernel sedang memproses biasanya memakan waktu sekitar beberapa detik.
Emm, kalau pada saat import twint mengalami error mungkin bisa tambahkan code berikut ini, kemudian running lah.
!pip install aiohttp==3.7.0
Mungkin kalau masih tidak bisa coba untuk membuat notebook baru.
Import Twint
Setelah menginstal twint tentunya belum bisa di jalankan karena kamu perlu menginportnya terlebih dahulu supaya twint bisa digunakan.
Caranya cukup mudah masukan saja kode di bawah ini.
import nest_asyncio
nest_asyncio.apply() #digunakan sekali untuk mengaktifkan tindakan serentak dalam notebook jupyter.
import twint #untuk import twint
Proses Ambil Data Twitter
Sudah import semuanya ? kini kamu tinggal menentukan data apa yang ingin di ambil. Kita ambil saja salah satu hastag yang sedang viral di twitter yaitu #NegeriPajak.
c = twint.Config()
c.Search = '#NegeriPajak'
c.Pandas = True
twint.run.Search(c)
Kemudian running kode tersebut maka akan muncul semua data yang ada di twitter khusunya yang berhastag #NegeriPajak.
Eksport Data Twitter
Kamu bisa juga mengeksport semua data tersebut ke csv. caranya kamu masukan kode di bawah ini untuk membuat tabelnya terlebih dahulu.
Tweets_df = twint.storage.panda.Tweets_df
Tweets_df.head()
Kemudian masukan kode di bawah ini untuk mengeksport ke dalam file berekstensi csv.
Tweets_df.to_csv("negeri_pajak.csv", index=False)
Dengan menggunakan fungsi to_csv maka kamu seharusnya berhasil mengeksport semua data tersebut. Dan untuk lokasi file kamu bisa cari pada lokasi yang sama dengan file ipynb kamu.
Penutup
Oke kita sudahi terlebih dahulu untuk crawling data twitter yang mengganggu waktu ngopi pagi saya huhu. Terima kasih sudah membaca sampai jumpa di artikel selanjutnya. Bye
Apakah ada cara untuk membuat interface crawling data ini, entah seperti bentukan aplikasi atau app web. Terimakasih
Mungkin ada caranya
Cek Komen