crawling twitter

Crawling Data Twitter Caranya Mengambil Data Dengan Python

Taufiksi – Haloo, pagi pagi enaknya ngopi sambil baca twitter ehh dapet tugas di suruh crawling data twitter wkwk. Jadi pada artikel ini kita akan membahas seputar pengambilan data.

Biasanya crawling ini berguna untuk kamu yang ingin meneliti suatu masalah yang ada di internet. Ohh jangan jangan kamu belum tau apa itu crawling ?

Yahh, kalau kamu dari jurusan informatika pasti akan belajar tentang mata kuliah yang ada crawling data ini. Makanya kamu ketemu deh artikel yang di tulis oleh saya ini.

Semoga berhasil menjawab semua yang ada di benakmu ya.

Apa Itu Crawling ?

Mulai Online-kan Projectmu

Udah ngodingnya capek, tapi masih di localhost ? tenang, yang kamu perlukan hanya uploud project ke hosting agar bisa diakses orang lain. Beli hosting sekarang dan dapatkan domain gratis.

Beli Hosting

Crawling adalah semacam pengambilan data dari media sosial kemudian di kumpulkan menjadi satu untuk di evakuasi dan di bentuk agar menjadi sebuah penelitian.

Prosesnya cukup mudah tergantung kamu ingin mengambil data dari sosial media mana. Misalkan kamu ingin crawling data dari twitter ada dua cara yaitu dengan menggunakan API dan tanpa API.

Di artikel ini kita akan menggunakan yang tanpa API, karena saya belum di terima saat mengajukan API pada twitter developer.

Secara singkat seperti itu pengertian dari crawling data.

Tools Yang Digunakan

Untuk yang tools yang di gunakan untuk crawling data twitter kali ini kita akan menggunakan beberapa. Apa aja itu ? Simak berikut ini.

  • Jupyter Notebook
  • Python

Sudah itu saja tools yang di rekomendasikan artikel ini untuk crawling data twitter.

Rekomendasi Hardware

Mungkin ada dari kamu yang punya spesifikasi laptop tingkat dewa yang tidak pernah berfikir aplikasi apa aja yang ingin di instal. Namun ada beberapa di antaranya memiliki spek kentang seperti punya saya.

  • Sistem Operasi : Windows, Linux & MacOS
  • Prosesor : i3 keatas
  • RAM : 4GB sampai batas

Tahap Crawling Data Twitter

Seperti yang sudah di bilang artikel kali ini kita akan mengcrawl tanpa menggunakan api, mungkin lain kali akan saya update jika sudah di terima oleh pihak twitter.

Terus apa saja tahapnya ?

Buka Jupyter Notebook

Pastikan kamu sudah menginstal jupyter dan juga python. Untuk download jupyter bisa melalui aplikasi anaconda yang sizenya mungkin sekitar 400 mb.

Buat File Baru

Kamu bisa membuat file baru dan di beri nama sesuka hati kamu. File ini nantinya berekstensi .ipynb karena untuk running nya kita menggunakan kernel.

Instal Twint

Caranya cukup mudah kamu tinggal memasukan kode di bawah ini.

!git clone --depth=1 https://github.com/twintproject/twint.git
%cd twint
!pip3 install . -r requirements.txt

Kemudian running dan tunggulah sebentar karena kernel sedang memproses biasanya memakan waktu sekitar beberapa detik.

Emm, kalau pada saat import twint mengalami error mungkin bisa tambahkan code berikut ini, kemudian running lah.

!pip install aiohttp==3.7.0

Mungkin kalau masih tidak bisa coba untuk membuat notebook baru.

Import Twint

Setelah menginstal twint tentunya belum bisa di jalankan karena kamu perlu menginportnya terlebih dahulu supaya twint bisa digunakan.

Caranya cukup mudah masukan saja kode di bawah ini.

import nest_asyncio
nest_asyncio.apply() #digunakan sekali untuk mengaktifkan tindakan serentak dalam notebook jupyter.
import twint #untuk import twint

Proses Ambil Data Twitter

Sudah import semuanya ? kini kamu tinggal menentukan data apa yang ingin di ambil. Kita ambil saja salah satu hastag yang sedang viral di twitter yaitu #NegeriPajak.

c = twint.Config()
c.Search = '#NegeriPajak'
c.Pandas = True
twint.run.Search(c)

Kemudian running kode tersebut maka akan muncul semua data yang ada di twitter khusunya yang berhastag #NegeriPajak.

Eksport Data Twitter

Kamu bisa juga mengeksport semua data tersebut ke csv. caranya kamu masukan kode di bawah ini untuk membuat tabelnya terlebih dahulu.

Tweets_df = twint.storage.panda.Tweets_df
Tweets_df.head()

Kemudian masukan kode di bawah ini untuk mengeksport ke dalam file berekstensi csv.

Tweets_df.to_csv("negeri_pajak.csv", index=False)

Dengan menggunakan fungsi to_csv maka kamu seharusnya berhasil mengeksport semua data tersebut. Dan untuk lokasi file kamu bisa cari pada lokasi yang sama dengan file ipynb kamu.

Penutup

Oke kita sudahi terlebih dahulu untuk crawling data twitter yang mengganggu waktu ngopi pagi saya huhu. Terima kasih sudah membaca sampai jumpa di artikel selanjutnya. Bye




Terima kasih sudah membaca artikelnya, tetap semangat jalani harimu meskipun dunia bertolak belakang dengan keinginanmu. Dan jangan lupa ngopi supaya sadar pahitnya dunia tidak semanis mimpi. Ahay

Tertanda Sayang


Taufik Nurhidayah
Traktir Kopi

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan.