Program Sentiment Analysis API Twitter Menggunakan R

Analisis sentimen merupakan proses klasifikasi dokumen tekstual ke dalam dua kelas, yaitu kelas sentimen positif dan negatif.  Data opini diperoleh dari jejaring sosial berdasarkan query dalam Bahasa Indonesia atau bahasa lainnya. 

disini akan membahas bagaimana cara pembuatan program sentiment analysis pada API twitter menggunakan program R dengan tema "hate speech". pastikan telah mendownload dan menginstall program RStudio.

Buka program RStudio, lalu ketikan program dibawah ini :
install.packages('twitteR')
install.packages('RCurl')
install.packages('wordcloud')
install.packages('corpus')
install.packages('tm') 


pada program diatas kita install terlebih dahulu package - package yang dibutuhkan, selanjutnya yaitu kita aktifkan packages tersebut.
require(twitteR)
require(wordcloud)
require(corpus)
require(tm)
require(RCurl)


Untuk melakukan mining di twitter, erlebih dahulu mengirim secure authorized request ke twitter API, dengan cara masuk ke website https://apps.twitter.com/ lalu login dengan akun twitter kalian. pastikan twitter kalian telah diverifikasi nomer HP. Selanjutnya pilih Create New App, lalu isikan form yang tersedia




setelah selesai membuat twitter apps, masuk ke tab bagian Keys and Access Token. lalu kalian akan mendapatkan kode API twitter kalian yang akan digunakan nantinya.

kembali ke program R, masukan kode API kalian seperti dibawah ini (pastikan kalian terhubung dengan internet).
consumer_key <- 'isi dengan Consumer Key'
consumer_secret <- 'isi dengan Consumer Secret'
access_token <- 'isi dengan Access Token'
access_secret <- 'isi dengan Access Secret'
setup_twitter_oauth(consumer_key, consumer_secret, access_token, access_secret)



jika tidak ada error, maka kalian telah berhasil menghubungkan API twitternya. Selanjutnya yaitu membuat variabel baru dan memanggil fungsi searchTwitter. kita isikan beberapa parameter yaitu kata kunci 'bangsat+tolol', lang = "id" dan isikan n dengan seberapa banyak data yang mau ditampilkan. contoh program seperti dibawah ini:
miningtweets <- searchTwitter('bangsat+tolol', lang="id", n=500,resultType="recent")

sebelum kita menampilkan tweet, terlebih dahulu kita konversikan menjadi text dengan ketikan
miningtweets_text <- sapply(miningtweets,function(x) x$getText())
str(miningtweets_text)


lalu kita akan coba tampilkan semua tweet yang kita mining, buat variable baru lalu panggil fungsi corpus dengan parameter variable yang kita buat sebelumnya

kasar_corpus <- Corpus(VectorSource(miningtweets_text))
inspect(kasar_corpus)




selanjutnya kita akan membersihkan tweet dari elemen elemen yang tidak dibutuhkan seperti angka, spasi, dan hapus juga kata kunci yang tadi kita gunakan

katakasar_clear <- tm_map(kasar_corpus, removePunctuation)
katakasar_clear <- tm_map(katakasar_clear, removeNumbers)
katakasar_clear <- tm_map(katakasar_clear, stripWhitespace)
katakasar_clear <- tm_map(katakasar_clear, removeWords, c("Bangsat",Tolol"))


Setelah berhasil lalu kita akan tampilkan wordcloud, fungsi ini adalah fungsi dari R yang sangat menarik karena kita dapat menyusun kata kata menjadi sebuah susunan seperti awan
wordcloud(katakasar_clear)


tambahan source code :
Menyusun kata dengan frekuensi terbanyak menjadi di tengah
wordcloud(katakasar_clear, random.order=F)

Memberikan warna
wordcloud(katakasar_clear, random.order=F, col=rainbow(50))

 
Membatasi jumlah kata
wordcloud(katakasar_clear, random.order=F, max.word=50) 

Kelompok :
- Evan Nada Virgiawan
- Muhammad Asep A
- Fajri Yusuf
- M. Reza Sulaiman

Komentar

Postingan populer dari blog ini

STRATIFIKASI SOSIAL

Surat Perintah Sebelas Maret

Rancangan E-Commerce menggunakan CMS