Selasa, 25 April 2017

Bubble Effect Filter : Bahaya Algoritma Facebook Yang Membuat Anda Semakin Rasis dan Fanatik

Bubble Effect Filter : Bahaya Algoritma Facebook Yang Membuat Anda Semakin Rasis dan Fanatik

Masih tebal ingatan saya waktu harus bekerja keras menghemat uang jajan hanya untuk ke warnet dekat sekolah. Sama seperti sebagian besar dari anda, beberapa tahun silam internet adalah barang mewah bagi kebanyakan orang. Saya sumringah bukan main saat menghabiskan waktu di warnet meski hanya untuk ngobrol via MIRC dengan orang yang gak dikenal (pasti anda juga senyum-senyum sendiri waktu dengar kata MIRC)

MIRC tentu saja booming, tapi masih ada lagi bapak sosial media yang juga hits banget saat itu yaitu “friendster”. Bayangkan saja, setiap kali ketemu orang selalu yang ditanyakan adalah “id Friendster kamu apa ?” dan dengan bangga saya menajawab Id saya “Zain Ambi Sang Mentalist” (maklum dulu masih tergila-gila dengan seni misteri itu,)

Setidaknya dengan selalu mengingat Friendster, kita jadi menyadari bahwa dulu kita pernah alay juga :p. Jadi apa nama Id Friendster kamu?

*sengaja saya beri jeda, untuk mengingat-ingat nama alay Friendster anda dulu

Jaman pun berubah sehingga kian lama internet tidak lagi sebuah barang mewah tapi sudah menjadi kebutuhan. Sebegitu pentingnya, konon katanya kita butuh 4 hal yaitu Harta, Tahta, Wanita, dan Paket Data. Nyaris Semua orang punya akun sosmed, kita bisa bertemu dengan teman lama yang hilang entah kemana juga lewat facebook kan?

Sepertinya ini perubahan yang menggembirakan, iya kan?

Banyak hal yang bisa dipelajari hanya dengan mengandalkan beberapa klik di mbah google. Bahkan saya tahu fenonema Dunning Kruger Effect pun bukan dari textbook waktu kuliah tapi dari jurnal yang saya donwload dari internet. Sehingga pada akhirnya terciptalah artikel tentang Dunning Kruger yang viral hingga dishare lebih dari 800 orang (jumlah share yang lumayan mengingat umur blog ini yang belum sampai 1,5 bulan),

Saya sendiri cukup kaget bercampur senang melihatnya dan lagi-lagi tidak bisa dipungkiri bahwa semua karena internet bung !!

Tapi akhir-akhir ini saya mulai menyadari suatu hal. Ternyata internet dan sosial media tidak sebaik yang kita kira. Bak pedang bermata dua, selain dampak positif yang aduhai ternyata ada juga dampak negatif internet yang begitu mengerikan. Parahnya hal negatif ini tidak kita sadari. Dan ini saya sebut dengan KUTUKAN FACEBOOK!!

Sebenarnya ini tidak hanya terjadi di jejaring sosial facebook, sebagian besar situs lainnya juga begitu. Tapi entah kenapa dampaknya lebih kentara di facebook yang akan saya paparkan sebentar lagi.

Kutukan Facebook ini akhirnya menjawab pertanyaan besar yang sering muncul di pikiran saya belakangan tentang beberapa hal seperti mengapa di facebook para penggunanya semakin banyak yang fanatik, entah itu fanatik ke kiri atau ke kanan. Kita semakin terdistract terbagi menjadi dua pihak dengan begitu jelas

Dan kutukan Facebook itu dikarenakan oleh algoritma facebook sendiri

Fenomena ini dikenal dengan nama Filter Buble Effect yang digalakkan oleh aktivits internet nan cerdas bernama Eli Pariser di tahun 2011. Ia juga menerbitkan buku yang viral dengan judul yang sama “The Filter Bubble: How the New Personalized Web Is Changing What We Read and How We Think”

Saya akan buat penjelasannya menjadi sederhana guys,

Pernah tidak, anda penasaran atau sejenak berpikir mengapa iklan yang muncul saat anda membuka internet hampir sebagian besar sesuai dengan minat anda? Entah saat membuka facebook, google, atau bahkan random website selalu muncul iklan yang sesuai dengan minat, history pencarian, dan riwayat klik anda.

Semisal anda pernah buka situs traveling seperti traveloka untuk mencari hotel. Kemudian entah kenapa ketika anda membuka facebook, iklan hotel yang pernah anda cari muncul di facebook anda. Sering menemui hal serupa?

Ya, hal itu wajar ditemui karena semenjak Desember 2009 Google sudah merubah algoritmanya dan kemudian diikuti sebagian besar situs terkenal termasuk Facebook.

Saat ini sebagian besar situs sudah mengubah algoritma isian konten halaman yang tadinya berdasarkan Timeline (Waktu) menjadi algoritma yang berdasarkan histori aktifitas masa lalu pengguna. Sehingga yang muncul pertama kali bukan postingan terdahulu sesuai dengan waktu melainkan sesuai dengan minat dan histori pengguna.

Artinya.. Agar bisa menampilkan data sesuai dengan minat anda maka sebuah algoritma situs akan mengumpulkan informasi tentang pengguna seperti lokasi, riwayat klik, riwayat like, riwayat komentar, riwayat pencarian dan seluruh riwayat anda di internet mulai dari pandangan politik, barang yang anda search di lazada sampai pelatihan NLP terbaik apa yang anda cari (Misal anda bisa menemukan pelatihan terbaik disini )

Akibatnya, muncul iklan-iklan yang sesuai dengan histori anda. Terjadi perlombaan yang begitu masif untuk mengkoleksi sebanyak mungkin data personal kita dengan tujuan agar kedepan data yang ditampilkan sesuai dengan minat kita.

Sudah bisa membayangkan? nah, dengan begini maka data personal anda bisa menjadi bahan yang berharga seperti tahta berlian kalau dijual ke media periklanan. Semua demi menghasilkan iklan yang jauh lebih efektif. Dan bagi anda yang sudah tahu, saat ini cara-cara seperti itu sudah biasa terjadi.

Kalau dilihat dari sisi pengguna (pada awalnya) memang ini hal yang bagus sebab akan langsung efektif mengarahkan kita ke hasil yang kita mau. Bisa anda bayangkan saat ini milyaran informasi tersebar di internet sehingga terkadang walau kita memakai keyword pencarian yang benar, tetap dibutuhkan waktu yang lama untuk mencari data yang kita mau dan sesuai dengan yang kita inginkan 

Kembali lagi, karena algoritma tersebut maka sebuah situs secara otomatis akan cenderung untuk menampilkan informasi yang ingin kita lihat berdasarkan asumsi algoritma tadi.

Tapi, Di sisi lain tersimpan efek yang begitu mengerikan

Yang sering tidak anda sadari (sebelum membaca artikel ini) adalah karena algoritma penyaringan ini pengguna menjadi terpisah dari informasi yang tidak selaras dengan pandangan mereka. Anda akan hidup dalam dunia anda sendiri yang sesuai dengan pandangan anda. Pariser menyebut ini dengan “The Filter Buble”

Ya seperti bubble yang tidak terlihat, jadi algoritma ini menciptakan sebuah gelembung tak terlihat yang memisahkan kita dari pandangan yang kontradiktif dengan sudut pandang kita. Gelembung ini menyebabkan kita terisolasi secara intelektual.

Google, Facebook dan berbagai situs lain akan cenderung memberikan informasi yang familiar, menyenangkan dan mengkonfirmasi kepercayaan utama kita. Sehingga kepercayaan awal kita semakin dibuai dan dimanja dengan berbagai hal hingga semakin kuat pula pada akhirnya. Akibatnya yang pro semakin pro dan yang kontra menjadi semakin kontra.

Sebegitu tidak terlihatnya “penjara buble” ini hingga kita tidak tahu apa yang disembunyikan oleh kita. Minat awal, pandangan awal dan masa lalu kita akan menentukan hal apa yang kita temui di sebuah situs pada masa depan.

Sehingga hanya tersedia sedikit ruang bagi pandangan baru untuk muncul dan kemudian kebebasan bertukar ide menjadi tersudutkan, padahal hal ini penting mengingat masyarakat dunia yang semakin manjemuk

Supaya lebih jelas saya tunjukkan ilustrasinya:

1. Harusnya seperti inilah internet, anda berada di tengah-tengah jutaan informasi yang beragam Baik yang anda diminati atau tidak, sepakat maupun bertentangan dengan pandangan anda.
Lihat ilustrasi berikut :

Bubble Effect Filter : Bahaya Algoritma Facebook Yang Membuat Anda Semakin Rasis dan Fanatik

2. Lalu karena cara kerja filter algoritma, anda secara otomatis disodori informasi yang memang anda suka (berdasarkan histori anda). Awalnya memang akan memudahkan tapi tanpa disadari (karena anda tidak sadar sedang di filter) tercipta sebuah gelembung tak terlihat yang memisahkan anda dari pendapat-pendapat diluar pendapat utama atau prior belief anda.
Lihat ilustrasi berikut :

Bubble Effect Filter : Bahaya Algoritma Facebook Yang Membuat Anda Semakin Rasis dan Fanatik

3. Ujung- ujungnya, anda merasa memiliki pemahaman yang paling benar sendiri, fanatik dan bebal terhadap kritik . Tercipta sebuah ilusi sedemikian rupa karena anda memang hanya bisa melihat informasi yang mendukung belief awal, disodori dan disuapi opini yang pro belief utama anda.
Lihat ilustrasi berikut :

Bubble Effect Filter : Bahaya Algoritma Facebook Yang Membuat Anda Semakin Rasis dan Fanatik

Dan karena tertutup oleh gelembung tadi maka anda tidak bisa melihat informasi lain.

Pandangan yang bertentangan menjadi semakin dijauhkan bahkan meskipun ada artikel yang bagus, konstruktif dan mengkritik pandangan awal anda namun tidak akan sampai ke newsfeed anda sehingga akibatnya timbul pemikiran “pokoknya pandangan saya paling benar”

Sehingga misal seseorang disuatu waktu suka sekali mengklik berita tentang hebatnya ajaran radikal dengan segala kelebihan dan kebenarannya (menurut dia) maka ke depan mesin-mesin facebook, google dan lainnya akan menyuguhkan informasi tentang kehebatan ajaran radikal dan tidak adilnya sistem yang sudah berjalan.

Semua informasi yang bertentangan akan sengaja disembunyikan oleh algoritma itu karena dianggap tidak penting. Semua itu mengakibatkan seseorang menjadi semakin teguh dan percaya bahwa ajaran radikal itu benar adanya.

Oh iya! Kebetulan baru saja terjadi kasus yang mirip sekali dengan yang saya contohkan.

Dian Yulia Novi, tersangka kasus Bom Panci mengaku dalam sebuah wawancara bahwa dia mengenal radikalisme dimulai dari facebook guys.. Iyaa dari Facebook !! persis seperti yang saya katakan tadi kan?

Dan kemudian dia menjadi semakin radikal karena Filter Bubble Effect ini

Dalam Ilmu Neuro Linguistic Programming (NLP) ada satu presuposisi (asumsi dasar) bahwa People Make The Best Choices Available To Them (Manusia membuat keputusan sesuai dengan pilihan yang tersedia).  Sehingga dengan memahami pernyataan tadi, tidak heran kalau saati ini banyak orang  lebih suka membuat keputusan perilaku untuk membenci orang lain yang berpandangan tidak sama, ya karena pilihan yang tersedia di dunianya (Baca: sosmed dan internet) penuh kebencian !!

Filter buble effect juga bisa bekerja dengan cara lain, misal saat ini sedang hangat isu ahok maka di newsfeed anda muncul beberapa berita tentang Ahok baik pro dan kontra, kemudian anda menjadi tergoda untuk mengklik, mereview, memberikan komentar, dan mencari di google tentang Ahok.

Histori itu akan membuat algoritma facebook beranggapan bahwa berita Ahok itu penting dan sesuai dengan minat anda akibatnya berita-berita lain di luar itu akan sengaja dihilangkan oleh facebook dan google!

Akhirnya anda hanya membaca dan mengklik berita itu-itu saja. Ujung-ujungnya anda merasa bahwa negeri ini penuh dengan kebencian, perbedaan yang tidak bisa dikompromikan, hanya tentang aku dengan segala argumenku yang maha benar !.

Dan karena hanya mengklik yang itu-itu saja google dan facebook pun menganggap bahwa kasus ini sesuai dengan minat dan sangat penting buat anda, sehingga terus ditampilkan di newsfeed anda, ujung-ujungnya itu pun menjadi viral. Kemudian orang lain pun melakukan proses yang sama, timbul efek bola salju yang membuat negeri kita semakin panas.

Seolah-olah tidak ada berita lain padahal kalau anda cek di koran masih banyak berita lain di Indonesia yang menggembirakan misalnya Mobil Listrik Karya Anak Bangsa Yang berhasil Cicipi Lintasan Sirkuit Ferrari.

Tapi kenapa di halaman facebook anda tidak terlihat berita itu? malah lebih banyak kasus ahok? yaaa kita semua terkena filter bubble effect.

Sayangnya, kebanyakan orang (apalagi di Indonesia) tidak menyadari adanya filter ini. Mereka tidak menyadari bahwa mungkin selama ini cara kita berpikir, melihat, dan merasakan dikendalikan oleh sebuah algoritma. Kita semua tidak tahu kalau sedang diisolasi !.

Seandainya pun tahu, seperti anda yang sudah membaca artikel dari blog ini tetap saja yang menjadi permasalahan selanjutnya adalah ketidaktahuan cara mengontrol agar tidak terisolasi dan tidak terkena filter buble effect.

Meskipun anda sudah menekan tombol untuk “delete history and cookies” namun tetap saja akan kesulitan untuk mengambil kontrol. Hal itu disebabkan karena kompleksitas algoritma itu dan penjelasan bagaimana algoritma itu bekerja (google masih merahasiakan bagaiamana algoritmanya bekerja).

Ini fenomena yang membuat bulu kuduk berdiri, karena berdasarkan penelitian terbaru saat ini masyarakat dunia (juga masyarakat indonesia ) lebih banyak mendapatkan berita dari sosial media dan internet dibandingkan media lain seperti koran dan televisi (anda bisa cek disini). Ditambah semakin menjamurnya berita-berita hoax yang seringkali dijadikan bahan rujukan orang yang fanatik dan rasis.

Akhirnya, di titik ini mungkin benar perkataan gadis remaja yang viral beberapa saat lalu yaitu untuk berpuasadari sosial media dan internet selama 10 hari agar pikiran dan perasan kita menjadi lebih netral serta tenang.

Sekali lagi, mungkin kita bisa lebih membuka pikiran untuk berbagai pendapat dan ide-ide baru yang mungkin bertentangan dengan pendapat awal kita. Bukankah “ Pikiran kita ibarat parasut yang hanya berfungsi ketika terbuka?”