Dengan memilihkan link dan informasi berdasarkan profil pengguna, filtrasi informasi yang dijalankan algoritma internet memenjarakan para pengguna dalam kepompong intelektual.
Dua orang yang berseberangan haluan politik, liberal-kapitalis dan sosialis, melakukan pencarian kata "BP" di Google. Orang pertama menerima, di barisan pertama halaman pencariannya, informasi-informasi tentang kemungkinan investasi di British Petroleum, sedangkan orang kedua mendapatkan berita-berita terbaru tentang tumpahan minyak telah disebabkan oleh perusahaan minyak Inggris itu. Kedua pencarian itu menghasilkan jawaban yang sangat berlawanan karena mereka telah "disaring" oleh Google sesuai dengan profil pengguna internet. Ini adalah salah satu contoh yang diberikan oleh Eli Pariser, spesialis dunia maya, untuk menunjukkan bagaimana mesin pencari dari Amerika ini - yang dikalibrasi ulang 600 kali setiap tahunnya secara rahasia - menyaring perilaku online dan menyesuaikan diri dengan profil pengguna.
Dalam esainya "The Filter Bubble" ("gelembung penyaringan", Penguin Books, 2011), ia berpendapat bahwa seleksi permanen ini, yang berlaku untuk semua bidang - politik, sastra, wisata, budaya - oleh Google ini 'memenjarakan' pengguna dalam "gelembung kognitif ".
Cass R. Sunstein, profesor hukum Harvard, adalah salah satu dari mereka yang pertama kali mengemukakan teori ini untuk memberikan peringatan terhadap risiko kekeringan intelektual di zaman Internet akibat dari dari efek gelembung ini.
Sebuah dunia egosentris
Pada tahun 2001, di Republic.com, dan kemudian pada tahun 2007, di Republic.com 2.0 (Princeton University Press), ia telah menyatakan keprihatinannya terhadap penyaringan diam-diam yang dilakukan oleh algoritma mesin pencari, jejaring sosial dan perusahaan bisnis atas keinginan dan pendapat dari para pengguna internet.
Dia khawatir bahwa dengan menawarkan prioritas untuk pengguna internet atas apa yang mereka suka dan pikirkan, internet akan memenjarakan mereka dalam dunia egosentris yang memperlakukan mereka sebagai konsumen dan bukannya membantu mereka untuk berperilaku sebagai warga negara yang terbuka dan pluralistik.
Sebagai bukti, ia mengutip "kepompong" pendukung yang berkerumun di blogosphere, di mana pengguna menemukan konfirmasi dari keyakinan dan prasangka mereka tanpa dihadapkan pada ide yang bertentangan: itu adalah apa yang dia sebut sebagai "harianku", sebuah koran harian yang bersifat autis. Ketakutan ini terkonfirmasi musim panas ini oleh editor koran Inggris The Guardian, Katharina Viner, setelah kampanye untuk mendukung Brexit - pilihan dalam referendum Inggris untuk meninggalkan dari Uni Eropa. Dalam sebuah penelitian berjudul "Bagaimana teknologi menganggu kebenaran," ia mengkhawatirtan bahwa banyak tabloid, dan juga para pemimpin pro-Brexit, mengumpulkan "informasi palsu" - bahkan kebohongan - supaya didengarkan.
Tidak ada yang luar biasa? Bedanya, kali ini, pernyataan keterlaluan tersebut beredar dengan kecepatan tinggi dan besar-besaran di antara para bloger dan di jejaring sosial, untuk menyaingi informasi dari media-media utama konvensional.
Bagi Katharina Viner maupun Eli Pariser, algoritma selektif Google dan jejaring sosial memainkan peranan penting dalam aliran "air terjun" ini. Dengan hanya menarik sampel informasi berdasarkan permintaan yang telah dibuat dan afinitas pengguna, algoritma menyodorkan pada para pengguna ribuan halaman dan situs informasi yang sesuai dengan pandangan mereka, membatasi mereka dalam "pandangan dunia" dan "keyakinan" mereka sendiri.
Kita pun tinggal memiliki "semakin sedikit kesempatan untuk mendapatkan fakta-fakta yang menyanggah informasi palsu yang dibagikan oleh orang lain." Dalam masyarakat di mana pentingnya fakta menjadi semakin kabur dan di mana paradigma "pasca-kebenaran" semakin merajalela, debat demokratis dan jurnalisme investigatif pun menjadi terancam.
Tanpa disadari, kita terpenjara
Menurut teori "gelembung filter", algoritma Google menyeleksi hasil yang disajikan seturut profil pengguna internet dengan mengandalkan 57 kriteria berbeda: usia, jenis kelamin, penelusuran sebelumnya, geolokasi, browser yang digunakan, resolusi layar, servis yang dikunjungi, frekuensi klik, shortcut, dll.
Personalisasi mendetail ini membuat Google dan situs komersial yang terkait bisa terus menerus menawarkan pada kita link, situs dan iklan seturut dengan apa yang biasa kita pilih. Hal itu pun menjadi suatu bentuk "auto propaganda tersembunyi". Dan pemfilteran ini semakin berkembang di jejaring sosial. Algoritma EdgeRank Facebook dengan canggih tanpa henti menentukan visibilitas laman dan teman-teman bersama di news-feed setiap pengguna, dan memilihkannya sesuai dengan tiga kriteria: afinitas dan frekuensi yang terungkap lewat skor 'Like' dan 'Share'; kekayaan konten (foto, video, frekuensi); serta kronologis perilaku pengguna.
Menurut rata-rata postingan di Facebook pada tahun 2014, seorang pengguna bisa menerima 1.500 postingan baru setiap kali ia membuka account-nya. Namun hanya 300 postingan yang dipilih oleh EdgeRank. Dalam "filosofi" Facebook, sebagaimana disampaikan dalam rilisnya, mereka menawarkan bagi para penggunanya sebuah ruang lingkup postingan yang datang dari teman-teman terdekat dan paling aktif, yang akan membuat mereka nyaman karena berada dalam ruang lingkup mereka sendiri.
Bagi Eli Pariser, 'pemenjaraan' diam-diam dalam gelembung semacam ini terjadi baik dari segi pribadi pengguna maupun kontennya. Ia pun menyatakan bahwa di laman Facebook-nya teman-temannya yang berhaluan Konservatif semakin lama semakin menghilang. Sebab ia tidak terlalu banyak berkomunikasi dengan sedikit, atau tidak menandai "like" di postingan mereka, ia pun tidak melihat lagi update positngan mereka. Padahal meskipun ia tidak sepandangan dengan mereka, ia tidak ingin melarang mereka untuk menyampaikan ide-ide mereka sendiri. Dalam hal konten, semua teks, link, laman, video, peristiwa yang sedikit mendapatkan tanggapan juga menghilang.
Menantang prinsip yuridis "forum publik"
Ia pun menyadari bahwa dirinya terisolasi dalam dunia online yang hanya menampilkan konten seturut dengan minat-minat utama penggunanya sendiri. Penyempitan pandangan yang lebih mengkhawatirkan adalah bahwa para pengguna internet semakin banyak menggunakan jejaring sosial dan mengandalkannya untuk mengakses banyak informasi, baik budaya maupun politik.
Sebuah studi dari Universitas Oxford Inggris, yang dilakukan pada bulan Juni 2016 di 26 negara terhadap 50.000 responden, menegaskan hal tersebut: 51% dari pengguna internet mengatakan bahwa mereka mengakses dan menerima informasi melalui jejaring sosial, yang merupakan sumber utama informasi bagi 12% responden - dan 28% bagi responden berusia 18-24 tahun. Dengan menyampaikan semakin banyak informasi pada "teman-teman", kita mengedarkan posting-an, video dan hashtags - bahkan juga kabar burung dan teori konspirasi - tanpa mendiskusikannya ataupun mempertanyakan kebenarannya. Dengan demikian, kata Pariser, kita pun hidup di penjara mental berhiaskan emas di mana tidak ada lagi yang akan mengganggu kita.
Dalam Republic.com, Cass R. Sunstein menjelaskan bahwa efek gelembung tersebut menentang prinsip yuridis "forum publik" yang sangat diperlukan dalam masyarakat demokratis. Hal ini berlaku dalam kehidupan masyarakat perkotaan: jalan, taman, kios, toko buku, semua terbuka pada keberagaman; orang-orang dengan pandangannya masing-masing mendapatkan tempat untuk mengekspresikan diri, menyampaikannya pada khalayak umum lewat loudspeaker, membagikan brosur - sehingga penduduk kota secara teratur dihadapkan dengan "berbagai pengalaman umum" yang saling bertentangan yang akan memperkaya debat publik dan membuat pihak-pihak yang saling bertentangan saling berjumpa dan akhirnya saling mentolerir.
Prinsip yuridis "forum publik" ini secara formal mau dipertahankan di Internet, di mana semua pandangan bisa hidup berdampingan. Namun pada kenyataannya, keberadaan prinsip ditantang oleh efek filter dan seleksi yang dibuat oleh algoritma.
Penyaringan yang tidak bisa diabaikan
Pada bulan Mei 2015, manajemen Facebook menanggapi para pencetus teori gelembung filter dengan sebuah penelitian yang dilakukan oleh tiga staf penelitinya dan hasilnya diterbitkan dalam jurnal 'Science'. Penelitian tersebut menyasar 10,1 juta pengguna Facebook di AS yang telah menyatakan orientasi politik mereka (konservatif atau progresif) dan memiliki ketertarikan pada hardnews (berita terkini, politik, ekonomi).
Para peneliti ini menemukan bahwa konten yang terkait dengan hardnews mencakup 7% dari postingan para pengguna yang mempunyai minat politik ini, dan bahwa mereka ini mengedarkan 23% dari posting-an lawan politik mereka. Oleh karena itu, demikian kata para peneliti ini, kita bisa merelativisir pentingnya teori gelembung.
Dengan meneliti peran selektif algoritma, para peneliti itu mengamati bahwa algoritma hanya mengurangi 5% - 8% kehadiran teks dari lawan politik. Bahkan, simpul mereka, para pengguna internetlah yang menyaring diri mereka sendiri, terutama dari komentar yang berbeda: "Pilihan setiap individu-lah yang membuat mereka tidak terpapar oleh konten yang berlawanan."
Eli Pariser menanggapinya di situs Backchannel. Ia mencatat bahwa Facebook mengakui adanya penyaringan oleh algoritma, dan bahwa hal itu tidak bisa diabaikan: hingga 8% dari laman politik. Dia mencatat bahwa dengan menggandakan pilihan para pengguna, hal itu tidaklah akan mendorong mereka untuk keluar dari gelembung: 23% posting-an dari lawan politik, itu sangatlah sedikit. Dia mempertanyakan fakta bahwa penelitian ini hanya menyasar 9% dari pengguna Facebook yang punya minat politik : bagaimana dengan 91% lainnya. Apa yang terjadi dengan pandangan politik di rumah mereka sendiri? Dan ia pun prihatin dengan 7% hardnews yang dipakai untuk penelitian: jumlah tersebut sangatlah sedikit. Baginya, informasi tentang hal ini adalah bagian yang paling penting dalam penelitian. Sebab jejaring sosial, katanya, jika mereka memainkan peran mereka sepenuhnya, juga harus membantu untuk mendiskusikan dan mengkomunikasikan "isu-isu sosial yang penting".
Peneliti di Laboratorium penggunaan Orange, Dominique Cardon, penulis A quoi rêvent les algorithmes? (Seuil, 2015), mengatakan bahwa efek gelembung dari algoritma semakin meningkat sejak datangnya era Big Data dan pengukuran secara terus menerus, semakin lebih terperinci, perilaku online setiap individu.
"Setiap hari, ia mengingatkan, 3,3 miliar pencarian dilakukan atas 30 trilyun halaman yang sudah diindeks oleh Google; lebih dari 350 juta foto dan 4,5 miliar "Like" beredar di Facebook," itu semua menghasilkan database yang sangat besar atas semua kegiatan digital para pengguna internet.
"Masyarakat perilaku"
Sekarang ini, setiap gerakan secara online (membeli, mengunjungi, klik, memilih) dicatat, diklasifikasikan, dianalisis dan dibuat menjadi keuntungan finansial. Menurut Dominique Cardon, penghitungan besar-besaran minat yang bekerja berdasarkan "logika komputasi" ini diklaim oleh para pemimpin perusahaan di Silicon Valley sebagai sitem yang netral, ilmiah dan berbasis layanan; namun semua itu membawa kita pada apa yang ia sebut sebagai "masyarakat perilaku" yang melakukan pembaharuan metodis perilaku yang sudah ada. Dengan mengklaim bertujuan memberikan pada setiap individu "sarana untuk memerintah diri mereka sendiri," demikian simpûlnya, efek cermin yang dibuat oleh algoritma mengurung pengguna internet ke dalam "konformisme" atas perilaku mereka sendiri, "membuat mereka mereproduksi secara otomatis masyarakat dan diri mereka sendiri." "Behaviorisme radikal" ini mencegah para pengguna internet untuk mengembangkan diri, menjadi pribadi yang berbeda, terbuka pada cara pandang lain, dan menghadapi pendapat umum atau yang bertentangan.
Dominique Cardon menganggap bahwa kita sekarang harus mendorong "penyebaran budaya statistik dalam masyarakat" dan membantu mereka untuk membuat suatu "kritik radiografis dari algoritma." "Tidak ada alasan untuk berpikir bahwa pengguna tidak dapat mengembangkan sistem penghitungan yang mendukung kemampuan bersosialisasi" dan "mendomestikannya". "Persetujuan kolektif dari warga telah berkembang untuk mendesak audit algoritma," katanya. Inilah waktunya untuk membuka "kotak hitam" dan menyudahi "bimbingan otomatis."
Di Amerika Serikat, Cass R. Sunstein mengingatkan bahwa dalam masyarakat demokratis, setiap operator teknologi informasi-komunikasi harus mengaplikasi aturan "must carry" - suatu kewajiban untuk memuat program lokal dan konten yang beragam. Baik frekuensi Radio maupun televisi dipaksa untuk membuka program pendidikan. Bahkan media-media mainstream pun tak terlepas dari aturan untuk memberikat waktu yang berimbang bagi pembicaraan politik.
Ia pun menegaskan bahwa korporasi-korporasi besar di dunia internet harus mengatur kembaki, memprogram ulang algoritma mereka dan membuka "trotoar elektronik umum" sehingga melestarikan keragaman informasi dan dialog antar warga.
Diterjemahkan dari tulisan Frédéric Joignot
Comments
Post a Comment