Pencemaran Nama Baik Karena Algoritma? Jurnalisme Otomatis dan Ancaman Tanggung Jawab Hukum
![]() |
Ilustrasi Mark Allen Miller |
Oleh: Seth C. Lewis, Amy Kristin Sanders, dan Casey Carmody
Abstraksi
Munculnya jurnalisme otomatis—konversi data terstruktur menjadi berita yang didorong oleh algoritma—menghadirkan berbagai potensi dan kendala bagi perusahaan media. Salah satu potensi bahaya hukum yang paling besar adalah satu isu yang belum dieksplorasi dalam studi jurnalisme: kemungkinan bahwa algoritma dapat menghasilkan konten berita yang memfitnah.
Meskipun skenario ini tampaknya tidak masuk akal, tinjauan terhadap kasus-kasus hukum yang melibatkan algoritme dan pencemaran nama baik menunjukkan bahwa perusahaan media harus secara serius mempertimbangkan tanggung jawab hukum saat mereka mengembangkan dan menerapkan bot penulisan berita.
Berdasarkan kerangka hukum pencemaran nama baik di Amerika, kami menguraikan dua isu utama yang perlu dipertimbangkan: (a) rumitnya penentuan kesalahan dalam kasus pencemaran nama baik berbasis algoritma, dan (b) ketidakmampuan perusahaan media untuk menerapkan pembelaan serupa dengan yang digunakan oleh Google dan penyedia konten algoritmik lainnya. Kekhawatiran ini dibahas mengingat tren otomasi dan kecerdasan buatan yang lebih luas di lingkungan media dan informasi.
Pengantar
Pada bulan Agustus 2016, Facebook memecat tim yang telah mengatur bagian “Topik Trending” dan menggantinya dengan algoritma yang secara otomatis mengenali dan mempromosikan topik populer. Langkah ini dilakukan setelah berbulan-bulan kontroversi mengenai cara Facebook menangani Trending Topics, termasuk tuduhan bias politik di pihak editor yang mengelola fitur tersebut. Namun, sekitar 2 hari kemudian, “Penerjunan Facebook ke dalam berita otomatis berubah dari berantakan menjadi bencana” (Oremus, 2016).
Setidaknya selama 8 jam pada tanggal 28 Agustus, Trending Topics menyoroti artikel populer—tetapi keliru—yang mengklaim bahwa pembawa acara Fox News saat itu, Megyn Kelly, telah dipecat dari jaringan TV kabel karena dia mendukung Hillary Clinton sebagai presiden AS.
Meskipun Facebook masih mempekerjakan beberapa editor manusia yang seharusnya mengawasi hoaks dan berita palsu yang muncul secara algoritmik, mereka gagal menyadari bahwa sumber artikel khusus ini (situs web endingthefed.com) bukanlah outlet arus utama yang memiliki reputasi baik atau situs konservatif yang populer. . Sebaliknya, “tim peninjau Trending menerimanya dengan berpikir bahwa ini adalah topik dunia nyata” (Gunaratna, 2016).
Setelah kejadian tersebut, muncul pertanyaan tentang tanggung jawab: “Bahkan jika algoritmalah yang menjalankan tugasnya, apakah Facebook secara hukum bertanggung jawab atas apa yang terjadi? . . ?” (R.Meyer, 2016). Dengan kata lain, apakah algoritme Trending Topics Facebook telah mencemarkan nama baik Megyn Kelly? Atau, secara lebih umum, bisakah bot melakukan pencemaran nama baik?
Pertanyaan-pertanyaan seperti ini mencerminkan serangkaian kekhawatiran yang lebih luas mengenai “kekuatan sosial dari algoritma” (Beer, 2017), atau peran proses algoritmik yang semakin meningkat dan rumit dalam menyusun dunia sosial kita, sehubungan dengan data besar, otomatisasi, dan keseluruhan sistem. kuantifikasi kehidupan sehari-hari (Carr, 2015; Crawford, Miltner, & Gray, 2014; Howard, 2015; O'Neil, 2016; Ziewitz, 2016).
Jika dilihat secara lebih sempit dalam konteks big data untuk pekerjaan media dan jurnalisme (Lewis & Westlund, 2015b), pertanyaan tentang pencemaran nama baik algoritmik, seperti yang kami tunjukkan dalam artikel ini, adalah salah satu pertanyaan yang harus dipertimbangkan oleh perusahaan media seiring dengan semakin berkembangnya bentuk berita yang terotomatisasi. produksi—yaitu, mode pembuatan dan publikasi berita yang digerakkan oleh mesin berdasarkan prosedur algoritmik. Hal ini terutama berlaku ketika perusahaan berita menerapkan algoritme yang mengubah data terstruktur (misalnya, laporan pendapatan keuangan) menjadi teks berita naratif, dengan sedikit atau tanpa campur tangan manusia (untuk gambaran umum, lihat Graefe, 2016).
Meskipun semakin banyak penelitian yang mulai mengkaji jurnalisme otomatis (misalnya, Carlson, 2015; Clerwall, 2014; Haim & Graefe, 2017; Jung, Song, Kim, Im, & Oh, 2017; Linden, 2017; Thurman, Dörr, & Kunert, 2017) dan hal-hal terkait interaksi manusia-mesin dalam jurnalisme (misalnya, Bucher, 2017; Lewis & Westlund, 2015a; Lokot & Diakopoulos, 2015), pertanyaan tentang tanggung jawab hukum hampir seluruhnya belum teruji.
Kemungkinan bahwa teks yang “ditulis dengan robot” dapat mencemarkan nama baik individu atau institusi—betapapun futuristik dan tidak masuk akalnya skenario tersebut— perlu dipelajari secara ilmiah. Perspektif seperti ini dapat memperkuat keilmuan hukum media dengan mensintesis kasus-kasus mengenai isu-isu akuntabilitas yang berorientasi algoritma (Diakopoulos, 2015), sekaligus memberikan pemahaman yang lebih baik kepada para sarjana dan praktisi jurnalisme tentang potensi jebakan berita otomatis (Kirley, 2016; Ombelet, Kuczerawy, & Valcke, 2016; Minggu, 2014).
Studi ini membahas hal-hal tersebut terutama dalam konteks undang-undang Amandemen Pertama, sebagian karena Konstitusi AS memberikan perlindungan yang kuat bagi terdakwa yang dituduh melakukan pencemaran nama baik. Akibatnya, jika pengadilan Amerika meminta pertanggungjawaban perusahaan media atas konten pencemaran nama baik yang dihasilkan oleh algoritma berita, maka pewrusahaan ini akan menghadapi tanggung jawab yang lebih besar di negara-negara lain yang perlindungan kebebasan berekspresinya lebih lemah.
Artikel ini dilanjutkan dengan menguraikan algoritma dan jurnalisme otomatis, penerapan prinsip-prinsip Amandemen Pertama terhadap perubahan teknologi (dengan fokus khusus pada algoritma), temuan signifikan dari tinjauan kami terhadap kasus-kasus hukum, dan, akhirnya, agenda untuk penelitian di masa depan.
Algoritma dan Jurnalisme Otomatis
Algoritma sering disalahpahami: bagi pengembang perangkat lunak, algoritma hanyalah serangkaian operasi sederhana, aturan program yang harus diikuti oleh komputer; namun bagi pengguna perangkat lunak, hal tersebut mungkin mewakili proses yang tidak dapat dipahami, kotak hitam yang tidak dapat dipahami (Gillespie, 2016).
Di tengah perkembangan teknologi media digital dan sistem pengambilan keputusan otomatis, algoritme semakin memengaruhi apa yang kita lihat, dengar, dan alami melalui Google, Amazon, dan Netflix (Gillespie, 2014; Hallinan & Striphas, 2016; Van Dijck, 2013 ); bagaimana kita memandang wacana publik (Braun & Gillespie, 2011) dan terlibat dalam hal-hal yang berkaitan dengan kepentingan publik (Napoli, 2015); dan bagaimana beberapa keputusan dibuat mengenai lamaran pekerjaan, pinjaman mobil, dan hukuman pembebasan bersyarat (O’Neil, 2016).
Seperti yang dikatakan Pasquale (2015), kita hidup dalam “masyarakat kotak hitam” yang dipengaruhi oleh “teknologi yang penuh teka-teki”—yang justru membingungkan karena keputusan yang mendasari sistem tersebut dipandu oleh rangkaian nilai dan hak prerogatif yang seringkali tidak jelas (hal. 1).
Di tengah upaya untuk mencari “solusi big data” di banyak sektor masyarakat, terdapat banyak kekhawatiran mengenai implikasi big data terhadap privasi, pengawasan, etika, bias, manipulasi, dan ketidakseimbangan kekuasaan di dunia yang didominasi oleh algoritma. dan otomatisasi (Boyd & Crawford, 2012; Carter & Lee, 2016; Crawford et al., 2014; Stewart & Littau, 2016; Stoycheff, 2016). Oleh karena itu, data besar, algoritme, dan fenomena terkait sangat penting bagi sifat dasar informasi digital: bagaimana informasi tersebut ditangkap, dikonfigurasi, dan pada akhirnya ditampilkan di masyarakat.
Aspek kunci dalam proses ini adalah munculnya bentuk-bentuk jurnalisme otomatis, seperti cerita yang dihasilkan bukan oleh manusia melainkan ditulis oleh mesin. Dalam jurnalisme saat ini, algoritme bertanggung jawab menghasilkan puluhan ribu berita yang memenuhi situs berita online, bahkan dari perusahaan media terkemuka seperti Associated Press (Dörr, 2016; LeCompte, 2015). Saat ini, artikel berita tersebut sebagian besar dibatasi pada topik yang memiliki kumpulan data terstruktur dengan baik, seperti hasil olahraga dan laporan pendapatan keuangan triwulanan—data yang dapat dimasukkan ke dalam algoritme dan diubah menjadi narasi (Graefe, 2016; Marconi, Siegman, & Jurnalis Mesin, 2017).
Jurnalisme otomatis seperti ini didefinisikan sebagai “proses algoritmik yang mengubah data menjadi teks berita naratif tanpa intervensi manusia di luar program awal” (Carlson, 2015, hal. 416). Apa yang dimulai beberapa tahun yang lalu sebagai eksperimen skala kecil pada berita yang ditulis dengan mesin, di tengah perkembangan data besar secara luas, telah menjadi fenomena global, dengan penyedia teknologi mulai dari Amerika Serikat, Jerman, hingga Tiongkok mengembangkan algoritme untuk menyampaikan berita otomatis dalam berbagai format. bahasa (Dörr, 2016).
Selain itu, selain hanya memproduksi berita olahraga rutin, otomatisasi juga digunakan oleh The New York Times, Forbes, dan perusahaan berita lainnya untuk melengkapi pemberitaan manusia—misalnya, dengan menyarankan ide berita berdasarkan tren data, atau dengan menawarkan bentuk berita baru yang dipersonalisasi. berita yang sesuai dengan khalayak yang berbeda. Seperti yang diringkas oleh salah satu laporan pers perdagangan, “Otomasi mulai berkembang, sebagian besar karena meningkatnya volume data yang tersedia bagi redaksi, termasuk data tentang wilayah yang mereka liput dan audiens yang mereka layani” (LeCompte, 2015, hal. 3).
Penerapan proses otomatis di perusahaan media tertentu juga telah meningkatkan keluaran konten berita secara signifikan. Misalnya, Associated Press (AP) melaporkan bahwa kolaborasinya dengan Automated Insights, yang menciptakan algoritma penulisan otomatis, dan perusahaan data keuangan Zack Investment Research telah memungkinkan AP beralih dari memproduksi 300 laporan pendapatan keuangan per kuartal keuangan menjadi lebih dari 3.000 cerita per kuartal (Madigan White, 2015). Sejak saat itu, AP telah memperluas jurnalisme otomatisnya dengan mencakup liputan bisbol liga kecil, dan bertujuan untuk menggunakan pembelajaran mesin untuk secara otomatis menerjemahkan berita cetak menjadi berita yang disiarkan (Lichterman, 2016).
Peningkatan yang mengesankan ini hanya akan mendorong perusahaan media lain untuk beralih ke algoritme dalam produksi konten, di tengah semakin luasnya upaya untuk mengeksplorasi arti kecerdasan buatan dalam mengembangkan “augmented journalism” pada dekade berikutnya (Marconi & Siegman, 2017; Marconi dkk., 2017). Oleh karena itu, tim hukum harus mempertimbangkan bagaimana undang-undang yang mengatur pers harus menangani teknologi baru ini, terutama ketika jurnalisme otomatis semakin diadopsi secara luas, baik sebagai proses tambahan terhadap pemberitaan manusia atau sebagai izin bagi algoritma untuk memproduksi konten secara independen.
Algoritma dan Perlindungan Amandemen Pertama
Secara umum, perkembangan teknologi menimbulkan tantangan terhadap pemahaman tradisional tentang hukum media dan interpretasi Mahkamah Agung AS terhadap Amandemen Pertama (Anderson, 2002). Ketika teknologi media semakin maju dan diadopsi secara luas, Mahkamah Agung AS dihadapkan pada pertanyaan tentang cakupan perlindungan Amandemen Pertama yang harus diterapkan pada teknologi baru (Wu, 2013). Mahkamah Agung secara umum telah memperluas perlindungan Amandemen Pertama terhadap konten yang diproduksi menggunakan teknologi baru, termasuk film (Joseph Burstyn, Inc. v. Wilson, 1952), siaran radio (Red Lion Broadcasting Co. v. FCC, 1969), situs Internet (Reno v. ACLU, 1997), dan video game (Brown v. Entertainment Merchants Association, 2011), namun hal ini biasanya baru terjadi setelah teknologi baru tersebut diadopsi secara luas dalam masyarakat Amerika.
Para ahli mulai bergulat dengan pertanyaan tentang apakah algoritma dan konten yang mereka hasilkan harus memenuhi syarat untuk perlindungan Amandemen Pertama. Bracha dan Pasquale (2008) menyarankan bahwa algoritma itu sendiri tidak boleh menerima perlindungan Amandemen Pertama yang luas. Daripada menghasilkan ucapan, algoritme hanya dirancang untuk memfasilitasi ucapan yang dilindungi orang lain. Akibatnya, mereka berargumentasi bahwa algoritma yang menghasilkan konten lebih mirip dengan media umum, seperti kabel telepon yang membawa panggilan telepon, dengan output yang dapat diatur dibandingkan melihatnya sebagai media tradisional, seperti surat kabar.
Oleh karena itu, Amandemen Pertama tidak akan melarang peraturan pemerintah mengenai keluaran algoritma kecuali peraturan tersebut akan membatasi pembicaraan yang dibantu oleh algoritma untuk difasilitasi.
Wu (2013) mengambil pendekatan serupa dalam pandangannya tentang bagaimana Amandemen Pertama harus diterapkan pada konten yang dihasilkan oleh algoritme, dengan mencatat bahwa, seiring berjalannya waktu, pengadilan telah mengadopsi “doktrin fungsionalitas de facto” yang dapat diterapkan pada konten yang dihasilkan algoritme.
Berdasarkan doktrin tersebut, Amandemen Pertama tidak akan memberikan perlindungan terhadap “alat komunikasi,” seperti beberapa jenis algoritma, yang “terutama memfasilitasi komunikasi orang lain, atau melakukan beberapa tugas untuk pengguna” (hal. 1498). Alternatifnya, ia berpendapat bahwa “produk pidato,” yaitu teknologi yang menggunakan keluaran algoritma, seperti “postingan blog, tweet, video game, surat kabar, dan sebagainya,” yang “dipandang sebagai wadah untuk ide-ide pembicara, atau yang konten telah dikurasi secara sadar” (hal. 1498), harus memenuhi syarat untuk perlindungan Amandemen Pertama.
Bambauer (2014) menyatakan bahwa keputusan Mahkamah Agung dalam berbagai kasus Amandemen Pertama mengenai privasi, ucapan komersial, dan hak cipta yang melibatkan penyebaran data menunjukkan bahwa perlindungan Amandemen Pertama mencakup pengetahuan dan informasi yang berguna. Oleh karena itu, dia berpendapat bahwa sebagian besar konten yang dihasilkan algoritma kemungkinan besar akan dilindungi berdasarkan “Amandemen Pertama yang berpusat pada pemikir” yang mengasumsikan hak untuk mempelajari hal-hal baru (hal. 77).
Benjamin (2013) secara substansial setuju, dan mencatat bahwa yurisprudensi Mahkamah Agung yang telah menciptakan interpretasi yang lebih luas terhadap perlindungan Amandemen Pertama kemungkinan akan menganggap konten yang dihasilkan algoritma sebagai pidato yang layak untuk dilindungi.
Dalam pandangan yang paling luas, Volokh dan Falk (2012) berargumen bahwa hasil pencarian—output algoritmik mesin pencari seperti Google dan penyedia pencarian online serupa—jelas layak mendapatkan perlindungan Amandemen Pertama. Para peneliti menyamakan konten yang dihasilkan algoritma perusahaan pencarian Internet dengan konten yang diproduksi editorial dari organisasi media yang lebih tradisional, seperti surat kabar, karena aktor manusia membuat keputusan spesifik tentang cara menulis suatu algoritma sehingga dapat menerbitkan beberapa jenis konten sambil mengecualikan tipe yang lain. Menurut Volokh dan Falk (2012),
"[Perusahaan mesin pencari] melakukan penilaian editorial tentang apa yang merupakan informasi berguna dan menyampaikan informasi tersebut—artinya, mereka berbicara kepada penggunanya. Dalam hal ini, mereka serupa dengan surat kabar dan penerbit buku yang menyampaikan berbagai informasi mulai dari berita dan kolom pilihan oleh kontributor luar hingga daftar saham, daftar film, daftar buku terlaris, dan panduan restoran. (hal.899)'
Akibatnya, para pakar menyarankan Amandemen Pertama melarang pemerintah mendikte atau mengatur jenis konten yang dihasilkan algoritma mesin pencari.
Secara keseluruhan, argumen-argumen ini menunjukkan bahwa belum ada konsensus yang jelas mengenai apakah konten yang dihasilkan algoritme layak mendapatkan perlindungan Amandemen Pertama. Namun, seperti yang dicatat oleh Blackman (2014), “dalam kasus tertentu akan menjadi lebih sulit untuk memisahkan hak bicara teknologi dari hak kita sendiri” (hal. 36) karena konten yang dihasilkan algoritma menjadi lebih lazim dalam kehidupan sehari-hari.
Jurnalisme otomatis jelas mempersulit evaluasi perlindungan Amandemen Pertama untuk konten yang dihasilkan algoritma. Untuk membantu mengungkap tantangan-tantangan ini, kami mengkaji berbagai masalah konstitusional yang mungkin muncul dalam satu konteks hukum tertentu: ketika jurnalisme otomatis menghasilkan publikasi konten yang memfitnah.
Robots Off the Rails: Jurnalisme Otomatis dan Pencemaran Nama Baik
Penggunaan jurnalisme otomatis oleh perusahaan media menimbulkan masalah hukum baik bagi perusahaan media maupun pengadilan Amerika terkait pencemaran nama baik. Publikasi pernyataan fakta yang salah tentang seseorang yang merusak reputasinya di mata masyarakat atau menghalangi orang lain untuk bergaul dengannya merupakan pencemaran nama baik (Restatement [Second] of Torts, 1977, §559, §568).
Meskipun Amandemen Pertama tidak melindungi pernyataan-pernyataan yang bersifat memfitnah dalam beberapa kasus, organisasi-perusahaan media Amerika telah memperoleh manfaat dari peningkatan perlindungan terhadap penilaian pencemaran nama baik selama 50 tahun terakhir. Pertama, meskipun pencemaran nama baik terutama diatur oleh undang-undang negara bagian hingga tahun 1964, Mahkamah Agung AS memutuskan di New York Times v. Sullivan (1964) bahwa Amandemen Pertama memberikan beberapa batasan pada tindakan pencemaran nama baik. Menulis untuk mayoritas di Sullivan, Hakim Brennan mencatat, “pernyataan yang salah tidak dapat dihindari dalam debat bebas, dan pernyataan tersebut harus dilindungi jika kebebasan berekspresi ingin mendapatkan ruang bernapas yang mereka perlukan . . . untuk bertahan hidup” (hlm. 271-272).
Pada akhirnya, keputusan Mahkamah Agung untuk mengkonstitusionalisasi undang-undang pencemaran nama baik menciptakan gabungan hukum umum negara bagian, undang-undang negara bagian, dan undang-undang konstitusional federal yang rumit untuk mengatur ucapan palsu yang merugikan reputasi individu.
Meskipun demikian, undang-undang Amerika memberikan perlindungan yang luar biasa terhadap ujaran yang mencemarkan nama baik, menjadikan Amerika Serikat sebagai salah satu negara yang paling melindungi ucapan di dunia dalam hal pencemaran nama baik.
Di hampir semua kasus, penggugat harus menunjukkan bahwa pernyataan yang mencemarkan nama baik tersebut mengidentifikasi dirinya dan bahwa tergugat menerbitkan pernyataan tersebut dengan tingkat pengetahuan tertentu mengenai kepalsuan pernyataan tersebut. Kedua, yang mengakibatkan buruknya reputasi penggugat. Tiga, Hanya sedikit preseden yang jelas yang menunjukkan betapa konstitusionalnya perlindungan akan berlaku bagi tergugat yang menggunakan jurnalisme otomatis jika penggugat mengajukan klaim pencemaran nama baik berdasarkan kata-kata yang dihasilkan oleh algoritme, bukan oleh jurnalis manusia.
Dua permasalahan utama yang muncul sehubungan dengan jurnalisme otomatis dan undang-undang pencemaran nama baik: (a) persyaratan konstitusional yang mengharuskan penggugat membuktikan bahwa tergugat media bersalah atas pernyataan pencemaran nama baik, dan (b) ketidakmampuan perusahaan media untuk menggunakan pembelaan terhadap tuntutan pencemaran nama baik yang organisasi lain yang menerbitkan konten yang dihasilkan algoritme, seperti Google, telah dapat menggunakannya.
Menentukan Kesalahan Algoritma
Salah satu dari lima elemen yang harus dibuktikan oleh penggugat untuk memenangkan gugatan pencemaran nama baik di Amerika Serikat adalah bahwa tergugat bersalah—dengan kata lain, bahwa tergugat bertanggung jawab atas kerugian reputasi penggugat. Tingkat kesalahan yang harus dibuktikan oleh penggugat bergantung pada bagaimana pengadilan mengkategorikan penggugat.
Mahkamah Agung AS memutuskan di Sullivan bahwa pejabat publik tidak dapat memperoleh ganti rugi atas pernyataan palsu tentang perilaku resmi mereka kecuali mereka terlebih dahulu membuktikan bahwa terdakwa telah bertindak dengan “kebencian yang sebenarnya,” yang berarti bahwa terdakwa mengetahui kepalsuan pernyataan tersebut atau bertindak dengan mengabaikan kebenaran secara sembrono (New York Times v. Sullivan, 1964, hal. 280).
Dalam Curtis Publishing Co. v. Butts (1967), Mahkamah Agung A.S. memperluas standar “kebencian yang sebenarnya” pada pernyataan tentang penggugat yang dianggap sebagai tokoh masyarakat. Tingkat perlindungan tambahan diberikan untuk pernyataan mengenai penggugat publik; penggugat harus membuktikan “kebencian yang sebenarnya” dengan “kejelasan yang meyakinkan” (New York Times v. Sullivan, 1964, hlm. 285-286). Hal ini merupakan beban pembuktian yang lebih tinggi dibandingkan dengan standar “lebih banyak bukti” yang digunakan dalam kasus perdata, dan sulitnya memenuhi beban ini semakin mengisolasi terdakwa yang membicarakan pejabat publik dan tokoh masyarakat.
Selama enam dekade terakhir, Mahkamah Agung AS terus menyempurnakan makna kejahatan yang sebenarnya. Saat ini, kebencian yang sebenarnya menghadirkan rintangan besar yang harus diatasi oleh pejabat publik dan tokoh masyarakat agar dapat memenangkan tuntutan pencemaran nama baik.
Keputusan-keputusan selanjutnya mencakup artikulasi yang jelas bahwa Sullivan berlaku sama terhadap tindakan pencemaran nama baik pidana dan perdata. Dalam Garrison v. Louisiana (1964), Pengadilan mencatat bahwa “hanya pernyataan palsu yang dibuat dengan tingkat kesadaran tinggi akan kemungkinan kesalahan yang diminta oleh New York Times yang dapat dikenakan sanksi perdata atau pidana” (hal. 74).
Bagi banyak penggugat, bukti kesadaran tergugat akan kepalsuan pernyataan seringkali mustahil dilakukan. Bahkan mempertahankan teori bahwa terdakwa menunjukkan sikap acuh tak acuh terhadap kebenaran bisa jadi sulit dilakukan. Misalnya, Mahkamah Agung AS menyatakan dalam St. Amant v. Thompson (1968) bahwa hanya mengulangi pernyataan palsu tanpa benar-benar memverifikasi apakah pernyataan tersebut salah atau gagal memeriksa kredibilitas sumbernya tidaklah cukup untuk dianggap sebagai “pengabaian yang sembrono terhadap kebenaran” dari pihak terdakwa.
Selanjutnya, dalam Pape v. Illinois (1971), Pengadilan memutuskan bahwa penghilangan kata “diduga” dari laporan majalah Time mengenai penyelidikan lembaga pemerintah terhadap kebrutalan polisi tidak berarti kebencian yang sebenarnya terhadap seorang detektif polisi Chicago, yang mengklaim artikel itu mencemarkan nama baiknya.
"Dengan menerapkan standar ini pada penafsiran Time terhadap Laporan Komisi, hampir tidak dapat dikatakan bahwa Time bertindak gegabah dan mengabaikan kebenaran. Mengingat ambiguitas Laporan Komisi secara keseluruhan, dan kesaksian penulis dan peneliti Time, tindakan Time mencerminkan kesalahan penilaian. (Pape v. Illinois, 1971, hal. 292)"
Meskipun pendapat Pengadilan menyatakan bahwa keputusan tersebut sangat bergantung pada fakta-fakta dalam kasus tersebut, fakta-fakta tersebut serupa dengan fakta-fakta yang mungkin muncul dalam kasus jurnalisme otomatis. Di Pape, reporter dan peneliti majalah tersebut mengandalkan satu volume (“Keadilan”) dari laporan Komisi Hak Sipil AS pada tahun 1961 dalam sebuah artikel yang membahas kebrutalan polisi.
“Artikel Time kemudian mengutip secara panjang lebar ringkasan pengaduan Monroe, tanpa menunjukkan dengan cara apa pun bahwa tuduhan tersebut dibuat oleh Monroe dan bukan temuan independen Komisi.” Pengadilan selanjutnya menggambarkan laporan tersebut dan isinya sebagai “sesuatu yang tidak berterus terang” dan “sangat ambigu” (hlm. 286-287). Dalam putusan bahwa tindakan para wartawan tersebut tidak sampai pada tingkat kejahatan yang sebenarnya, Pengadilan berargumentasi bahwa
Penghilangan kata “dugaan” oleh Time berarti diadopsinya salah satu dari sejumlah kemungkinan penafsiran rasional terhadap sebuah dokumen yang penuh dengan ambiguitas. Pilihan penafsiran seperti itu yang disengaja, meskipun bisa dibilang mencerminkan kesalahpahaman, tidak cukup untuk menimbulkan isu “kebencian” di bawah juri New York Times. Membiarkan isu kebencian dibawa ke pengadilan oleh juri karena tidak adanya kata seperti “diduga”, terlepas dari konteks kata tersebut dalam Laporan Komisi dan bukti eksternal dari keseluruhan makna Laporan, berarti menerapkan standar yang jauh lebih ketat. tanggung jawab atas kesalahan penafsiran atau penilaian dibandingkan kesalahan fakta sejarah. (Pape v. Illinois, 1971, hal. 290)
Demikian pula, kejadian yang melibatkan penafsiran oleh algoritma mungkin akan menghasilkan hasil serupa ketika kumpulan data dan informasi lain yang tersedia untuk umum kurang jelas.
Baru-baru ini, Pengadilan menyatakan dalam Masson v. New Yorker Magazine, Inc. (1991) bahwa “perubahan yang disengaja atas kata-kata yang diucapkan oleh penggugat tidak sama dengan pengetahuan tentang kepalsuan untuk tujuan [Sullivan dan Gertz] kecuali jika perubahan tersebut mengakibatkan dalam perubahan material dalam makna yang disampaikan oleh pernyataan tersebut” (hal. 517). Di sana, seorang psikoanalis menuduh reporter lepas The New Yorker telah mencemarkan nama baik dia dengan secara salah mengaitkan kutipan langsung kepadanya. Artikel majalah tersebut, dan publikasi ulang berikutnya sebagai buku, berisi enam bagian yang dia yakini menggambarkan dirinya secara negatif dan merusak reputasinya. Meskipun merekam lebih dari 40 jam wawancara dengan
Mr. Masson, penulis menyatakan bahwa bagian-bagian tersebut berasal dari wawancara tambahan yang tidak direkam karena situasi atau karena peralatan penulis tidak dapat dioperasikan.5 Di antara kutipan yang diperdebatkan adalah pernyataan bahwa dia rekan kerja memandangnya sebagai “gigolo intelektual” sedangkan rekamannya berisi kata-kata “terlalu junior dalam hierarki analisis untuk hal-hal penting ini. . . analis akan tertangkap mati bersama [dia].”
Masson menyajikan pola fakta yang cukup mengerikan dalam kasus pencemaran nama baik di Mahkamah Agung AS. Ketika anggota staf The New Yorker terlibat dalam pengecekan fakta artikel tentang Masson, dia mengklaim bahwa dia memperingatkan mereka akan banyak kesalahan dan meminta untuk meninjau bagian artikel yang mengutipnya atau mengaitkan informasi dengannya. Namun, tinjauan seperti itu tidak pernah terjadi. Meskipun Pengadilan membatalkan keputusan Ninth Circuit dan mendukung The New Yorker, pendapat Pengadilan memberikan keleluasaan luas bagi terdakwa media, bahkan dalam kaitannya dengan perubahan kutipan. Pengadilan menyimpulkan bahwa perubahan kutipan yang disengaja—sesuatu yang bertentangan dengan praktik jurnalistik yang lazim—tidak secara otomatis mendukung temuan adanya kebencian yang sebenarnya. Sebaliknya, Pengadilan mencatat,
"Pemalsuan yang disengaja atau sembrono yang mengandung kebencian yang nyata akan mengubah kata-kata dan tanda baca hanya karena kata-kata dan tanda baca mengungkapkan makna. Makna adalah kehidupan bahasa. Dan, berdasarkan alasan yang telah kami berikan, kutipan mungkin merupakan instrumen yang menghancurkan untuk menyampaikan makna yang salah. Dalam kasus yang sedang dipertimbangkan, para pembaca In the Freud Archives mungkin menganggap potret Malcolm sebagai pemohon sangat memberatkan karena sebagian besar di antaranya tampak seperti potret diri, yang diceritakan oleh pemohon dengan kata-katanya sendiri. Dan jika perubahan kata-kata pemohon memberikan arti yang berbeda terhadap pernyataan tersebut, karena bersifat mencemarkan nama baik, maka cara mengutip mungkin sangat penting dalam menemukan kata-kata tersebut dapat ditindaklanjuti. (Masson v. New Yorker Magazine, Inc., 1991, hlm. 517-518)"
Dalam kasus lain yang menyelidiki kejahatan yang sebenarnya, keputusan Pengadilan dalam Harte-Hanks Communications, Inc. v. Connaughton (1989) menyarankan bahwa temuan faktual yang signifikan harus dibuat sehubungan dengan tindakan terdakwa. Dalam kasus tersebut, Pengadilan menguatkan keputusan pengadilan yang lebih rendah bahwa sebuah surat kabar telah bertindak dengan “kebencian yang nyata” ketika mengklaim bahwa seorang calon hakim telah menggunakan taktik yang menipu untuk mengkritik lawannya. Kandidat tersebut mampu menunjukkan bahwa surat kabar tersebut telah melakukan beberapa kesalahan langkah yang merupakan “kebencian yang nyata.”
Surat kabar tersebut sangat bergantung pada sumber yang kredibilitasnya dipertanyakan secara serius oleh sumber surat kabar lainnya, surat kabar tersebut menolak untuk mendengarkan rekaman yang disediakan oleh penggugat yang membantah beberapa klaim, surat kabar tersebut menerbitkan editorial yang dengan jelas menunjukkan bahwa mereka akan menerbitkan klaim yang meragukan terhadap kandidat terlepas dari perkembangan yang bertentangan, dan kesaksian saksi menunjukkan bahwa surat kabar tersebut gagal melakukan penyelidikan penuh terhadap klaim sumbernya, yang mengindikasikan bahwa perusahaan media tersebut sengaja menghindari kebenaran (Harte-Hanks Communications, Inc. v. Connaughton, 1989).
Upaya penggugat untuk menunjukkan bahwa surat kabar tersebut bertindak dengan “kebencian yang nyata” di Connaughton bukanlah hal yang mudah dan mengandalkan bukti tidak langsung untuk mendukung temuan fakta pengadilan.
Secara keseluruhan, Sullivan, Butts, Garrison, St. Amant, Pape, Masson, dan Connaughton menunjukkan bahwa pejabat publik dan tokoh masyarakat harus mengatasi rintangan yang signifikan agar dapat memenangkan gugatan pencemaran nama baik. Karena masyarakat sering kali menjadi subjek liputan berita, dan sebagai akibatnya, mereka mempunyai kemungkinan lebih besar untuk menjadi subjek konten yang dibuat oleh algoritme, perlindungan ini mempunyai implikasi penting bagi jurnalisme otomatis.
Sekalipun konten yang dihasilkan algoritme salah, a penggugat tokoh masyarakat kemungkinan besar akan kesulitan membuktikan kejahatan yang sebenarnya berdasarkan standar Pengadilan saat ini karena algoritme, dengan sendirinya, tidak terlibat dalam proses pengambilan keputusan subjektif seperti yang terjadi di St. Amant, Masson, atau Connaughton. Sebaliknya, algoritma hanya menghasilkan konten sebagai hasil dari upaya pemrograman tertentu. Akibatnya, penggugat tokoh masyarakat kemungkinan besar akan kesulitan untuk menunjukkan bahwa suatu algoritma telah bertindak dengan pengetahuan tentang kepalsuan atau pengabaian yang ceroboh terhadap kebenaran (lihat Harte-Hanks Communications, Inc. v. Connaughton, 1989).
Pemrosesan dan distribusi informasi oleh algoritma bahkan tidak mencapai jenis tindakan yang dipertanyakan di St. Amant dan Masson, karena algoritma memiliki sedikit kemampuan untuk memverifikasi pernyataan atau mengubah arti kutipan kecuali diprogram secara khusus untuk melakukannya.
Pemrograman algoritma mempunyai penilaian subyektifnya sendiri (Gillespie, 2014), yang menimbulkan pertanyaan apakah pemrogram dapat dimintai pertanggungjawaban atas pernyataan fitnah yang dihasilkan oleh algoritma mereka.
Masuk akal jika pengadilan mengizinkan penggugat publik untuk membuktikan pengetahuan atau kepalsuan atau pengabaian yang sembrono. Baik dari pihak perusahaan media atau pembuat algoritme. Namun dalam sebagian besar kasus, penggugat kemungkinan besar akan menghadapi rintangan yang sama dengan yang mereka hadapi saat membuktikan bahwa editor atau reporter benar-benar bertindak jahat.
Dalam gugatan seperti itu, penggugat harus membuktikan bahwa pemrogram manusia memiliki “tingkat kesadaran yang tinggi” terhadap pernyataan palsu daripada menginterogasi kesadaran akan suatu algoritma.
Untuk melakukan hal ini, penggugat perlu menunjukkan bahwa pemrogram mengetahui, atau seharusnya mengetahui, bahwa algoritme akan menghasilkan pernyataan palsu yang akan merusak reputasi seseorang. Pertunjukan seperti itu dapat terjadi jika suatu algoritma sengaja diprogram untuk mengembangkan dan menghasilkan konten palsu.
Sebagai alternatif, penggugat mungkin bisa berhasil dalam kasus di mana perusahaan media mengandalkan algoritma untuk menghasilkan konten tanpa pengawasan editorial tambahan sebelum dipublikasikan. Untuk melakukan hal ini, pengacara penggugat dapat memberikan bukti bahwa editor atau penerbit mengetahui, atau seharusnya mengetahui, bahwa algoritme tersebut tidak dapat diandalkan namun menerbitkan konten tanpa tinjauan editorial. Pada kenyataannya, sebagian besar perusahaan media yang kompeten dapat menghindari skenario seperti itu hanya dengan mengikuti norma dan praktik jurnalistik tradisional, yang mencakup tinjauan editorial terhadap konten sebelum dipublikasikan. Namun, bahkan ketika staf editorial sebuah perusahaan media gagal menangkap konten yang memfitnah yang diproduksi melalui jurnalisme otomatis sebelum dipublikasikan, sebagian besar pengadilan akan enggan untuk menemukan niat jahat yang sebenarnya.
Modifikasi singkat atas contoh Megyn Kelly dari pendahuluan menggambarkan bagaimana skenario seperti itu dapat terjadi di pengadilan. Asumsikan bahwa alih-alih Facebook, sebuah algoritme di sebuah perusahaan media besar menemukan kisah pemecatannya, membuat peringatan berita singkat, dan mempublikasikannya ke situs web organisasi tersebut tanpa tinjauan editorial.
Sebagai figur publik, Kelly harus membuktikan kejahatan yang sebenarnya. Dengan asumsi pemrogram algoritme tidak memprogram algoritme tersebut dengan jahat untuk memalsukan konten, Kelly perlu membuktikan adanya kebencian yang sebenarnya dari pihak perusahaan media tersebut. Pengacaranya mungkin melakukan hal ini melalui pemeriksaan terhadap tim editorial, menanyakan apakah mereka mengetahui algoritme tersebut dapat menghasilkan konten palsu dan apakah mereka melakukan pengawasan editorial pada konten otomatis sebelum dipublikasikan.
Jika tidak dapat membuktikan adanya niat jahat dari programmer atau perusahaan media, penggugat publik kemungkinan besar akan kesulitan memulihkan kasus pencemaran nama baik berdasarkan algoritma, kecuali jika pengadilan bersedia menciptakan standar tanggung jawab baru untuk menangani kasus-kasus tersebut.
Mengingat ketaatan pengadilan terhadap standar kejahatan yang sebenarnya selama lebih dari 50 tahun, hal ini tampaknya sangat tidak mungkin terjadi. Misalnya, meskipun Internet telah memungkinkan penyebaran cepat fitnah terhadap para profesional dan penggugat publik lainnya, Mahkamah Agung belum menghentikan ujaran fitnah tersebut. Pengacara media berpengaruh Floyd Abrams memuji Pengadilan Roberts atas keputusannya dalam kasus pidato.
Dalam sebuah wawancara, dia baru-baru ini mencatat, “Secara keseluruhan, keputusan ini telah memberikan keputusan yang melindungi Amandemen Pertama dalam berbagai kasus yang sangat luas, dan hal ini layak mendapat pujian besar atas tindakannya” (Chapman, 2017, paragraf 6).
Dalam kolom yang sama, yang diterbitkan pada bulan Juli 2017 di Chicago Tribune, profesor hukum Geoffrey Stone dikutip mengatakan, “Pengadilan Roberts telah memberikan lebih banyak perlindungan terhadap kebebasan berpendapat di berbagai bidang dibandingkan dengan pendahulunya—walaupun kadang-kadang secara tidak bijaksana ” (Chapman, 2017, paragraf 7). Dengan mengingat hal ini, tampaknya Pengadilan tidak akan mulai mengungkap perlindungan Sullivan berdasarkan penerapan jurnalisme otomatis.
Kelalaian: Tingkat kesalahan kita semua
Seperti yang telah dibahas, standar kebencian yang sebenarnya memberikan perlindungan tingkat tinggi bagi perusahaan media yang terlibat dalam penerbitan konten yang dihasilkan algoritma tentang pejabat publik dan tokoh masyarakat. Yang menjadi perhatian lebih besar bagi perusahaan media adalah tanggung jawab hukum mereka dalam kasus yang diajukan oleh penggugat swasta yang menuduh konten yang diproduksi oleh algoritma telah merusak reputasi mereka.
Dalam Gertz v. Robert Welch, Inc. (1974), Mahkamah Agung A.S membedakan antara pejabat publik/tokoh masyarakat dan penggugat swasta, dengan menyatakan bahwa penggugat swasta tidak perlu membuktikan “kejahatan nyata” untuk mendapatkan ganti rugi. Pengadilan menetapkan bahwa negara tetap mempunyai kemampuan untuk menetapkan tingkat kesalahan yang harus dibuktikan oleh penggugat swasta dalam gugatan pencemaran nama baik, selama negara mengizinkan pemulihan berdasarkan teori “kewajiban tanpa kesalahan” (Gertz v. Robert Welch, Inc., 1974, hal.347).
Dengan kata lain, Pengadilan mengizinkan negara bagian untuk menentukan apakah penggugat swasta dapat membuktikan bahwa tergugat bertindak dengan standar kesalahan yang lebih rendah, seperti kelalaian, untuk mendapatkan ganti rugi berupa uang atas kerugian yang diderita akibat pernyataan faktual yang salah.
Lebih dari 40 yurisdiksi mengizinkan penggugat swasta untuk mendapatkan ganti rugi dalam gugatan pencemaran nama baik dengan membuktikan standar kesalahan yang lebih rendah, seperti kelalaian (misalnya, Jadwin v. Minneapolis Star & Tribune Co., 1985). Namun, Pengadilan Gertz menetapkan satu peringatan, dengan menyatakan bahwa semua penggugat—baik pemerintah maupun swasta—harus membuktikan “kebencian nyata” untuk mendapatkan ganti rugi, yang dimaksudkan untuk menghukum tergugat atas perilaku buruk mereka dan menghalangi orang lain untuk melakukan tindakan serupa (Gertz v .Robert Welch, Inc., 1974, hal.349).
Penggugat dapat membuktikan kelalaiannya dengan menunjukkan bahwa tergugat tidak bertindak hati-hati, sehingga menghasilkan pernyataan yang memfitnah (Diamond, 1996; Sack, 2012, § 6:2.1). Karena kelalaian sering kali dinilai berdasarkan standar profesional, standar kesalahan ini dapat menimbulkan masalah bagi perusahaan media karena tidak memerlukan pemeriksaan subjektif terhadap proses pengambilan keputusan yang dibuat sebelum dipublikasikan. Standar kelalaian memungkinkan juri untuk meminta pertanggungjawaban perusahaan media karena melakukan kesalahan yang berada di luar batas standar profesional yang wajar (Diamond, 1996; Franklin, 1984).
Sekitar 2 tahun setelah Pengadilan memutuskan Gertz, Pengadilan sekali lagi dihadapkan pada kebutuhan untuk mengevaluasi apakah tindakan sebuah organisasi media merupakan kelalaian. Kali ini, tindakan tegas diambil demi melindungi kepentingan penggugat swasta.
Dalam Time, Inc. v. Firestone (1976), Hakim Rehnquist dengan tegas menolak pernyataan majalah Time bahwa suatu organisasi tidak boleh menghadapi tanggung jawab atas kesalahan kelalaian dalam melaporkan isi proses peradilan. “Mengenai laporan fakta yang tidak akurat dan memfitnah, hal-hal yang tidak memerlukan perlindungan Amandemen Pertama, kami pikir Gertz memberikan perlindungan yang memadai untuk kepentingan pers yang dilindungi konstitusi dan memberikan margin kesalahan yang dapat ditoleransi dengan mengharuskan beberapa jenis kesalahan” (Time, Inc.v. Firestone, 1976, hal.457).
Dengan cara yang sama, secara logis Pengadilan juga tidak akan memberikan alasan tanpa syarat kepada perusahaan media untuk melakukan kesalahan dalam konten yang dihasilkan secara algoritmik.
Oleh karena itu, perusahaan media dapat menghadapi ancaman kerugian finansial yang besar jika mereka gagal “berhati-hati” dalam menerbitkan konten jurnalisme otomatis. Dalam kasus jurnalisme otomatis, kelalaian dapat mencakup kegagalan membersihkan data masukan dengan benar atau memeriksa fakta keluaran algoritme ketika jurnalisme otomatis memproduksi dan menerbitkan konten yang mengidentifikasi individu.
Tanggung Jawab Penerbit Versus Tanggung Jawab Distributor: Algoritma dan Bagian 230
Seperti disebutkan sebelumnya, publikasi merupakan salah satu unsur gugatan pencemaran nama baik, dan beberapa perusahaan yang menggunakan algoritme dapat memanfaatkan hal ini untuk keuntungan mereka dengan mengklaim bahwa mereka adalah distributor yang seharusnya kebal dari tuntutan hukum pencemaran nama baik.
Ingatlah bahwa untuk membuktikan publikasi, penggugat harus menunjukkan bahwa tergugat menyampaikan pernyataan fitnah kepada pihak ketiga (Restatement [Second] of Torts, 1977, § 577). Berdasarkan doktrin republikasi terkait, siapa pun yang mengulangi atau menerbitkan ulang pernyataan palsu juga dapat dianggap bertanggung jawab (Restatement [Second] of Torts, 1977, § 578). Namun, undang-undang tersebut memberikan perbedaan yang kuat antara penerbit dan distributor, dan sejumlah kasus dan undang-undang telah menguraikan parameter tanggung jawab bagi terdakwa yang tidak menjalankan kendali editorial atas konten yang mereka distribusikan (misalnya, Cubby v. CompuServe Inc., 1991 ; Akibatnya, pihak yang sekadar mengirimkan atau menyampaikan pernyataan yang memfitnah akan dikenakan tanggung jawab hanya jika pihak tersebut mempunyai alasan untuk mengetahui bahwa informasi tersebut salah (Restatement [Second] of Torts, 1977, § 581).
Sebelum komunikasi Internet tersebar luas, pembedaan antara penerbit dan distributor membuat kios koran dan perpustakaan tidak bertanggung jawab atas penjualan atau peminjaman materi yang berisi konten yang memfitnah. Ketika pidato di Internet menjamur, pengadilan Amerika tidak setuju mengenai peran Penyedia Layanan Internet awal seperti Prodigy dan CompuServe. Setelah dua keputusan pengadilan banding federal yang saling bertentangan, Kongres mengesahkan Pasal 230 Undang-Undang Kepatutan Komunikasi (2016), yang dengan jelas menerapkan perbedaan offline antara penerbit dan distributor di Internet.
Berdasarkan Pasal 230, “penyedia komputer interaktif,” seperti operator situs web, tidak bertanggung jawab atas informasi yang diposting pihak ketiga di situs web mereka (Undang-Undang Kepatutan Komunikasi, 2016). Akibatnya, Pasal 230 telah memberikan perlindungan luas bagi operator situs web yang menghadapi tuntutan pencemaran nama baik (lihat Zeran v. America Online, Inc., 1997; Jones v. Dirty World Entertainment Recordings LLC, 2014). Misalnya, Google telah berhasil menggunakan Pasal 230 di masa lalu untuk mengimunisasi dirinya dari tuntutan pencemaran nama baik yang berasal dari konten yang dibuat oleh algoritma.
Pada tahun 2007, Third Circuit menegaskan keputusan pengadilan distrik tahun 2006 yang menyatakan bahwa Google adalah layanan komputer interaktif yang memenuhi syarat kekebalan Pasal 230, dan Google tidak bertanggung jawab meskipun algoritmenya menghasilkan hasil penelusuran berdasarkan situs web yang tertaut ke informasi palsu tentang individu. (Parker v. Google, Inc., 2006).
Meskipun Pasal 230 memberikan perlindungan yang kuat bagi penyedia layanan interaktif, perusahaan media kemungkinan besar tidak akan berhasil dalam klaim kekebalan terhadap konten yang dihasilkan algoritma yang muncul di situs web mereka karena organisasi tersebut lebih mirip dengan “penyedia konten informasi.” Penyedia konten informasi adalah entitas yang “membuat[e] atau mengembangkan[] konten yang disediakan melalui Internet” (Undang-Undang Kepatutan Komunikasi, 2016).
Berdasarkan Pasal 230, penyedia layanan tersebut tidak memenuhi syarat untuk mendapatkan kekebalan hukum dari tuntutan pencemaran nama baik yang melibatkan konten online. Sebagaimana dicatat oleh Weeks (2014), pengadilan cenderung menganggap konten jurnalisme otomatis apa pun yang dipublikasikan secara online seolah-olah konten tersebut diproduksi melalui proses editorial tradisional, yang berarti kekebalan Pasal 230 tidak akan berlaku. Dengan demikian, pengadilan akan menemukan bahwa perusahaan media yang menggunakan algoritme masih menjalankan kendali editorial tradisional yang terkait dengan penerbit.
Kembali ke contoh Megyn Kelly, Facebook pasti akan memenuhi syarat untuk mendapatkan kekebalan Pasal 230 jika seseorang memposting konten palsu tentang pemecatan Kelly. Demikian pula, berdasarkan keputusan Sirkuit Ketiga yang melibatkan Google, Facebook kemungkinan akan memenuhi syarat untuk mendapatkan kekebalan Pasal 230 meskipun algoritmenya bertanggung jawab atas distribusi konten palsu melalui Topik Trending atau postingan kurasi lainnya. Namun, perusahaan media kami—sebagai penyedia konten informasi dan bukan penyedia layanan interaktif—tidak akan memenuhi syarat untuk perlindungan Pasal 230 dalam sebagian besar kasus ketika algoritmenya menerbitkan konten palsu.
Weeks menyarankan bahwa perusahaan media mungkin memenuhi syarat untuk mendapatkan kekebalan Pasal 230 sebagai penyedia layanan interaktif dalam situasi yang jarang terjadi di mana pengguna Internet dapat memasukkan data ke dalam algoritma untuk menghasilkan konten yang memfitnah yang dipublikasikan di situs web perusahaan media tersebut. Dia mengakui bahwa situasi seperti ini mengharuskan pengadilan untuk membaca maksud Kongres dalam Pasal 230 untuk menyediakan “pasar informasi” online secara luas untuk memberikan kekebalan kepada perusahaan media (Weeks, 2014, hal. 85).
Sekalipun pembacaan yang luas dapat dilakukan, pengadilan tampaknya enggan memberikan kekebalan pada Pasal 230 kepada operator situs web yang mungkin mengetahui bahwa situs mereka digunakan untuk melakukan aktivitas ilegal (Doe No. 14 v. Internet Brands, Inc., 2014; Fair Housing Coun. of San Fernando Valley v. Roommates.com, LLC, 2008).
Akibatnya, kekebalan Pasal 230 tampaknya tidak menjadi cara yang efektif bagi perusahaan media yang ingin membela konten online yang memfitnah yang diproduksi oleh jurnalisme otomatis. perusahaan media memerlukan pertahanan lain untuk memerangi pencemaran nama baik dan tuntutan hukum atas konten yang diproduksi oleh algoritma.
Pengadilan Amerika belum harus memutuskan tuntutan hukum yang menuduh jurnalisme otomatis sebuah perusahaan media telah memfitnah seseorang. Namun perusahaan teknologi harus membela diri terhadap klaim serupa. Misalnya, Google digugat di Uni Eropa, di mana gugatan tersebut menuduh bahwa raksasa pencarian tersebut adalah penerbit informasi yang memfitnah berdasarkan fungsi algoritma pelengkapan otomatis untuk pencarian pengguna (lihat Diakopoulos, 2013; Ghatnekar, 2013).
Kasus-kasus ini, yang hampir seluruhnya diajukan ke yurisdiksi asing, melibatkan individu atau organisasi yang menggugat Google karena penelusuran nama penggugat menyertakan saran pelengkapan otomatis yang tidak benar dan memiliki konotasi negatif, seperti “penipuan” (Cushing, 2011) atau “penipu” (D. Meyer, 2011).
Pada tahun 2012, Google menghadapi tuntutan serupa di California ketika dokter Australia Guy Hingston menggugat pencemaran nama baik di pengadilan distrik federal (Kearn, 2012). Hingston menuduh bahwa setelah memasukkan namanya dalam pencarian Google, algoritma koreksi otomatis menambahkan “bangkrut.” Dokter menyatakan dalam keluhannya bahwa dia tidak bangkrut dan Google gagal mengatasi keluhannya karena fitur koreksi otomatisnya menunjukkan bahwa dia bangkrut. Hingston berpendapat bahwa Google harus bertanggung jawab karena telah merusak reputasinya ketika Google menolak melakukan koreksi terhadap fungsi pelengkapan otomatisnya (Hingston v. Google, 2012). Namun kasus tersebut tidak pernah diputuskan karena dokter mencabut gugatannya 3 bulan kemudian (Grubb, 2013).
Pasquale mencatat bahwa ketika Google menghadapi tuntutan hukum terkait konten yang merugikan reputasi individu dan organisasi, Google mempertahankan dua posisi berbeda mengenai peran algoritma pencariannya dalam memberikan informasi untuk menghindari tanggung jawab atas pencemaran nama baik (Pasquale, 2015).
Dalam beberapa kasus, Google membela diri sebagai penerbit informasi, dengan mengklaim bahwa keluaran algoritmanya dilindungi oleh Amandemen Pertama (Volokh & Falk, 2012). Dalam situasi lain, Google telah menyatakan bahwa fungsi pencariannya adalah saluran informasi, artinya Google tidak dapat dimintai pertanggungjawaban karena hanya menyebarkan informasi fitnah yang dipublikasikan oleh orang lain, namun Google tidak mengetahui secara pribadi bahwa informasi tersebut salah (Pasquale, 2015).
perusahaan media yang menggunakan jurnalisme otomatis kemungkinan besar tidak akan berhasil mengandalkan posisi hukum yang telah ditetapkan Google untuk menghindari tanggung jawab atas konten yang dihasilkan algoritme. Unsur publikasi jarang menjadi isu dalam tuntutan pencemaran nama baik yang melibatkan terdakwa media karena peran organisasi tersebut di masyarakat adalah mempublikasikan informasi untuk dikonsumsi oleh pihak ketiga.
Oleh karena itu, sebuah perusahaan media yang menggunakan algoritme untuk memproduksi konten jarang sekali, jika pun pernah, dapat mengklaim posisi serupa dengan Google—bahwa organisasi tersebut hanya bertindak sebagai penyalur informasi pihak lain. Pada kenyataannya, perusahaan media harus mengandalkan argumen Amandemen Pertama—mirip dengan argumen yang dibuat oleh Google dalam kasus tertentu—untuk membela diri terhadap tuntutan hukum pencemaran nama baik yang melibatkan konten yang diproduksi oleh algoritma (Volokh & Falk, 2012).
Diskusi
Meskipun masih dalam tahap awal pengembangan, jurnalisme otomatis akan tumbuh secara substansial di tahun-tahun mendatang seiring dengan semakin banyaknya perusahaan media yang menjajaki peluang dengan data (terstruktur) yang besar dan sekaligus berupaya memangkas biaya tenaga kerja dan memperluas liputan konten melalui otomatisasi (Lewis & Westlund, 2015b).
Algoritma untuk konten berita otomatis menghadirkan potensi besar—untuk menghasilkan berita lebih cepat, dalam skala besar, dengan lebih sedikit kesalahan—dan kekhawatiran besar, baik itu masalah teknis (misalnya, kualitas data dan kualitas penulisan), normatif (misalnya, etika yang dikodekan dalam algoritma), atau politik-ekonomi (misalnya dinamika ketenagakerjaan akibat perpindahan manusia; misalnya, lihat pembahasan dalam Ananny, 2016; Dörr & Hollnbuchner, 2016; Linden, 2017). Dalam beberapa kasus, algoritme menghasilkan konten berita yang sulit dibedakan dari konten berita yang ditulis oleh jurnalis manusia (Clerwall, 2014; Graefe, Haim, Haarmann, & Brosius, 2016; O’ Connor, 2016).
Algoritme yang memproduksi konten berita akan menjadi lebih canggih dan berorientasi mandiri di masa depan. Perkembangan seperti ini mungkin menantang gagasan mendasar tentang apa arti “komunikasi” di era komunikasi manusia-mesin (Guzman, 2016; Jones, 2014), atau apa artinya menjadi jurnalis (manusia) di saat ketergantungan pada mesin semakin meningkat. (Carlson, 2017; Lewis & Westlund, 2016)—serta mengangkat isu-isu yang lebih praktis dalam menentukan kredit kepenulisan dalam jurnalisme otomatis (Montal & Reich, 2016).
Secara keseluruhan, industri berita kemungkinan besar akan menghadapi tantangan yang dihadapi industri lain karena perangkat lunak telah mengambil alih peran pekerjaan yang sebelumnya dilakukan oleh manusia (Brynjolfsson & McAfee, 2016; Ford, 2016).
Secara lebih luas, perusahaan teknologi sedang mengembangkan proyek kecerdasan buatan yang lebih canggih yang dapat membuat dan mengkomunikasikan pesan (Metz, 2016), mengembangkan bentuk komunikasi publik otomatis yang, meskipun kadang-kadang salah langkah (Neff & Nagy, 2016), menunjukkan masa depan di mana jurnalisme otomatis bukan merupakan bidang perusahaan media saja. Hal ini menjadikan potensi pencemaran nama baik bot (bot libel) menjadi perhatian utama di banyak bidang.
Penerapan jurnalisme otomatis oleh perusahaan media akan memaksa pengadilan untuk mempertimbangkan kembali pemahaman tradisional tentang perlindungan kebebasan berpendapat berdasarkan Amandemen Pertama, khususnya yang berkaitan dengan pencemaran nama baik. Dalam gugatan pencemaran nama baik jurnalisme otomatis, pejabat publik dan tokoh masyarakat mungkin merasa hampir mustahil untuk membuktikan “kebencian yang sebenarnya,” yaitu tingkat kesalahan yang harus dibuktikan oleh penggugat publik sebelum mendapatkan ganti rugi atas pencemaran nama baik karena standar ketat yang diberlakukan oleh Mahkamah Agung AS.
Standar kejahatan yang sebenarnya mengharuskan penggugat untuk menunjukkan bahwa tergugat mengetahui atau seharusnya mengetahui bahwa pernyataan yang dipublikasikan adalah salah, dan algoritme tidak membuat penilaian subjektif terlepas dari keputusan pemrogramnya. Namun, di banyak wilayah hukum, perusahaan media harus khawatir tentang tanggung jawab atas konten jurnalisme otomatis yang memfitnah yang berdampak pada penggugat swasta, yang dapat pulih dengan membuktikan kelalaian perusahaan media tersebut.
Ada kekhawatiran yang sah mengenai apakah standar kelalaian yang diuraikan dalam Gertz akan menghambat perkembangan teknologi di media berita mengingat masalah hukum serius yang ditimbulkan oleh konten yang dihasilkan algoritma tentang warga negara.
Kekhawatiran awal pakar hukum David Anderson—bahwa standar kelalaian Gertz “mengutamakan ortodoksi jurnalistik karena pers konvensional lebih cenderung memusatkan perhatiannya pada pemerintah dan tokoh masyarakat, meninggalkan liputan kekuasaan swasta ke majalah dan surat kabar yang menekankan pemberitaan investigatif” (Anderson, 2002, hal. 453-456)—terus menjadi kenyataan dalam lanskap media yang terus berubah.
Sekitar 40 tahun kemudian, kendala ekonomi yang dihadapi perusahaan media menunjukkan bahwa ketakutannya semakin terasa di industri yang sumber daya manusianya semakin berkurang dan penekanan yang semakin besar pada produksi lebih banyak konten dengan biaya yang lebih sedikit. Terlebih lagi, ketika pers institusional berjuang melawan startup berita/hiburan yang lebih baru demi kepentingan pemirsa dan pendapatan iklan, kemungkinan besar akan ada langkah-langkah pemotongan biaya lainnya—seperti menyusutnya peran copydesk (misalnya, Beaujon, 2013; Dunlap, 2017)—hanya akan meningkatkan kemungkinan lolosnya konten yang mencemarkan nama baik.
perusahaan media tidak akan dapat mengandalkan salah satu pertahanan utama yang digunakan oleh Google dan organisasi lain yang menerapkan algoritme untuk memproduksi konten untuk melindungi diri mereka dari tuntutan pencemaran nama baik. Google sering mengklaim bahwa algoritmanya hanya berfungsi sebagai saluran untuk mencari hasil yang berisi informasi yang memfitnah, dan bukan sebagai penerbit sebenarnya dari pernyataan-pernyataan yang memfitnah tersebut. Sebaliknya, perusahaan media yang menggunakan jurnalisme otomatis untuk menghasilkan konten tidak dapat menyusun argumen yang meyakinkan bahwa algoritme mereka hanya memberikan jalan bagi pembaca menuju informasi palsu dan berbahaya.
Pengadilan, perusahaan media, dan penggugat pencemaran nama baik akan diminta untuk menghadapi permasalahan ini—menentukan kesalahan dalam kasus-kasus yang melibatkan konten yang dihasilkan secara algoritmik, dan apakah serta kapan organisasi media bertanggung jawab sebagai penerbit—seiring dengan semakin banyaknya adopsi jurnalisme otomatis. Selain pencemaran nama baik, jurnalisme otomatis akan menimbulkan tantangan di bidang hukum lainnya, termasuk kekayaan intelektual dan pengumpulan berita.
Para ahli telah mencatat bahwa jurnalisme otomatis dapat menimbulkan pertanyaan mengenai siapa yang harus dianggap sebagai penulis konten yang diproduksi algoritma untuk tujuan hak cipta (Montal & Reich, 2016; Ombelet et al., 2016; Weeks, 2014).
Ketika kecerdasan buatan dan pengambilan keputusan otomatis mencapai titik di mana jurnalisme otomatis dapat mengumpulkan, mensintesis, dan mempublikasikan informasi dengan bantuan manusia yang semakin sedikit, pengadilan mungkin dihadapkan pada apakah suatu algoritma dapat memenuhi syarat untuk mendapatkan hak kesaksian (yaitu hak istimewa jurnalis) untuk melindungi sumber-sumbernya—betapapun tidak masuk akalnya skenario tersebut saat ini.
Artikel ini telah mengkaji pertanyaan terkait jurnalisme otomatis dan undang-undang pencemaran nama baik hanya dalam konteks Amerika—sebuah pertimbangan penting mengingat Amandemen Pertama Konstitusi AS memberikan perlindungan yang lebih besar terhadap kebebasan berpendapat dibandingkan yang bersedia diberikan oleh banyak negara lain (misalnya, Schauer, 2005; Akibatnya, perusahaan media yang menerbitkan berita di luar AS kemungkinan besar akan menghadapi hukuman yang lebih berat dan peraturan yang lebih berat jika jurnalisme otomatis melanggar hukum. Misalnya saja, negara-negara Eropa memiliki tingkat kesalahan yang sangat berbeda-beda yang harus ditunjukkan oleh penggugat publik agar dapat memulihkan ganti rugi atas pencemaran nama baik, dan tidak ada satu pun negara yang memberikan standar setinggi “kebencian yang sebenarnya” (Ambrose & Ambrose, 2014).
Ketika otomatisasi menjadi fitur penentu dalam lanskap media dan informasi, masalah akuntabilitas konten otomatis akan menjadi perhatian yang mendesak: Siapa yang bertanggung jawab atas jurnalisme otomatis? Apa yang terjadi jika konten otomatis mencemarkan nama baik seseorang, baik karena data yang salah, algoritme yang tidak terprogram dengan baik, atau karena kombinasi yang tidak hanya menghasilkan informasi palsu, namun juga materi yang sangat merusak dan merusak reputasi?
Dulunya tidak terbayangkan bahwa perusahaan media akan menerbitkan konten yang belum sepenuhnya diperiksa oleh copydesk, namun kekuatan pasar—termasuk tekanan ekonomi dan tenggat waktu—sangat mempengaruhi rutinitas berita tradisional (Harlow, 2012). Para reporter kini semakin menjadi editor bagi diri mereka sendiri, dan dengan cepat menyebarkan berita terkini melalui saluran media sosial (Rawlinson, 2016).
Oleh karena itu, tidak terpikirkan lagi bahwa perusahaan media akan menerbitkan konten yang tidak tersentuh oleh karyawan manusia. Sejauh jurnalisme otomatis menjadi bagian penting dalam jurnalisme masa depan—dan setiap indikasi menunjukkan bahwa hal tersebut akan terjadi, dalam jangka pendek atau jangka panjang—para pakar jurnalisme dan hukum media, serta para profesional yang mengelola proses tersebut di ruang redaksi, akan memerlukannya. untuk memikirkan konsekuensi hukum serta sosial dan etika dari teknologi tersebut.
Sekilas para penulis
Seth C. Lewis, PhD, adalah pendiri Shirley Papé Chair di Emerging Media di School of Journalism and Communication di University of Oregon, dan merupakan rekan terafiliasi dari Proyek Masyarakat Informasi Yale Law School. Ia mengkaji jurnalisme dan transformasi digitalnya, dengan fokus pada pekerjaan batasan, dinamika jurnalis-komunitas, komunikasi manusia-mesin, dan perkembangan sosioteknik seperti algoritme, otomatisasi, dan kecerdasan buatan.
Amy Kristin Sanders adalah jurnalis Amerika pemenang penghargaan dan pengacara berlisensi. Sebelum bergabung dengan fakultas di Universitas Northwestern di Qatar, ia memperoleh masa jabatan di Universitas Minnesota, di mana penelitiannya berfokus pada titik temu antara hukum dan teknologi baru dalam kaitannya dengan kebebasan media. Secara khusus, ia mempelajari pidato ofensif di Internet, media sosial, peraturan telekomunikasi, dan kebijakan media serta isu-isu hukum dan etika media lainnya yang relevan.
*)Casey Carmody adalah mahasiswa doktoral di Sekolah Jurnalisme dan Komunikasi Massa di Universitas Minnesota–Twin Cities. Ia mempelajari hukum dan kebijakan media.
Artikel ini dilansir dari Sage Journals
Diterjemahkan dengan bantuan Google Translate