UE: Regulasi Kecerdasan Buatan Mengancam Jaring Pengaman Sosial
Africa

UE: Regulasi Kecerdasan Buatan Mengancam Jaring Pengaman Sosial

(Brussels) – Rencana Uni Eropa untuk mengatur kecerdasan buatan tidak dilengkapi dengan baik untuk melindungi orang-orang dari algoritma cacat yang menghilangkan manfaat penyelamatan jiwa dan mendiskriminasi populasi yang rentan, Human Rights Watch mengatakan dalam laporan tentang peraturan yang dirilis hari ini. Parlemen Eropa harus mengamandemen peraturan untuk lebih melindungi hak masyarakat atas jaminan sosial dan standar hidup yang layak.

Laporan setebal 28 halaman dalam bentuk dokumen tanya jawab, “Bagaimana Regulasi Kecerdasan Buatan Uni Eropa yang Cacat Membahayakan Jaring Pengaman Sosial,” meneliti bagaimana pemerintah beralih ke algoritme untuk mengalokasikan dukungan jaminan sosial dan mencegah penipuan manfaat. Berdasarkan studi kasus di Irlandia, Prancis, Belanda, Austria, Polandia, dan Inggris, Human Rights Watch menemukan bahwa tren menuju otomatisasi ini dapat mendiskriminasi orang yang membutuhkan dukungan jaminan sosial, membahayakan privasi mereka, dan mempersulit mereka. memenuhi syarat untuk mendapatkan bantuan pemerintah. Tetapi peraturan tersebut tidak akan berbuat banyak untuk mencegah atau memperbaiki bahaya ini.

“Proposal UE tidak cukup untuk melindungi orang dari algoritma yang secara tidak adil menghilangkan manfaat yang mereka butuhkan untuk mendukung diri mereka sendiri atau mencari pekerjaan,” kata Amos Toh, peneliti senior kecerdasan buatan dan hak asasi manusia di Human Rights Watch. “Proposal itu juga gagal mengakhiri pengawasan dan profil orang-orang yang hidup dalam kemiskinan.”

Di beberapa negara, algoritme telah menjadi alat yang ampuh untuk merasionalisasi pemotongan anggaran kesejahteraan yang didorong oleh penghematan. Di Austria, algoritma yang digunakan pemerintah untuk memprediksi prospek pekerjaan memotong sebagian orang dari dukungan yang mereka butuhkan untuk mencari pekerjaan, membahayakan hak mereka atas standar hidup yang layak. Algoritme, yang dimaksudkan untuk menghemat biaya dengan memprioritaskan siapa yang dapat menggunakan program dukungan pekerjaan, bersifat diskriminatif, meremehkan kelayakan kerja perempuan di atas 30 tahun, perempuan dengan kewajiban pengasuhan anak, migran, dan penyandang disabilitas.

Teknologi pengawasan yang mengintensifkan pemantauan dan pembuatan profil orang-orang yang hidup dengan pendapatan rendah juga menyebar ke seluruh Eropa. Di Belanda, pemerintah meluncurkan program penilaian risiko yang dikenal sebagai SyRI di lingkungan yang sebagian besar berpenghasilan rendah, dalam upaya untuk memprediksi kemungkinan orang terlibat dalam manfaat atau penipuan pajak. Pemerintah menangguhkan program pada April 2020, setelah pengadilan memutuskan bahwa itu melanggar privasi orang. Namun, kelompok masyarakat sipil telah memperingatkan tentang RUU di parlemen yang akan mengizinkan pembagian data antara otoritas publik dan sektor swasta untuk mendeteksi penipuan dan berpotensi menghidupkan kembali penilaian risiko.

Di Irlandia, pemerintah mengharuskan orang untuk mendaftar kartu identitas digital untuk mendapatkan akses ke tunjangan kesejahteraan dan layanan publik lainnya, seperti mengajukan permohonan kewarganegaraan. Beberapa pelamar dan kelompok masyarakat sipil mengatakan bahwa proses pendaftaran – yang menggunakan pengenalan wajah untuk menyaring aplikasi duplikat atau penipuan – tidak perlu dan terlalu mengganggu.

Usulan UE adalah pertahanan yang lemah terhadap bahaya ini. Peraturan tersebut akan melarang daftar sempit sistem otomatis yang menimbulkan “risiko yang tidak dapat diterima” terhadap hak, seperti algoritme yang digunakan oleh otoritas publik untuk mengukur “kepercayaan” orang dan memilihnya untuk “perlakuan yang merugikan atau tidak menguntungkan” berdasarkan skor ini. Tetapi tidak jelas apakah bahasa yang tidak jelas ini akan melarang metode pembuatan profil yang kasar seperti SyRI atau algoritme profil pekerjaan Austria.

Aturan peraturan tentang sistem otomatis yang menimbulkan “risiko tinggi” terhadap hak asasi manusia juga tidak memadai. Ini mencoba untuk mencegah diskriminasi algoritmik dengan menetapkan standar untuk kualitas data dan desain perangkat lunak yang lebih baik saat sistem sedang dikembangkan. Tetapi fokus sempit pada langkah-langkah teknis ini tidak akan memaksa otoritas publik maupun sektor swasta untuk menghadapi pilihan kebijakan yang salah dan ketidakadilan sosial yang berkontribusi pada diskriminasi algoritmik, seperti pemotongan anggaran yang didorong oleh penghematan atau akses yang berbeda ke peluang pendidikan dan pekerjaan.

Celah besar dalam persyaratan transparansi untuk sistem “berisiko tinggi” akan melemahkan kemampuan orang untuk memahami dan menantang keputusan otomatis yang dapat menyangkal manfaat atau meremehkan berapa banyak dukungan yang mereka butuhkan. Kegagalan peraturan untuk menjamin sumber daya, pelatihan, dan perlindungan tenaga kerja bagi pekerja yang mengawasi sistem ini juga dapat menciptakan rezim pengawasan yang tidak efektif yang mengancam hak-hak orang yang seharusnya dilindungi.

Parlemen Eropa harus mengubah peraturan untuk melarang penilaian sosial yang terlalu mengganggu hak asasi manusia, termasuk hak atas jaminan sosial, standar hidup yang memadai, privasi, dan non-diskriminasi, kata Human Rights Watch. Alat penilaian yang menganalisis catatan perilaku masa lalu orang untuk memprediksi kemungkinan mereka melakukan penipuan manfaat, atau yang berfungsi sebagai dalih untuk pemotongan jaminan sosial regresif, harus dilarang. Peraturan tersebut juga harus mencakup proses untuk melarang pengembangan kecerdasan buatan di masa depan yang menimbulkan “risiko yang tidak dapat diterima” terhadap hak.

Sistem otomatis “berisiko tinggi” memerlukan pengamanan yang ketat, kata Human Rights Watch. Parlemen Eropa harus memastikan bahwa peraturan tersebut mengharuskan penyedia sistem dan badan kesejahteraan otomatis yang menggunakannya untuk melakukan penilaian dampak hak asasi manusia secara teratur, terutama sebelum sistem tersebut diterapkan dan kapan pun mereka diubah secara signifikan.

Penilaian ini harus, misalnya, melibatkan pekerja kasus kesejahteraan dan orang-orang yang menerima tunjangan dalam menguji algoritme perhitungan tunjangan, dan menyusun rencana untuk memberi orang-orang dalam situasi rentan dengan dukungan keuangan dan konseling yang ditingkatkan saat mereka beralih dari program tunjangan yang ada ke sistem otomatis.

Untuk memastikan bahwa penilaian dampak tidak hanya sekedar latihan, peraturan tersebut harus mewajibkan negara-negara anggota untuk membentuk badan pengawas independen yang diberdayakan untuk melakukan inspeksi peraturan dan menyelidiki keluhan dari masyarakat.

“Otomasi layanan jaminan sosial seharusnya meningkatkan kehidupan masyarakat, bukan menghilangkan dukungan yang mereka butuhkan untuk membayar sewa, membeli makanan, dan mencari nafkah,” kata Toh. “Uni Eropa harus mengubah peraturan untuk memastikan bahwa ia memenuhi kewajibannya untuk melindungi hak-hak ekonomi dan sosial.”

Posted By : hongkong prize