Pergeseran Paradigma: Dari Kesalahan ke Risiko
Temuan utama penelitian menunjukkan adanya pergeseran besar dalam paradigma hukum.
Model lama berbasis kesalahan (fault-based liability) mensyaratkan pembuktian niat atau kelalaian. Model ini sulit diterapkan pada sistem AI karena:
- Keputusan algoritmik sering bersifat “black box”.
- Sulit membuktikan hubungan sebab-akibat.
- Tidak ada unsur mens rea (niat jahat).
Sebagai gantinya, muncul pendekatan
baru berbasis risiko (risk-based responsibility). Dalam model ini,
tanggung jawab ditentukan berdasarkan potensi risiko yang ditimbulkan
teknologi, bukan kesalahan individu setelah kerugian terjadi.
Regulasi Uni Eropa, misalnya,
menekankan kewajiban pengelolaan risiko sejak awal (ex ante), termasuk:
- Sistem manajemen risiko.
- Audit algoritma.
- Kewajiban dokumentasi.
- Pengawasan berkelanjutan.
Pendekatan ini berorientasi pada
pencegahan, bukan semata-mata penghukuman.
Pendekatan Normatif dan
Perbandingan Internasional
Penelitian ini menggunakan
pendekatan yuridis-normatif dan perbandingan hukum. Peneliti menganalisis
regulasi utama seperti:
- EU Artificial Intelligence Act (2024).
- White House Blueprint for an AI Bill of Rights (2022).
- Prinsip AI OECD (2022–2024).
Kajian juga mencakup literatur
hukum dan teknologi lima tahun terakhir untuk memetakan perkembangan doktrin
tanggung jawab hukum global. Hasilnya konsisten: tidak ada
negara yang memberikan status subjek hukum kepada AI. Sebaliknya, tanggung
jawab dialihkan kepada manusia atau institusi yang merancang, mengembangkan,
mengoperasikan, atau mengawasi sistem tersebut.
Tanggung Jawab Kolektif dan
Terdistribusi
Penelitian juga menemukan bahwa
tanggung jawab hukum kini semakin bersifat kolektif dan terdistribusi (distributed
liability). Keputusan AI merupakan hasil interaksi kompleks antara:
- Pengembang perangkat lunak.
- Penyedia data.
- Operator sistem.
- Pemilik atau institusi pengguna.
Peneliti menegaskan bahwa hukum
sedang bergerak dari pertanyaan “siapa yang bersalah?” menjadi “bagaimana
risiko dikendalikan secara institusional?”.
Implikasi bagi Dunia Usaha dan
Industri Teknologi
Bagi pelaku industri, temuan ini
memiliki konsekuensi strategis. Perusahaan pengembang AI tidak bisa lagi hanya
mengandalkan kontrak atau pembatasan tanggung jawab.
Mereka perlu:
- Membangun sistem manajemen risiko sejak tahap desain.
- Menyediakan dokumentasi dan transparansi algoritma.
- Melakukan audit independen.
- Menyiapkan mekanisme kompensasi korban.
Model tanggung jawab berbasis
risiko berarti beban pengawasan dan pencegahan berada di tangan aktor manusia
dan korporasi.
Profil Penulis
Sumiyati adalah akademisi di
Politeknik Negeri Bandung
Bidang keahliannya: hukum teknologi, tata kelola risiko, dan reformasi doktrin
tanggung jawab hukum di era sistem otonom.
Sumber Penelitian
Sumiyati. “Legal Responsibility in
Systems without Human Decision Makers.” International Journal of Law
Analytics (IJLA), Vol. 4 No. 1, 2026, halaman 105–118.
DOI: https://doi.org/10.59890/ijla.v4i1.160
URL: https://slamultitechpublisher.my.id/index.php/ijla

0 Komentar