MODUL HUKUM DAN KEBIJAKAN TEKNOLOGI INFORMASI
Mata Kuliah: Hukum dan Kebijakan Teknologi Informasi
Kode MK: INF2505
SKS: 2 (Teori)
Semester: 2
Program Studi: Informatika
Fakultas: Ekonomi dan Bisnis Islam
Universitas: UIN K.H. Abdurrahman Wahid Pekalongan
Dosen Pengampu: Mohammad Reza Maulana, M.Kom
NIP: 199110082025051002
Pertemuan: 12 dari 16
Durasi: 100 menit (2 Γ 50 menit)
Panduan Penggunaan Modul
Modul ini mencakup Pertemuan 12 (Regulasi AI, Fintech, dan Teknologi Emerging). Ini adalah pertemuan yang paling "forward-looking" dalam seluruh rangkaian kuliah β membahas teknologi yang hukumnya masih terus berkembang dan belum sepenuhnya stabil. Mahasiswa perlu membaca dengan sikap kritis, tidak hanya menerima informasi sebagai fakta final, tetapi mempertanyakan dan mengevaluasi kecukupan regulasi yang ada.
Catatan Administratif:
- Tugas Analitik P12 diberikan via Ngaji UIN Gusdur, dikumpulkan maksimal 1 hari sebelum Pertemuan 13.
- Tugas 7 (Analisis Lisensi OSS) masih berjalan β deadline di Pertemuan 14.
- Materi P12 sangat relevan dengan Proyek Legal Audit (P16) bagi kelompok yang memilih aplikasi berbasis AI atau fintech sebagai objek audit.
PERTEMUAN 12
Regulasi AI, Fintech, dan Teknologi Emerging: EU AI Act, Hukum Fintech Indonesia, dan Tanggung Jawab Hukum Sistem AI
Sub-CPMK: Sub-CPMK02.2.1
Bobot: 7% dari Nilai Akhir
JEMBATAN DARI PERTEMUAN 11
PERTEMUAN 11: HKI DIGITAL PERTEMUAN 12: REGULASI TEKNOLOGI EMERGING
"Melindungi apa yang sudah "Mengatur apa yang baru ada:
ada: kode, karya, lisensi" AI, fintech, aset kripto"
β’ Hak cipta β melindungi β’ EU AI Act β mengatur risiko
ekspresi kode yang ada sistem AI yang sudah ada
β’ Lisensi GPL/MIT β mengatur β’ POJK Fintech β mengatur
distribusi software layanan keuangan digital
β’ Paten β melindungi β’ Regulasi kripto β mengatur
invensi teknis aset berbasis blockchain
β β
βββββββββββββββββββ¬βββββββββββββββββββββββ
βΌ
"Dari P11, kita tahu AI-generated code
menimbulkan pertanyaan siapa pemilik hak
cipta hasilnya. Di P12, pertanyaannya lebih
luas: ketika AI membuat keputusan yang
merugikan seseorang β menolak kredit,
salah diagnosis, membuat deepfake β siapa
yang secara hukum bertanggung jawab?"Pertanyaan jembatan dari P11: Di workshop lisensi P11, kelompok TensorFlow menemukan Apache 2.0 memiliki klausul paten. Bayangkan TensorFlow digunakan untuk membangun model kredit scoring. Jika model itu diskriminatif dan merugikan pemohon kredit β apakah lisensi Apache 2.0 melindungi Google dari tanggung jawab? Atau ada regulasi lain yang berlaku? P12 menjawab pertanyaan ini.
CAPAIAN PEMBELAJARAN
Sub-CPMK yang Dituju
| Pertemuan | Sub-CPMK | Deskripsi | Level Kognitif |
|---|---|---|---|
| 12 | Sub-CPMK02.2.1 | Mengevaluasi regulasi kecerdasan buatan (EU AI Act vs regulasi Indonesia), kerangka hukum fintech, dan tanggung jawab hukum sistem AI termasuk deepfake dan konten sintetis | C5 β Mengevaluasi |
Indikator Ketercapaian
Setelah pertemuan ini, mahasiswa mampu:
- Menjelaskan pendekatan berbasis risiko dalam EU AI Act 2024 dan mengklasifikasikan sistem AI berdasarkan tingkat risikonya (C2).
- Membandingkan pendekatan regulasi AI antara EU, AS, dan Indonesia secara kritis (C4).
- Menganalisis kerangka hukum fintech Indonesia meliputi P2P lending, sistem pembayaran, dan aset kripto (C4).
- Mengevaluasi siapa yang bertanggung jawab secara hukum ketika sistem AI menyebabkan kerugian (C5).
- Mengidentifikasi celah (gap) regulasi AI Indonesia dibandingkan standar internasional dan merekomendasikan arah kebijakan (C5).
- Menganalisis implikasi hukum deepfake dan konten sintetis berbasis AI menggunakan regulasi yang ada di Indonesia (C4).
BAGIAN 12.1 β LANSKAP REGULASI AI GLOBAL: MENGAPA MENDESAK?
12.1.1 Skala Dampak AI yang Membuat Regulasi Tidak Bisa Ditunda
Sebelum masuk ke detail regulasi, penting memahami mengapa AI perlu diatur secara khusus β berbeda dari teknologi digital pada umumnya yang sudah diatur UU ITE dan UU PDP.
MENGAPA AI MEMERLUKAN REGULASI TERSENDIRI?
AI BERBEDA DARI SOFTWARE BIASA:
Software biasa: Sistem AI (ML/Deep Learning):
βββββββββββββ ββββββββββββββββββββββββββββ
Perilaku deterministik Perilaku probabilistik β
(input sama β output sama) hasil bisa berbeda untuk
input yang mirip
Logika dapat diperiksa "Black box" β sulit dijelaskan
baris demi baris mengapa keputusan tertentu
diambil
Pengembang memprogram Model "belajar" dari data β
setiap aturan secara aturan tidak ditulis eksplisit
eksplisit oleh programmer
Kesalahan mudah dilacak Bias dalam data β bias dalam
ke baris kode tertentu keputusan, sulit dilacak
sumbernya
SKALA DAMPAK YANG TIDAK TERBANDINGKAN:
β’ Jutaan keputusan per hari: kredit, rekrutmen, konten yang
dilihat, diagnosis medis
β’ Satu model dapat mempengaruhi jutaan orang sekaligus
β’ Deepfake dapat menghancurkan reputasi dalam hitungan jam
β’ AI generatif dapat memproduksi disinformasi dalam skala masif12.1.2 Tiga Pendekatan Regulasi AI Global
PERBANDINGAN PENDEKATAN REGULASI AI TIGA JURISDIKSI UTAMA
UNI EROPA AMERIKA SERIKAT INDONESIA
(EU AI Act, 2024) (Executive Order (SE Menkominfo
+ sektoral) 9/2023)
βββββββββββββ βββββββββββββ ββββββββββ
FILOSOFI Rights-based, Innovation-first, Soft law,
precautionary, voluntary tidak mengikat
risk-based standards
SIFAT Hukum mengikat Campuran: Panduan etika
(legally binding) EO + sektoral (advisory)
+ self-regulation
CAKUPAN Komprehensif: Sektoral: FDA, Belum ada UU
semua sistem AI CFPB, EEOC AI khusus
berbasis risiko
PENEGAKAN Denda hingga β¬30 juta FTC enforcement Tidak ada sanksi
atau 6% revenue untuk harms formal
TRANSPARANSI Wajib (high-risk): Voluntary Anjuran
explainability,
logging, audit
INOVASI Sandbox untuk Mendukung Mendukung,
high-risk AI inovasi tanpa batasan
formal
TIMELINE Berlaku 2025β2027 Berkelanjutan Belum ada
(bertahap) timelineBAGIAN 12.2 β EU AI ACT (REGULATION EU 2024/1689): PENDEKATAN BERBASIS RISIKO
12.2.1 Lahirnya EU AI Act
Perjalanan Regulasi:
- April 2021: Proposal Komisi Eropa diajukan.
- Juni 2023: Parlemen Eropa mengadopsi posisi negosiasi.
- Desember 2023: Kesepakatan "trilogue" (Komisi, Parlemen, Dewan EU).
- 13 Maret 2024: Parlemen Eropa mengesahkan secara resmi.
- 1 Agustus 2024: Berlaku β dengan periode transisi bertahap hingga 2027.
EU AI Act adalah regulasi AI pertama yang komprehensif dan mengikat secara hukum di dunia. Ia menjadi referensi global dan kemungkinan besar akan mempengaruhi arah regulasi AI di banyak negara termasuk Indonesia.
Prinsip dasar EU AI Act:
- Berbasis risiko (risk-based approach): semakin tinggi risiko AI terhadap hak asasi dan keselamatan, semakin ketat regulasinya.
- Berorientasi hak asasi (human-centric): AI harus melayani manusia, bukan sebaliknya.
- Transparansi (transparency): pengguna harus tahu ketika berinteraksi dengan AI.
- Pengawasan manusia (human oversight): manusia harus tetap dapat mengintervensi.
- Penegakan hukum yang efektif (effective enforcement): sanksi yang nyata.
12.2.2 Empat Tingkatan Risiko EU AI Act
Ini adalah inti dari seluruh arsitektur regulasi EU AI Act:
PIRAMIDA RISIKO EU AI ACT
βββββββββββββββββββββββββββββββββββ
β UNACCEPTABLE RISK (DILARANG) β
β Level 1 β LARANGAN TOTAL β
βββββββββββββββββββββββββββββββββββ
β CONTOH:
β β’ Social scoring oleh pemerintah
β β’ Manipulasi subliminal yang merugikan
β β’ Eksploitasi kerentanan (umur, disabilitas)
β β’ Identifikasi biometrik real-time
β di ruang publik (kecuali pengecualian ketat)
β β’ Profiling emosi di tempat kerja & sekolah
β β’ Inferensi atribut sensitif (ras, orientasi)
β dari biometrik
βΌ
βββββββββββββββββββββββββββββββββββββββββββββ
β HIGH RISK β Level 2 β
β KEWAJIBAN KETAT β
βββββββββββββββββββββββββββββββββββββββββββββ
β CONTOH:
β β’ AI dalam infrastruktur kritis
β β’ AI rekrutmen dan seleksi karyawan
β β’ AI penilaian kredit (credit scoring)
β β’ AI dalam pendidikan (penilaian siswa)
β β’ AI diagnostik medis
β β’ AI migrasi dan manajemen perbatasan
β β’ AI dalam sistem peradilan
β β’ AI keamanan publik (prediktif)
βΌ
ββββββββββββββββββββββββββββββββββββββββββββββββββββββββ
β LIMITED RISK β Level 3 β
β KEWAJIBAN TRANSPARANSI β
ββββββββββββββββββββββββββββββββββββββββββββββββββββββββ
β CONTOH:
β β’ Chatbot (wajib label "ini AI")
β β’ Deepfake generator
β (wajib label konten sintetis)
β β’ Sistem rekomendasi konten
βΌ
βββββββββββββββββββββββββββββββββββββββββββββββββββββββββββββββ
β MINIMAL RISK β Level 4 β
β TIDAK DIATUR KHUSUS β
βββββββββββββββββββββββββββββββββββββββββββββββββββββββββββββββ
β CONTOH:
β β’ Spam filter
β β’ AI dalam video game
β β’ Aplikasi produktivitas berbasis AI
β β’ Rekomendasi musik/film sederhana12.2.3 Kewajiban untuk Sistem AI Berisiko Tinggi (High-Risk)
Inilah yang paling relevan untuk calon pengembang yang mungkin akan membangun sistem AI di sektor keuangan, pendidikan, atau kesehatan:
| Kewajiban | Penjelasan | Siapa yang Diwajibkan |
|---|---|---|
| Pendaftaran (Registration) | Sistem AI high-risk wajib didaftarkan dalam database EU sebelum dirilis ke pasar | Developer/Provider |
| Manajemen Risiko | Wajib memiliki sistem manajemen risiko sepanjang siklus hidup sistem | Developer/Provider |
| Data Governance | Data pelatihan harus relevan, representatif, dan bebas bias signifikan | Developer/Provider |
| Dokumentasi Teknis | Dokumentasi lengkap tentang cara kerja sistem untuk keperluan audit | Developer/Provider |
| Logging Otomatis | Sistem harus menyimpan log aktivitas untuk memungkinkan rekonstruksi insiden | Developer/Provider |
| Transparansi kepada Pengguna | Pengguna harus diberi informasi memadai tentang cara kerja sistem | Developer/Deployer |
| Human Oversight | Harus ada mekanisme yang memungkinkan manusia memantau, mengintervensi, dan menghentikan sistem | Deployer |
| Akurasi, Robustness, Cybersecurity | Standar teknis minimum untuk keandalan sistem | Developer/Provider |
| Conformity Assessment | Beberapa kategori high-risk harus melewati penilaian pihak ketiga sebelum rilis | Developer/Provider |
Siapa "Provider" dan siapa "Deployer"?
RANTAI TANGGUNG JAWAB DALAM EU AI ACT
AI PROVIDER AI DEPLOYER
(Developer/Pembuat) (Pengguna/Operator)
Perusahaan yang Perusahaan/instansi yang
mengembangkan dan menggunakan sistem AI
memasarkan sistem AI yang dibuat provider
untuk digunakan orang lain dalam layanan mereka
Contoh: OpenAI (GPT), Contoh: Bank yang
Anthropic (Claude), menggunakan model AI
startup AI Indonesia pihak ketiga untuk
credit scoring
KEWAJIBAN UTAMA: KEWAJIBAN UTAMA:
β’ Teknis: manajemen risiko, β’ Implementasi human
dokumentasi, logging oversight
β’ Menjamin kepatuhan regulasi β’ Registrasi di EU database
β’ Memastikan input data sah12.2.4 Ketentuan Khusus untuk AI Generatif (GPAI)
EU AI Act juga mengatur General Purpose AI (GPAI) β model AI seperti GPT-4, Claude, Gemini yang dirancang untuk berbagai tugas umum:
| Kategori GPAI | Kriteria | Kewajiban Tambahan |
|---|---|---|
| GPAI biasa | Model AI untuk keperluan umum | Dokumentasi teknis, kepatuhan hak cipta, ringkasan data pelatihan |
| GPAI dengan risiko sistemik | FLOPs > 10^25 saat pelatihan (model sangat besar) | Semua kewajiban GPAI biasa + adversarial testing, pelaporan insiden serius, cybersecurity measures |
Relevansi untuk pengembang Indonesia: Jika Anda menggunakan API dari model GPAI (OpenAI, Anthropic, Google) untuk membangun layanan yang menarget pengguna di EU, regulasi ini akan berlaku untuk Anda sebagai deployer.
12.2.5 Sanksi EU AI Act
SKEMA SANKSI EU AI ACT
Pelanggaran sistem unacceptable risk:
β Denda hingga β¬35 juta ATAU 7% dari total turnover global tahunan
(mana yang LEBIH TINGGI)
Pelanggaran kewajiban sistem high-risk:
β Denda hingga β¬15 juta ATAU 3% dari total turnover global tahunan
Pelanggaran lainnya (termasuk informasi tidak benar ke regulator):
β Denda hingga β¬7,5 juta ATAU 1,5% dari total turnover global tahunan
Untuk startup dan UKM: denda proporsional yang lebih rendahEfek ekstrateritorial: Seperti GDPR, EU AI Act berlaku untuk sistem AI yang ditawarkan di pasar EU, terlepas dari di mana developer berdomisili. Artinya, startup Indonesia yang ingin masuk pasar EU harus mematuhi EU AI Act.
BAGIAN 12.3 β REGULASI AI DI INDONESIA: KONDISI AKTUAL DAN GAP ANALYSIS
12.3.1 Kerangka Regulasi AI Indonesia Saat Ini
Indonesia belum memiliki undang-undang AI yang berdiri sendiri. Regulasi AI saat ini bersifat:
- Soft law β tidak mengikat secara hukum.
- Sektoral β tersebar di berbagai regulasi OJK, BI, Kemenkes, dll.
- Implisit β regulasi umum seperti UU ITE dan UU PDP berlaku untuk AI tanpa menyebut AI secara eksplisit.
PETA REGULASI AI INDONESIA SAAT INI
LEVEL INSTRUMEN REGULASI SIFAT
ββββββββββββββββββ βββββββββββββββββββββ ββββββββ
Surat Edaran Menteri SE Menkominfo No. 9/2023 Panduan
tentang Etika AI (tidak
mengikat)
Regulasi OJK POJK tentang IT Mengikat
(Fintech, Perbankan) untuk sektor keuangan (sektoral)
Regulasi BI PBI Sistem Pembayaran Mengikat
(QRIS, uang elektronik) (sektoral)
Regulasi Umum yang UU ITE No. 1/2024 Mengikat
Berlaku Implisit UU PDP No. 27/2022 (umum, tidak
UU Perlindungan Konsumen spesifik AI)
Rencana Masa Depan RKAI (Regulasi AI Indonesia) Dalam
sedang disiapkan pembahasan12.3.2 SE Menkominfo No. 9/2023 tentang Etika Kecerdasan Artifisial
Tanggal: 19 Oktober 2023
Sifat: Panduan β tidak mengikat secara hukum
SE ini mendefinisikan 7 nilai etika AI yang diharapkan dipatuhi oleh pelaku industri:
| No | Nilai Etika | Penjelasan dalam SE |
|---|---|---|
| 1 | Inklusif | AI harus dapat diakses dan memberikan manfaat bagi semua lapisan masyarakat |
| 2 | Berdaya Guna | AI harus memberikan manfaat nyata bagi masyarakat dan lingkungan |
| 3 | Dapat Dipercaya | Sistem AI harus andal, aman, dan akurat |
| 4 | Perlindungan Data Pribadi | AI harus memproses data sesuai UU PDP |
| 5 | Inklusif dan Tidak Diskriminatif | AI tidak boleh menghasilkan output yang diskriminatif |
| 6 | Bertanggung Jawab | Ada akuntabilitas yang jelas atas keputusan AI |
| 7 | Berwawasan Kebhinekaan | AI harus mempertimbangkan nilai-nilai lokal Indonesia |
Keterbatasan SE ini:
- Tidak ada sanksi bagi yang tidak mematuhi.
- Tidak ada mekanisme pengawasan independen.
- Tidak mengatur sistem AI berisiko tinggi secara spesifik.
- Tidak mewajibkan transparansi algoritma.
12.3.3 Gap Analysis: Indonesia vs EU AI Act
GAP REGULASI AI INDONESIA vs EU AI ACT 2024
Dimensi EU AI Act Indonesia Saat Ini
βββββββββββ βββββββββββββββββββββ ββββββββββββββββββββββ
Klasifikasi β Empat tingkat risiko β Tidak ada klasifikasi
risiko AI yang jelas formal
Larangan β Social scoring, β Tidak ada larangan
eksplisit biometrik real-time formal sistem AI
dikecualikan tertentu
Kewajiban β Audit, logging, β Hanya anjuran
high-risk AI dokumentasi, third- dalam SE
party conformity
Hak individu β Hak penjelasan β Sebagian (UU PDP)
terhadap AI (Pasal 86 AI Act) β Tidak ada hak
β Hak menolak keputusan spesifik terhadap
otomatis penuh keputusan AI
Transparansi β Wajib label chatbot β Tidak ada kewajiban
AI & deepfake labeling AI
Pengawasan β AI Office EU β Belum ada otoritas
regulasi + Otoritas Nasional AI yang ditunjuk
di tiap negara secara resmi
Sanksi β Denda hingga β¬35 juta β Tidak ada sanksi
atau 7% turnover khusus AI
Standar β CEN-CENELEC standards β Belum ada standar
teknis yang diwajibkan teknis AI nasional
AI generatif β GPAI provisions β Tidak diatur
(LLM) untuk model besar secara spesifik12.3.4 Regulasi AI yang Berlaku Implisit di Indonesia
Meskipun tidak ada UU AI khusus, beberapa regulasi yang ada dapat diterapkan pada sistem AI:
UU PDP No. 27/2022:
- Pasal 22: pemrosesan data untuk profiling harus berbasis dasar hukum yang sah.
- Pasal 52: subjek data berhak menolak keputusan yang semata-mata didasarkan pada pemrosesan otomatis (automated decision-making) termasuk profiling.
- Pasal 27: data pribadi spesifik (kesehatan, biometrik) membutuhkan persetujuan eksplisit sebelum digunakan untuk melatih model AI.
UU ITE No. 1/2024:
- Pasal 28 ayat (1): AI yang menghasilkan konten hoaks dapat menjerat penggunanya.
- Pasal 27 ayat (3): deepfake yang mencemarkan nama baik dijerat Pasal 27(3).
- Pasal 35: manipulasi dokumen/data elektronik oleh AI tools bisa dijerat Pasal 35.
UU Perlindungan Konsumen No. 8/1999:
- Pasal 8: produk (termasuk layanan berbasis AI) harus sesuai dengan informasi yang dijanjikan.
- Pasal 4(c): konsumen berhak mendapat informasi yang benar, jelas, dan jujur.
- Berlaku untuk: layanan AI yang menjanjikan akurasi tertentu tetapi gagal.
BAGIAN 12.4 β TANGGUNG JAWAB HUKUM SISTEM AI
12.4.1 Pertanyaan Sentral: Siapa Bertanggung Jawab?
Ketika sistem AI membuat keputusan yang merugikan seseorang β kredit ditolak karena algoritma bias, diagnosis AI salah, mobil otonom menabrak β pertanyaan "siapa yang bertanggung jawab" menjadi sangat kompleks:
RANTAI AKTOR DALAM SISTEM AI
Data Provider Model Developer System Integrator
(penyedia data β (membangun & β (mengintegrasikan
pelatihan) melatih model) model ke produk)
β β β
βΌ βΌ βΌ
βββββββββββββββββββββββββββββββββββββββββββββββββ
SISTEM AI
(membuat keputusan)
βββββββββββββββββββββββββββββββββββββββββββββββββ
β
βΌ
KEPUTUSAN YANG MERUGIKAN
β
βββββββββββ΄βββββββββββββ
β β
βΌ βΌ
PENGGUNA AKHIR PIHAK KETIGA
yang dirugikan yang dirugikan
β
βΌ
SIAPA YANG DIGUGAT?12.4.2 Empat Kerangka Tanggung Jawab Hukum
Kerangka 1 β Tanggung Jawab Produk (Product Liability)
Sistem AI dapat dianggap sebagai "produk" β sehingga pembuatnya bertanggung jawab atas cacat produk yang menyebabkan kerugian.
Di Indonesia: UU Perlindungan Konsumen No. 8/1999 Pasal 19:
Pelaku usaha bertanggung jawab memberikan ganti rugi atas kerugian konsumen akibat mengonsumsi barang dan/atau jasa yang dihasilkannya.
PENERAPAN PRODUCT LIABILITY UNTUK AI
Sistem AI kredit scoring menolak pemohon kredit yang layak
karena bias dalam data pelatihan (data historis yang tidak
representatif untuk kelompok tertentu).
Analisis product liability:
β’ Apakah ada "cacat" produk? β Bias algoritma = cacat desain
β’ Apakah ada kerugian nyata? β Ditolak kredit = kerugian
β’ Apakah ada hubungan kausal? β Penolakan karena bias algoritma
Siapa yang bertanggung jawab?
β Developer yang membuat model dengan data bias
β Bank/fintech yang mengimplementasikan tanpa pengujian bias
β Atau keduanya (tanggung jawab bersama)Kerangka 2 β Kelalaian (Negligence)
Jika pengembang atau pengguna AI tidak mengambil langkah-langkah kewajaran yang seharusnya (standard of care) untuk mencegah kerugian yang dapat diramalkan.
Elemen kelalaian yang harus dibuktikan:
- Duty of Care: adanya kewajiban untuk berhati-hati.
- Breach of Duty: kewajiban tersebut dilanggar.
- Causation: pelanggaran tersebut menyebabkan kerugian.
- Damages: kerugian nyata yang dapat dikuantifikasi.
CONTOH PENERAPAN NEGLIGENCE AI:
Rumah sakit menggunakan AI diagnostik untuk membaca
foto rontgen. Sistem AI salah mengidentifikasi tumor.
Dokter langsung mengikuti rekomendasi AI tanpa
melakukan verifikasi mandiri. Pasien tidak mendapat
pengobatan yang tepat.
Analisis:
β’ Duty of care dokter: wajib menggunakan keahlian
profesional, tidak sekadar mengikuti AI
β’ Breach: tidak melakukan verifikasi independen
β’ Causation: keterlambatan diagnosis karena kelalaian
β’ Damages: memburuknya kondisi pasien
Siapa bertanggung jawab?
β Dokter (yang menerima rekomendasi tanpa verifikasi)
β Rumah sakit (yang tidak menyediakan protokol yang
mensyaratkan verifikasi manusia untuk output AI)
β Developer AI (jika sistem memiliki akurasi yang
dilebih-lebihkan dalam materi pemasaran)Kerangka 3 β Tanggung Jawab Regulasi (Regulatory Liability)
Dalam sektor yang diregulasi (keuangan, kesehatan, pendidikan), kegagalan memenuhi regulasi yang berlaku menciptakan tanggung jawab tersendiri.
Di Indonesia, contoh tanggung jawab regulasi AI:
TANGGUNG JAWAB REGULASI AI DI SEKTOR TERREGULASI
SEKTOR KEUANGAN (OJK):
β’ PSE keuangan yang menggunakan AI untuk keputusan kredit
wajib memastikan sistem sesuai regulasi OJK
β’ Jika AI melanggar prinsip perlindungan konsumen OJK:
β Sanksi administratif dari OJK
β Kewajiban ganti rugi ke konsumen
SEKTOR KESEHATAN (Kemenkes):
β’ Alat kesehatan berbasis AI harus mendapat izin edar
dari Kemenkes/BPOM
β’ Penggunaan di luar izin: sanksi administratif + pidana
SEKTOR PENDIDIKAN:
β’ Penggunaan AI untuk penilaian siswa yang tidak
transparan berpotensi melanggar hak siswa (UU Sisdiknas)Kerangka 4 β Tanggung Jawab atas Konten (Content Liability)
Ketika AI menghasilkan konten yang melanggar hukum β hoaks, pencemaran nama baik, pornografi, ujaran kebencian:
| Jenis Konten AI | Regulasi yang Berlaku | Siapa yang Digugat |
|---|---|---|
| Deepfake yang mencemarkan nama baik | UU ITE Pasal 27(3) | Pengguna yang mendistribusikan |
| Hoaks yang dihasilkan AI | UU ITE Pasal 28(1) | Pengguna yang menyebarkan |
| Konten CSAM yang dihasilkan AI | UU Perlindungan Anak | Pengguna yang membuat/mendistribusikan |
| AI yang menghasilkan instruksi berbahaya | UU ITE Pasal 27-35 | Pengguna (tergantung konteks) |
Pertanyaan terbuka yang belum terjawab regulasi Indonesia: Apakah platform AI (yang menyediakan model) ikut bertanggung jawab atas konten berbahaya yang dihasilkan modelnya? Ini adalah pertanyaan yang sedang diperdebatkan di seluruh dunia.
12.4.3 Studi Kasus: AI Credit Scoring dan Tanggung Jawab
SKENARIO: ALGORITMA KREDIT YANG DISKRIMINATIF
PT Fintech Cepat menggunakan model ML untuk menilai
kelayakan kredit calon peminjam. Model dilatih dengan
data pinjaman historis 5 tahun terakhir.
Ternyata, secara statistik, model ini secara konsisten
MENOLAK pemohon dari kecamatan X dengan alasan yang tidak
jelas. Diinvestigasi, ditemukan bahwa data historis
mengandung bias: kredit ke wilayah X memang jarang disetujui
sebelumnya bukan karena risiko kredit yang tinggi, tapi
karena kebijakan internal yang diskriminatif.
Model belajar dari data yang bias β mengreplikasi dan
memperkuat diskriminasi tersebut.
ANALISIS TANGGUNG JAWAB:
UU Perlindungan Konsumen (Pasal 4, 8):
β Konsumen (pemohon) berhak mendapat perlakuan adil
β PT Fintech melanggar hak konsumen atas informasi
yang benar tentang dasar penolakan
UU PDP (Pasal 52):
β Pemohon berhak menolak keputusan otomatis
β PT Fintech wajib menyediakan mekanisme ini
OJK POJK Perlindungan Konsumen:
β Wajib ada mekanisme pengaduan yang efektif
β Keputusan kredit harus dapat dipertanggungjawabkan
Potensi Gugatan:
β Gugatan perdata kolektif dari pemohon di kecamatan X
β Sanksi administratif OJK
β Reputasi rusak
PELAJARAN UNTUK DEVELOPER:
β Audit bias data sebelum melatih model
β Fairness testing: uji apakah model berlaku adil
untuk semua kelompok demografis
β Explainability: sediakan penjelasan atas setiap
keputusan otomatis
β Human oversight: jangan sepenuhnya serahkan
keputusan kredit kepada AI tanpa review manusiaBAGIAN 12.5 β DEEPFAKE DAN KONTEN SINTETIS BERBASIS AI
12.5.1 Apa itu Deepfake dan Seberapa Bahaya?
Deepfake (dari deep learning + fake) adalah konten video, audio, atau gambar yang dimanipulasi secara AI untuk membuat seseorang tampak mengatakan atau melakukan sesuatu yang tidak pernah dilakukannya.
EVOLUSI DEEPFAKE
2017: Deepfake pertama muncul β video pornografi
menggunakan wajah selebriti
2019β2020: Alat deepfake menjadi mudah diakses publik
2021β2022: Deepfake digunakan untuk disinformasi politik
2023β2024: Real-time deepfake dalam video call
AI voice cloning dalam hitungan detik
Penipuan deepfake CEO mulai marak
SKALA ANCAMAN (Data Global 2023β2024):
β’ Deepfake pornografi non-konsensual: 90%+ dari semua
deepfake yang beredar, 99% targetnya perempuan
β’ Penipuan deepfake "CEO fraud": kerugian rata-rata
per insiden USD 250.000+
β’ Deepfake dalam pemilu: ditemukan di 25+ negara
menjelang pemilu 202412.5.2 Kerangka Hukum Deepfake di Indonesia
Indonesia belum memiliki regulasi khusus deepfake. Penanganannya menggunakan pasal-pasal yang ada secara analogi:
PETA REGULASI DEEPFAKE INDONESIA
JENIS DEEPFAKE PASAL YANG BERLAKU TANTANGAN HUKUM
βββββββββββββ ββββββββββββββββββββββ βββββββββββββββββ
Deepfake pornografi Pasal 27(1) UU ITE Korban harus
non-konsensual UU Perlindungan Anak mengadukan (delik
(IBSA/Revenge (jika target anak) aduan) β stigma
Porn AI-enhanced) membuat korban enggan
Deepfake untuk Pasal 28(1) UU ITE Siapa yang
penipuan finansial + KUHP 378 (penipuan) "mendistribusikan"?
(voice cloning CEO, + KUHP 263 (pemalsuan) Pembuat deepfake?
video call palsu) Yang menggunakan?
Deepfake pencemaran Pasal 27(3) UU ITE Pembuktian bahwa
nama baik (setelah UU 1/2024: target tidak pernah
(video palsu target delik aduan absolut) berkata/melakukan ini
mengakui kejahatan)
Deepfake disinformasi Pasal 28(2) UU ITE Kapan "satire"
politik (ujaran kebencian menjadi "hoaks"?
berbasis SARA)
AI hallucination Belum ada regulasi Siapa yang
yang merugikan spesifik β gap besar bertanggung jawab
(AI mengklaim fakta atas "halusinasi"
palsu) AI?12.5.3 Regulasi Deepfake di EU dan Implikasinya
EU AI Act mengatur deepfake melalui ketentuan transparansi (Pasal 50):
Pengguna deepfake generator wajib memberi label bahwa konten tersebut dihasilkan atau dimanipulasi secara AI (AI-generated content disclosure).
Pengecualian: konten yang jelas-jelas merupakan seni atau satire, dengan catatan tidak menipu publik tentang kenyataannya.
Standar yang mulai berkembang:
- C2PA (Coalition for Content Provenance and Authenticity): standar teknis untuk menyematkan metadata yang menunjukkan asal-usul konten (apakah AI-generated atau asli). Didukung oleh Adobe, Microsoft, Google, Sony, ARM.
- Watermarking AI content: beberapa platform mulai mewajibkan watermark invisible pada konten AI-generated.
BAGIAN 12.6 β KERANGKA HUKUM FINTECH DI INDONESIA
12.6.1 Ekosistem Fintech Indonesia
Indonesia adalah pasar fintech terbesar di Asia Tenggara. Ekosistemnya mencakup:
PETA EKOSISTEM FINTECH INDONESIA
FINTECH INDONESIA
β
βββββββββββββββββββββββΌβββββββββββββββββββββββββ
β β β
βΌ βΌ βΌ
SISTEM PINJAMAN ASET & INVESTASI
PEMBAYARAN (LENDING) DIGITAL
β β β
QRIS P2P Lending Aset Kripto
E-wallet (Pinjol) Reksa dana digital
Uang elektronik BNPL (Buy Now Robo-advisor
Transfer digital Pay Later) Equity crowdfunding
β β β
βΌ βΌ βΌ
BI (Bank Indonesia) OJK (regulasi) OJK (setelah Okt 2023)
PBI Sistem POJK P2P, sebelumnya: Bappebti
Pembayaran POJK BNPL12.6.2 Regulasi Sistem Pembayaran Digital (Bank Indonesia)
Dasar Hukum: Peraturan Bank Indonesia (PBI) β BI bertanggung jawab atas stabilitas dan keamanan sistem pembayaran nasional.
Regulasi utama:
| Instrumen | Perihal | Relevansi |
|---|---|---|
| PBI No. 23/6/PBI/2021 | Penyedia Jasa Pembayaran | Mengatur perizinan dompet digital, payment gateway, transfer dana |
| PADG No. 22/2020 | QRIS | Standarisasi QR code Indonesia β satu standar untuk semua pembayaran QR |
| UU No. 7/2011 tentang Mata Uang | Uang elektronik vs mata uang | Kripto bukan alat pembayaran sah di Indonesia (meski bisa jadi aset) |
QRIS (Quick Response Code Indonesian Standard):
- Diluncurkan 2019 sebagai standardisasi QR code pembayaran.
- Memungkinkan satu merchant QR code menerima pembayaran dari semua dompet digital.
- Saat ini: transaksi QRIS telah melampaui triliun rupiah per bulan.
12.6.3 Regulasi P2P Lending (Pinjol)
Peer-to-Peer (P2P) Lending atau "pinjaman online" adalah salah satu sektor fintech yang paling berdampak sekaligus paling kontroversial di Indonesia.
Dasar Hukum: POJK No. 10/POJK.05/2022 tentang Layanan Pendanaan Bersama Berbasis Teknologi Informasi (menggantikan POJK 77/2016).
Ketentuan Utama POJK 10/2022:
KETENTUAN KRITIS POJK P2P LENDING
PERIZINAN:
β’ Wajib berizin OJK sebelum beroperasi
β’ Modal disetor minimum: Rp 25 miliar
β’ Pemegang saham pengendali: WNI atau badan hukum Indonesia
BATASAN OPERASIONAL:
β’ Jumlah pinjaman per peminjam: maksimum Rp 10 miliar
(UMKM) atau Rp 2 miliar (produktif/konsumtif)
β’ Wajib menggunakan rekening escrow terpisah
(dana pemberi pinjaman β dana perusahaan P2P)
PERLINDUNGAN KONSUMEN:
β’ Wajib mengungkapkan tingkat keberhasilan bayar (TKB90)
secara transparan di website
β’ Penagihan hanya boleh dilakukan dengan cara yang wajar
dan bermartabat (larangan penagihan dengan intimidasi)
β’ Wajib verifikasi identitas peminjam (KYC/AML)
KEAMANAN DATA:
β’ Wajib menjaga kerahasiaan data nasabah
β’ Tunduk pada UU PDP untuk pemrosesan data pribadi
TEKNOLOGI:
β’ Wajib menggunakan infrastruktur data di wilayah Indonesia
(data localization requirement)Fenomena "Pinjol Ilegal" dan Implikasinya:
PINJOL LEGAL vs PINJOL ILEGAL
PINJOL LEGAL (terdaftar OJK):
β’ Bunga/biaya: diatur OJK
β’ Data: dilindungi UU PDP
β’ Penagihan: sesuai POJK
β’ Ada mekanisme pengaduan
PINJOL ILEGAL (tidak terdaftar):
β’ Bunga: tidak terbatas (sering 2-4% per HARI)
β’ Data: akses kontak HP korban untuk intimidasi
β’ Penagihan: ancaman, penyebaran foto, kontak semua
orang di daftar kontak peminjam
β’ Tidak ada perlindungan hukum efektif
TINDAKAN HUKUM TERHADAP PINJOL ILEGAL:
β’ OJK blokir akses ke platform
β’ Polri/Dittipidsiber tangkap pengelola
β’ Pasal yang digunakan: UU ITE Pasal 30 (akses ilegal),
Pasal 32 (pencurian data), UU No. 4/2023 (P2SK)
+ KUHP (pemerasan, ancaman)12.6.4 Regulasi Aset Kripto di Indonesia
Sejarah Regulasi Kripto Indonesia:
TIMELINE REGULASI KRIPTO INDONESIA
2018: Bappebti mengeluarkan regulasi awal
β Kripto diakui sebagai "aset komoditi",
BUKAN alat pembayaran yang sah
(BI melarang kripto sebagai alat bayar)
2019β2021: Bappebti menetapkan daftar kripto yang
boleh diperdagangkan (whitelist)
2021: Perba (Peraturan Bappebti) No. 8/2021 β kripto
hanya boleh diperdagangkan melalui bursa kripto
yang terdaftar di Bappebti
Oktober 2023: Pengalihan pengawasan dari Bappebti
ke OJK (berdasarkan UU P2SK No. 4/2023)
2024: OJK memulai transisi pengawasan aset kripto
β Regulasi baru OJK sedang disiapkanKarakteristik Regulasi Kripto Indonesia:
| Aspek | Ketentuan |
|---|---|
| Status hukum kripto | Aset komoditi (bukan mata uang, bukan efek) |
| Alat pembayaran | DILARANG digunakan sebagai alat pembayaran (BI) |
| Perdagangan | Diizinkan melalui exchange yang terdaftar OJK/Bappebti |
| Pajak | PPh 0,1% dari nilai transaksi (Final), PPN 0,11% |
| Perlindungan investor | Tunduk pada ketentuan OJK setelah pengalihan 2023 |
Isu hukum kripto yang belum terselesaikan:
- Bagaimana DeFi (Decentralized Finance) diatur jika tidak ada entitas terpusat?
- Bagaimana NFT (Non-Fungible Token) dikategorikan β aset kripto, karya seni digital (HKI), atau keduanya?
- Bagaimana regulasi stablecoin yang mengacu nilai rupiah?
- Apakah DAO (Decentralized Autonomous Organization) memiliki legal standing?
12.6.5 Kerangka Perlindungan Konsumen Fintech
POJK + SE OJK yang relevan:
Konsumen fintech dilindungi oleh kerangka perlindungan berlapis:
KERANGKA PERLINDUNGAN KONSUMEN FINTECH INDONESIA
OJK (Regulasi Sektoral):
β’ POJK No. 6/POJK.07/2022 tentang Perlindungan Konsumen
dan Masyarakat di Sektor Jasa Keuangan
β’ SE OJK No. 6/SEOJK.07/2022
β Hak mendapat informasi yang benar & transparan
β Hak pengaduan yang ditangani dalam tenggat waktu
β Larangan pratik misselling dan hidden charges
Bank Indonesia (Sistem Pembayaran):
β’ PBI tentang perlindungan konsumen sistem pembayaran
β Keamanan data transaksi
β Kewajiban asuransi/garansi transaksi
UU Perlindungan Konsumen (Umum):
β’ UU No. 8/1999 tetap berlaku sebagai perlindungan dasar
yang tidak bisa dikurangi oleh regulasi sektoral
UU PDP (Lintas Sektor):
β’ Data pengguna fintech = data pribadi
β’ Wajib consent, hak akses, hak hapus, dll.BAGIAN 12.7 β PERSPEKTIF ISLAMI: TEKNOLOGI BARU DAN MAQASHID SYARIAH
12.7.1 Kecerdasan Buatan dan Tanggung Jawab Moral
Islam menekankan bahwa manusia adalah khalifah di bumi β pengemban amanah untuk mengelola teknologi dengan bijaksana:
"InnΔ« jΔ'ilun fil-ardhi khalΔ«fah" "Sesungguhnya Aku hendak menjadikan seorang khalifah di bumi" (QS. Al-Baqarah: 30)
Sebagai khalifah digital, tanggung jawab pengembang dan pengguna AI meliputi:
TANGGUNG JAWAB KHALIFAH DIGITAL DALAM KONTEKS AI
1. TIDAK MEMBUAT BAHAYA (La Dharara wa la Dhirar)
β Sistem AI yang diskriminatif atau bias
menyebabkan bahaya pada kelompok tertentu
β Deepfake yang merusak reputasi = kezaliman
2. KEADILAN DAN TIDAK DISKRIMINATIF (Al-'Adl)
β Algoritma kredit yang bias terhadap
kelompok tertentu melanggar prinsip keadilan
β Sistem AI harus dipastikan tidak mereplikasi
atau memperkuat ketidakadilan sosial
3. TRANSPARANSI DAN KEJUJURAN (As-Shidq)
β AI yang mengklaim kemampuan yang tidak ada
(AI hallucination yang tidak diungkapkan) = bohong
β Wajib memberi tahu pengguna saat mereka
berinteraksi dengan AI (transparansi)
4. AMANAH DALAM PENGELOLAAN DATA
β Data pengguna yang digunakan melatih AI
adalah amanah β harus dikelola dengan benar
β Melanggar privasi untuk keuntungan AI
adalah pengkhianatan amanah12.7.2 Fintech dalam Perspektif Hukum Islam
Fintech menghadirkan peluang dan tantangan dari perspektif muamalah Islam:
P2P Lending dan Riba:
ANALISIS SYARIAH P2P LENDING
KONVENSIONAL: BERBASIS SYARIAH:
P2P lending dengan bunga P2P lending dengan skema:
tetap β berpotensi RIBA β’ Mudharabah (bagi hasil)
β’ Musyarakah (kemitraan)
β’ Ijarah (sewa manfaat)
β’ Murabahah (jual beli)
OJK mengatur P2P OJK juga mengatur P2P
lending konvensional lending syariah:
(POJK 10/2022) β Wajib ada Dewan Pengawas
Syariah (DPS)
β Produk harus mendapat
fatwa DSN-MUIAset Kripto dalam Perspektif Fiqh: Para ulama berbeda pendapat tentang status hukum kripto:
| Posisi Ulama | Argumen |
|---|---|
| Haram (Majelis Ulama Indonesia 2021) | Mengandung unsur gharar (ketidakpastian berlebih) dan digunakan untuk spekulasi; tidak memiliki underlying asset yang jelas |
| Mubah/Boleh (sebagian ulama) | Seperti emas digital; nilainya ditentukan kesepakatan; selama digunakan untuk transaksi yang halal, tidak ada keharaman inheren |
| Kondisional | Boleh untuk investasi dengan mempertimbangkan tujuan dan cara penggunaannya |
Posisi DSN-MUI: Fatwa MUI No. 13 Tahun 2021 menyatakan bahwa mata uang kripto sebagai mata uang hukumnya haram β namun sebagai komoditi/aset digital yang memenuhi syarat dapat diperjualbelikan. Ini sejalan dengan posisi Bappebti yang mengakui kripto sebagai aset komoditi.
AKTIVITAS PEMBELAJARAN PERTEMUAN 12
Jadwal Sesi (100 Menit)
| Waktu | Durasi | Aktivitas | Metode |
|---|---|---|---|
| 0β5 mnt | 5 mnt | Cek kehadiran + review Tugas 6 (esai refleksi P10) | Administratif |
| 5β40 mnt | 35 mnt | Ceramah interaktif: EU AI Act, regulasi AI Indonesia, tanggung jawab AI, fintech | Ceramah + tanya jawab |
| 40β80 mnt | 40 mnt | Diskusi isu kontemporer kelompok (lihat instruksi di bawah) | Kelompok |
| 80β95 mnt | 15 mnt | Presentasi & perdebatan antar kelompok | Presentasi kelompok |
| 95β100 mnt | 5 mnt | Pengumuman Tugas 8 via Ngaji UIN Gusdur + preview P13 | Administratif |
Diskusi Isu Kontemporer (40 Menit)
Bagi kelas menjadi 4 kelompok. Setiap kelompok mendapat satu skenario dan menjawab pertanyaan yang diberikan. Di akhir, setiap kelompok mempresentasikan kesimpulan (3β4 menit), dan kelas melakukan perdebatan singkat.
KELOMPOK 1: AI HAKIM DAN KEPUTUSAN OTOMATIS
Skenario: Pengadilan Negeri kota X berencana mengimplementasikan sistem AI untuk membantu hakim dalam menentukan lamanya vonis pidana. Model dilatih dari 10.000+ putusan pengadilan sebelumnya. Dalam pengujian, model menunjukkan akurasi 85% dalam "memprediksi" vonis yang serupa dengan hakim manusia. Sistem ini hanya akan memberikan rekomendasi β keputusan akhir tetap di tangan hakim.
Pertanyaan Diskusi:
- Berdasarkan EU AI Act, masuk kategori risiko apa sistem AI ini? Kewajiban apa saja yang berlaku?
- Apa risiko jika model dilatih dari putusan sejarah yang mungkin mengandung bias (misalnya, vonis lebih berat untuk kelompok sosial tertentu)?
- Apakah penggunaan sistem AI rekomendasi seperti ini konsisten dengan hak terdakwa untuk mendapat pengadilan yang adil (due process)? Gunakan perspektif hukum Indonesia dan nilai-nilai Islam tentang keadilan.
- Rekomendasi: Bolehkah sistem ini diimplementasikan? Jika ya, dengan syarat apa?
KELOMPOK 2: CHATBOT HUKUM YANG "SALAH"
Skenario: LexBot adalah chatbot hukum berbasis LLM yang diluncurkan startup Indonesia. LexBot mengklaim dapat memberikan "konsultasi hukum awal" dan "panduan pengisian dokumen hukum." Seorang pengguna menggunakan LexBot untuk mendapat panduan mengisi surat gugatan cerai. LexBot memberikan panduan yang salah secara prosedural. Pengguna mengikuti panduan tersebut, gugatan ditolak pengadilan, dan pengguna kehilangan uang pendaftaran serta harus menunggu 6 bulan lagi untuk mengajukan kembali.
Pertanyaan Diskusi:
- Siapa yang bertanggung jawab atas kerugian pengguna? Developer LexBot? Pengguna? Gunakan kerangka product liability dan negligence.
- Apakah LexBot termasuk sistem AI "high-risk" menurut EU AI Act? Jelaskan.
- Apakah LexBot melanggar regulasi Indonesia yang ada saat ini? Regulasi apa yang paling relevan?
- Bagaimana seharusnya startup AI yang menyediakan informasi hukum melindungi diri secara hukum (mitigasi risiko)? Diskusikan dari perspektif terms of service, disclaimer, dan desain produk.
KELOMPOK 3: PINJOL DAN ALGORITMA PENOLAKAN KREDIT
Skenario: PT RupiahCepat adalah P2P lending yang terdaftar OJK. Mereka menggunakan model ML untuk menentukan kelayakan kredit. Data yang digunakan untuk melatih model mencakup: riwayat transaksi digital, data e-commerce, lokasi GPS, dan pola penggunaan media sosial. Seorang guru di Jawa Tengah (Pak Ahmad, 35 tahun) ditolak kreditnya. Ketika menanyakan alasan, ia diberi jawaban generik: "Tidak memenuhi kriteria penilaian internal." Pak Ahmad curiga ditolak karena ia sering membaca artikel politik oposisi.
Pertanyaan Diskusi:
- Apakah PT RupiahCepat boleh menggunakan data media sosial dan GPS dalam model kredit scoring? Analisis dari perspektif UU PDP (jenis data, dasar pemrosesan, hak subjek data).
- Apakah Pak Ahmad berhak mendapat penjelasan atas penolakan kreditnya? Merujuk ke pasal apa dalam hukum Indonesia?
- Jika benar model menolak berdasarkan bacaan politik, pelanggaran apa yang terjadi?
- Sebagai pengembang yang ditugasi membangun model ini, langkah-langkah apa yang seharusnya Anda ambil untuk memastikan model adil dan patuh hukum?
KELOMPOK 4: DEEPFAKE DALAM PEMILU
Skenario: Tiga hari sebelum pemilihan gubernur, sebuah video viral di media sosial menampilkan kandidat A seolah mengakui menerima suap dalam percakapan privat. Video tersebut sangat meyakinkan. Kandidat A langsung menyatakan video itu deepfake. Tim teknisnya menganalisis dan menemukan artefak AI dalam video. Namun video sudah ditonton 5 juta kali. Kandidat A kalah tipis dalam pemilihan dan menduga deepfake menentukan hasil.
Pertanyaan Diskusi:
- Berdasarkan UU ITE yang ada, pasal apa yang dapat menjerat pembuat dan penyebar deepfake ini? Apa kelemahan regulasi saat ini untuk kasus semacam ini?
- Apakah EU AI Act (jika berlaku di Indonesia) memberikan perlindungan yang lebih baik? Ketentuan mana yang paling relevan?
- Siapa yang bertanggung jawab secara hukum: pembuat deepfake, orang yang pertama menyebarkan, atau platform media sosial yang tidak mendeteksi lebih cepat?
- Apa kebijakan yang seharusnya Indonesia miliki untuk menghadapi ancaman deepfake dalam proses demokrasi? Berikan rekomendasi konkret (regulasi, teknis, atau keduanya).
EVALUASI PERTEMUAN 12
Jenis Evaluasi: Tugas | Dikumpulkan via Ngaji UIN Gusdur
Tugas 8: Tugas Analitik Singkat
(Individu β via Ngaji UIN Gusdur β dikumpulkan maksimal 1 hari sebelum Pertemuan 13 β Masuk komponen Tugas)
Format: PDF (ketik jawaban di Word/Google Docs, export ke PDF) Petunjuk: Kerjakan sendiri. Jawab dengan tepat dan argumentatif. Sertakan referensi regulasi yang relevan dalam jawaban Anda.
Soal 1 β Klasifikasi Risiko EU AI Act (20 poin)
Sebuah startup Indonesia mengembangkan sistem AI dengan tiga fitur berikut:
- Fitur A: Analisis CV untuk seleksi awal kandidat kerja.
- Fitur B: Rekomendasi produk berdasarkan riwayat pembelian.
- Fitur C: Deteksi emosi karyawan dari foto selfie kehadiran harian.
Untuk masing-masing fitur, tentukan: (a) tingkat risiko menurut EU AI Act, dan (b) kewajiban apa yang harus dipenuhi pengembang. Berikan alasan untuk setiap jawaban.
Soal 2 β Perbandingan Regulasi AI Indonesia vs EU (30 poin)
Apa perbedaan terbesar antara pendekatan regulasi AI di EU (EU AI Act) dan di Indonesia saat ini? Menurut Anda, pendekatan mana yang lebih tepat untuk Indonesia β regulasi mengikat seperti EU AI Act, atau pendekatan soft law seperti SE Menkominfo 9/2023? Berikan argumentasi minimal 150 kata dengan mempertimbangkan konteks Indonesia (tahap perkembangan industri AI, kapasitas regulasi, dll.).
Soal 3 β Tanggung Jawab Hukum AI (50 poin)
Skenario: Sebuah perusahaan pinjaman online (P2P lending, terdaftar OJK) menggunakan algoritma AI untuk menentukan kelayakan kredit. Algoritma tersebut secara konsisten menolak pemohon dari kota-kota tertentu di Indonesia Timur tanpa penjelasan yang memadai. Dari analisis data, ditemukan bahwa algoritma memiliki korelasi dengan kode pos β pemohon dari wilayah tertentu otomatis mendapat skor lebih rendah meskipun profil keuangannya sama.
Pertanyaan: a) Identifikasi minimal tiga pelanggaran hukum yang mungkin terjadi berdasarkan regulasi Indonesia yang berlaku. Sebutkan pasal/regulasi spesifik untuk setiap pelanggaran. b) Siapa saja pihak yang berpotensi bertanggung jawab secara hukum? Analisis tanggung jawab setiap pihak menggunakan kerangka yang ada. c) Apa yang seharusnya Anda lakukan β sebagai developer yang baru menyadari bias ini dalam sistem yang sudah berjalan β dari perspektif hukum dan etika?
Rubrik Penilaian Tugas 8:
| Soal | Bobot | Indikator Nilai Penuh |
|---|---|---|
| Soal 1 | 20% | Tiga klasifikasi tepat + kewajiban relevan disebutkan + alasan logis |
| Soal 2 | 30% | Perbedaan akurat; posisi didukung argumen berbasis konteks Indonesia; β₯150 kata |
| Soal 3 | 50% | β₯3 pelanggaran + pasal spesifik; analisis tanggung jawab setiap pihak; respons etis yang realistis |
KONEKSI KE PERTEMUAN LAIN
Benang Merah P11βP12βP13
P11: HKI DIGITAL P12: REGULASI AI & FINTECH P13: TRANSFORMASI DIGITAL
"Siapa pemilik "Siapa bertanggung jawab "Bagaimana pemerintah
kode/model AI?" atas keputusan AI?" menggunakan teknologi
untuk layanan publik?"
Hak cipta Tanggung jawab SPBE (e-Government)
AI-generated code β product liability AI β AI dalam layanan publik:
+ regulasi OJK siapa regulasinya?
Lisensi OSS untuk EU AI Act: PDN dan keamanan
model AI open transparansi data pemerintah yang
source (Llama, etc.) & accountability β menggunakan AIKoneksi ke Pertemuan 15 (Etika Profesi TI)
Dilema etika yang akan muncul di P15 dengan konteks P12:
- Bias detection: Anda menemukan model yang Anda kembangkan memiliki bias terhadap kelompok tertentu. Perusahaan menyuruh Anda tidak melaporkan. Apa yang Anda lakukan?
- AI hallucination: Produk Anda melebih-lebihkan kemampuan AI (AI washing). Anda diminta membuat klaim pemasaran yang tidak akurat tentang akurasi model.
- Surveillance capitalism: Perusahaan menggunakan data pengguna aplikasi untuk melatih model tanpa persetujuan eksplisit.
Koneksi ke Proyek Legal Audit (P16)
Bagi kelompok yang memilih aplikasi berbasis AI atau fintech sebagai objek audit, P12 memberikan kerangka analisis:
- Apakah aplikasi menggunakan AI dalam keputusan yang mempengaruhi pengguna? Jika ya, apakah ada transparansi tentang cara kerjanya?
- Jika fintech, apakah memiliki izin OJK yang tepat?
- Apakah ada risiko pelanggaran UU PDP dalam pemrosesan data untuk model AI?
- Apakah ada mekanisme pengaduan bagi pengguna yang merasa dirugikan keputusan AI?
RANGKUMAN MATERI PERTEMUAN 12
| Topik | Poin Kunci |
|---|---|
| Mengapa AI perlu regulasi khusus | Perilaku probabilistik, black box, skalabilitas dampak β berbeda dari software deterministik biasa |
| EU AI Act: 4 tingkat risiko | Unacceptable (dilarang total), High Risk (kewajiban ketat), Limited Risk (transparansi), Minimal Risk (tidak diatur) |
| Sistem high-risk AI | Kredit scoring, rekrutmen, medis, pendidikan, keamanan β wajib registrasi, audit, logging, human oversight |
| GPAI/LLM | Model besar (>10^25 FLOPs) wajib adversarial testing + pelaporan insiden; model biasa wajib dokumentasi & compliance hak cipta |
| Regulasi AI Indonesia | SE Menkominfo 9/2023 = soft law, tidak mengikat; gap besar vs EU AI Act di klasifikasi, sanksi, transparansi |
| Regulasi implisit AI | UU PDP (profiling, automated decision-making), UU ITE (deepfake, hoaks), UU PK (product liability) |
| Tanggung jawab AI | 4 kerangka: product liability, negligence, regulatory liability, content liability |
| Credit scoring AI bias | Studi kasus bias wilayah: violates UU PDP Pasal 52, POJK konsumen, prinsip keadilan |
| Deepfake | Jenis (porn, fraud, pencemaran, disinformasi) Γ regulasi yang berlaku; EU mensyaratkan label AI content |
| P2P Lending | POJK 10/2022: izin wajib, escrow, KYC, larangan penagihan intimidatif, TKB90 transparan |
| Kripto | Aset komoditi (bukan mata uang); beralih ke OJK 2023; isu DeFi, NFT, stablecoin belum terselesaikan |
| Perspektif Islami | Khalifah digital: tanggung jawab AI = amanah; deepfake = kezaliman; P2P konvensional vs syariah; fatwa MUI kripto |
DAFTAR REFERENSI
Format APA edisi ke-7
Peraturan Perundang-Undangan & Regulasi Indonesia
Undang-Undang Nomor 8 Tahun 1999 tentang Perlindungan Konsumen. Lembaran Negara Republik Indonesia Tahun 1999 Nomor 42.
Undang-Undang Nomor 4 Tahun 2023 tentang Pengembangan dan Penguatan Sektor Keuangan. Lembaran Negara Republik Indonesia Tahun 2023 Nomor 4.
Peraturan Otoritas Jasa Keuangan Nomor 10/POJK.05/2022 tentang Layanan Pendanaan Bersama Berbasis Teknologi Informasi. (Regulasi P2P Lending)
Peraturan Otoritas Jasa Keuangan Nomor 6/POJK.07/2022 tentang Perlindungan Konsumen dan Masyarakat di Sektor Jasa Keuangan.
Surat Edaran Menteri Komunikasi dan Informatika Nomor 9 Tahun 2023 tentang Etika Kecerdasan Artifisial. Kementerian Komunikasi dan Informatika RI.
Peraturan Bappebti Nomor 8 Tahun 2021 tentang Pedoman Penyelenggaraan Perdagangan Pasar Fisik Aset Kripto di Bursa Berjangka.
Regulasi Internasional
Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence (Artificial Intelligence Act). Official Journal of the European Union, L 2024/1689. https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:32024R1689 (opens in a new tab)
Buku & Artikel Ilmiah
Hidayat, T., & Muttaqin, Z. (2020). Pengaturan kecerdasan buatan di Indonesia: Perspektif hukum. Jurnal Bina Mulia Hukum, 5(1), 14β30.
Chesney, R., & Citron, D. K. (2019). Deep fakes: A looming challenge for privacy, democracy, and national security. California Law Review, 107(6), 1753β1820.
Wachter, S., Mittelstadt, B., & Floridi, L. (2017). Why a right to explanation of automated decision-making does not exist in the general data protection regulation. International Data Privacy Law, 7(2), 76β99.
Zuboff, S. (2019). The age of surveillance capitalism: The fight for a human future at the new frontier of power. Public Affairs.
Bygrave, L. A. (2020). Minding the machine: Article 22 of the GDPR and its mind the gap. European Data Protection Law Review, 6(2), 158β169.
Laporan & Dokumen Resmi
Kementerian Komunikasi dan Informatika. (2021). Panduan etika kecerdasan artifisial Indonesia. Kominfo. https://aptika.kominfo.go.id (opens in a new tab)
Otoritas Jasa Keuangan. (2024). Perkembangan industri fintech Indonesia: Laporan triwulanan. OJK. https://ojk.go.id (opens in a new tab)
OECD. (2023). OECD principles on AI. OECD. https://oecd.ai/en/ai-principles (opens in a new tab)
NIST. (2023). AI risk management framework (AI RMF 1.0). National Institute of Standards and Technology. https://www.nist.gov/system/files/documents/2023/01/26/AI%20RMF%201.0.pdf (opens in a new tab)
Fatwa & Referensi Keagamaan
Majelis Ulama Indonesia (MUI). (2021). Fatwa MUI No. 13 Tahun 2021 tentang Hukum Aset Kripto sebagai Komoditi yang Diperdagangkan di Pasar Kripto. MUI.
Dewan Syariah Nasional - MUI. Fatwa-fatwa DSN-MUI tentang fintech syariah. https://dsnmui.or.id (opens in a new tab)
Referensi Online
European Commission. (2024). EU AI Act: What is it and how does it work? https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai (opens in a new tab)
Otoritas Jasa Keuangan. Daftar fintech lending berizin OJK. https://www.ojk.go.id/id/kanal/iknb/financial-technology/ (opens in a new tab)
Modul ini adalah bagian dari seri materi kuliah INF2505 β Hukum dan Kebijakan Teknologi Informasi. Materi ini mencakup regulasi yang masih terus berkembang β mahasiswa dianjurkan secara aktif memantau perkembangan regulasi AI Indonesia dan peraturan OJK terbaru.
Dosen Pengampu: Mohammad Reza Maulana, M.Kom β Program Studi Informatika, Fakultas Ekonomi dan Bisnis Islam, UIN K.H. Abdurrahman Wahid Pekalongan