βš–οΈ Hukum & Kebijakan TI
πŸŽ“ Pertemuan
Pertemuan 12: Regulasi AI, Fintech & Teknologi Emerging

MODUL HUKUM DAN KEBIJAKAN TEKNOLOGI INFORMASI

Mata Kuliah: Hukum dan Kebijakan Teknologi Informasi
Kode MK: INF2505
SKS: 2 (Teori)
Semester: 2
Program Studi: Informatika
Fakultas: Ekonomi dan Bisnis Islam
Universitas: UIN K.H. Abdurrahman Wahid Pekalongan

Dosen Pengampu: Mohammad Reza Maulana, M.Kom
NIP: 199110082025051002

Pertemuan: 12 dari 16
Durasi: 100 menit (2 Γ— 50 menit)


Panduan Penggunaan Modul

Modul ini mencakup Pertemuan 12 (Regulasi AI, Fintech, dan Teknologi Emerging). Ini adalah pertemuan yang paling "forward-looking" dalam seluruh rangkaian kuliah β€” membahas teknologi yang hukumnya masih terus berkembang dan belum sepenuhnya stabil. Mahasiswa perlu membaca dengan sikap kritis, tidak hanya menerima informasi sebagai fakta final, tetapi mempertanyakan dan mengevaluasi kecukupan regulasi yang ada.

Catatan Administratif:

  • Tugas Analitik P12 diberikan via Ngaji UIN Gusdur, dikumpulkan maksimal 1 hari sebelum Pertemuan 13.
  • Tugas 7 (Analisis Lisensi OSS) masih berjalan β€” deadline di Pertemuan 14.
  • Materi P12 sangat relevan dengan Proyek Legal Audit (P16) bagi kelompok yang memilih aplikasi berbasis AI atau fintech sebagai objek audit.

PERTEMUAN 12

Regulasi AI, Fintech, dan Teknologi Emerging: EU AI Act, Hukum Fintech Indonesia, dan Tanggung Jawab Hukum Sistem AI

Sub-CPMK: Sub-CPMK02.2.1
Bobot: 7% dari Nilai Akhir


JEMBATAN DARI PERTEMUAN 11

PERTEMUAN 11: HKI DIGITAL             PERTEMUAN 12: REGULASI TEKNOLOGI EMERGING
"Melindungi apa yang sudah            "Mengatur apa yang baru ada:
 ada: kode, karya, lisensi"            AI, fintech, aset kripto"

 β€’ Hak cipta β†’ melindungi             β€’ EU AI Act β†’ mengatur risiko
   ekspresi kode yang ada               sistem AI yang sudah ada
 β€’ Lisensi GPL/MIT β†’ mengatur         β€’ POJK Fintech β†’ mengatur
   distribusi software                  layanan keuangan digital
 β€’ Paten β†’ melindungi                 β€’ Regulasi kripto β†’ mengatur
   invensi teknis                       aset berbasis blockchain

         β”‚                                          β”‚
         β””β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”¬β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”˜
                           β–Ό
          "Dari P11, kita tahu AI-generated code
           menimbulkan pertanyaan siapa pemilik hak
           cipta hasilnya. Di P12, pertanyaannya lebih
           luas: ketika AI membuat keputusan yang
           merugikan seseorang β€” menolak kredit,
           salah diagnosis, membuat deepfake β€” siapa
           yang secara hukum bertanggung jawab?"

Pertanyaan jembatan dari P11: Di workshop lisensi P11, kelompok TensorFlow menemukan Apache 2.0 memiliki klausul paten. Bayangkan TensorFlow digunakan untuk membangun model kredit scoring. Jika model itu diskriminatif dan merugikan pemohon kredit β€” apakah lisensi Apache 2.0 melindungi Google dari tanggung jawab? Atau ada regulasi lain yang berlaku? P12 menjawab pertanyaan ini.


CAPAIAN PEMBELAJARAN

Sub-CPMK yang Dituju

PertemuanSub-CPMKDeskripsiLevel Kognitif
12Sub-CPMK02.2.1Mengevaluasi regulasi kecerdasan buatan (EU AI Act vs regulasi Indonesia), kerangka hukum fintech, dan tanggung jawab hukum sistem AI termasuk deepfake dan konten sintetisC5 β€” Mengevaluasi

Indikator Ketercapaian

Setelah pertemuan ini, mahasiswa mampu:

  1. Menjelaskan pendekatan berbasis risiko dalam EU AI Act 2024 dan mengklasifikasikan sistem AI berdasarkan tingkat risikonya (C2).
  2. Membandingkan pendekatan regulasi AI antara EU, AS, dan Indonesia secara kritis (C4).
  3. Menganalisis kerangka hukum fintech Indonesia meliputi P2P lending, sistem pembayaran, dan aset kripto (C4).
  4. Mengevaluasi siapa yang bertanggung jawab secara hukum ketika sistem AI menyebabkan kerugian (C5).
  5. Mengidentifikasi celah (gap) regulasi AI Indonesia dibandingkan standar internasional dan merekomendasikan arah kebijakan (C5).
  6. Menganalisis implikasi hukum deepfake dan konten sintetis berbasis AI menggunakan regulasi yang ada di Indonesia (C4).

BAGIAN 12.1 β€” LANSKAP REGULASI AI GLOBAL: MENGAPA MENDESAK?

12.1.1 Skala Dampak AI yang Membuat Regulasi Tidak Bisa Ditunda

Sebelum masuk ke detail regulasi, penting memahami mengapa AI perlu diatur secara khusus β€” berbeda dari teknologi digital pada umumnya yang sudah diatur UU ITE dan UU PDP.

MENGAPA AI MEMERLUKAN REGULASI TERSENDIRI?

AI BERBEDA DARI SOFTWARE BIASA:

Software biasa:                    Sistem AI (ML/Deep Learning):
─────────────                      ────────────────────────────
Perilaku deterministik             Perilaku probabilistik β€”
(input sama β†’ output sama)         hasil bisa berbeda untuk
                                   input yang mirip

Logika dapat diperiksa             "Black box" β€” sulit dijelaskan
baris demi baris                   mengapa keputusan tertentu
                                   diambil

Pengembang memprogram              Model "belajar" dari data β€”
setiap aturan secara               aturan tidak ditulis eksplisit
eksplisit                          oleh programmer

Kesalahan mudah dilacak            Bias dalam data β†’ bias dalam
ke baris kode tertentu             keputusan, sulit dilacak
                                   sumbernya

SKALA DAMPAK YANG TIDAK TERBANDINGKAN:
β€’ Jutaan keputusan per hari: kredit, rekrutmen, konten yang
  dilihat, diagnosis medis
β€’ Satu model dapat mempengaruhi jutaan orang sekaligus
β€’ Deepfake dapat menghancurkan reputasi dalam hitungan jam
β€’ AI generatif dapat memproduksi disinformasi dalam skala masif

12.1.2 Tiga Pendekatan Regulasi AI Global

PERBANDINGAN PENDEKATAN REGULASI AI TIGA JURISDIKSI UTAMA

         UNI EROPA                  AMERIKA SERIKAT          INDONESIA
         (EU AI Act, 2024)          (Executive Order          (SE Menkominfo
                                     + sektoral)               9/2023)
         ─────────────              ─────────────             ──────────
FILOSOFI  Rights-based,             Innovation-first,         Soft law,
          precautionary,            voluntary                 tidak mengikat
          risk-based                standards

SIFAT     Hukum mengikat            Campuran:                 Panduan etika
          (legally binding)         EO + sektoral            (advisory)
                                    + self-regulation

CAKUPAN   Komprehensif:             Sektoral: FDA,            Belum ada UU
          semua sistem AI           CFPB, EEOC               AI khusus
          berbasis risiko

PENEGAKAN Denda hingga €30 juta    FTC enforcement           Tidak ada sanksi
          atau 6% revenue           untuk harms               formal

TRANSPARANSI Wajib (high-risk):     Voluntary                 Anjuran
          explainability,
          logging, audit

INOVASI   Sandbox untuk            Mendukung                 Mendukung,
          high-risk AI             inovasi                   tanpa batasan
                                                              formal

TIMELINE  Berlaku 2025–2027         Berkelanjutan             Belum ada
          (bertahap)                                          timeline

BAGIAN 12.2 β€” EU AI ACT (REGULATION EU 2024/1689): PENDEKATAN BERBASIS RISIKO

12.2.1 Lahirnya EU AI Act

Perjalanan Regulasi:

  • April 2021: Proposal Komisi Eropa diajukan.
  • Juni 2023: Parlemen Eropa mengadopsi posisi negosiasi.
  • Desember 2023: Kesepakatan "trilogue" (Komisi, Parlemen, Dewan EU).
  • 13 Maret 2024: Parlemen Eropa mengesahkan secara resmi.
  • 1 Agustus 2024: Berlaku β€” dengan periode transisi bertahap hingga 2027.

EU AI Act adalah regulasi AI pertama yang komprehensif dan mengikat secara hukum di dunia. Ia menjadi referensi global dan kemungkinan besar akan mempengaruhi arah regulasi AI di banyak negara termasuk Indonesia.

Prinsip dasar EU AI Act:

  1. Berbasis risiko (risk-based approach): semakin tinggi risiko AI terhadap hak asasi dan keselamatan, semakin ketat regulasinya.
  2. Berorientasi hak asasi (human-centric): AI harus melayani manusia, bukan sebaliknya.
  3. Transparansi (transparency): pengguna harus tahu ketika berinteraksi dengan AI.
  4. Pengawasan manusia (human oversight): manusia harus tetap dapat mengintervensi.
  5. Penegakan hukum yang efektif (effective enforcement): sanksi yang nyata.

12.2.2 Empat Tingkatan Risiko EU AI Act

Ini adalah inti dari seluruh arsitektur regulasi EU AI Act:

PIRAMIDA RISIKO EU AI ACT

              β”Œβ”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”
              β”‚    UNACCEPTABLE RISK (DILARANG)  β”‚
              β”‚         Level 1 β€” LARANGAN TOTAL β”‚
              β””β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”˜
                           β”‚ CONTOH:
                           β”‚ β€’ Social scoring oleh pemerintah
                           β”‚ β€’ Manipulasi subliminal yang merugikan
                           β”‚ β€’ Eksploitasi kerentanan (umur, disabilitas)
                           β”‚ β€’ Identifikasi biometrik real-time
                           β”‚   di ruang publik (kecuali pengecualian ketat)
                           β”‚ β€’ Profiling emosi di tempat kerja & sekolah
                           β”‚ β€’ Inferensi atribut sensitif (ras, orientasi)
                           β”‚   dari biometrik
                           β–Ό

         β”Œβ”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”
         β”‚         HIGH RISK β€” Level 2                β”‚
         β”‚         KEWAJIBAN KETAT                    β”‚
         β””β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”˜
                           β”‚ CONTOH:
                           β”‚ β€’ AI dalam infrastruktur kritis
                           β”‚ β€’ AI rekrutmen dan seleksi karyawan
                           β”‚ β€’ AI penilaian kredit (credit scoring)
                           β”‚ β€’ AI dalam pendidikan (penilaian siswa)
                           β”‚ β€’ AI diagnostik medis
                           β”‚ β€’ AI migrasi dan manajemen perbatasan
                           β”‚ β€’ AI dalam sistem peradilan
                           β”‚ β€’ AI keamanan publik (prediktif)
                           β–Ό

   β”Œβ”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”
   β”‚            LIMITED RISK β€” Level 3                     β”‚
   β”‚            KEWAJIBAN TRANSPARANSI                     β”‚
   β””β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”˜
                           β”‚ CONTOH:
                           β”‚ β€’ Chatbot (wajib label "ini AI")
                           β”‚ β€’ Deepfake generator
                           β”‚   (wajib label konten sintetis)
                           β”‚ β€’ Sistem rekomendasi konten
                           β–Ό

β”Œβ”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”
β”‚                  MINIMAL RISK β€” Level 4                      β”‚
β”‚                  TIDAK DIATUR KHUSUS                         β”‚
β””β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”˜
                           β”‚ CONTOH:
                           β”‚ β€’ Spam filter
                           β”‚ β€’ AI dalam video game
                           β”‚ β€’ Aplikasi produktivitas berbasis AI
                           β”‚ β€’ Rekomendasi musik/film sederhana

12.2.3 Kewajiban untuk Sistem AI Berisiko Tinggi (High-Risk)

Inilah yang paling relevan untuk calon pengembang yang mungkin akan membangun sistem AI di sektor keuangan, pendidikan, atau kesehatan:

KewajibanPenjelasanSiapa yang Diwajibkan
Pendaftaran (Registration)Sistem AI high-risk wajib didaftarkan dalam database EU sebelum dirilis ke pasarDeveloper/Provider
Manajemen RisikoWajib memiliki sistem manajemen risiko sepanjang siklus hidup sistemDeveloper/Provider
Data GovernanceData pelatihan harus relevan, representatif, dan bebas bias signifikanDeveloper/Provider
Dokumentasi TeknisDokumentasi lengkap tentang cara kerja sistem untuk keperluan auditDeveloper/Provider
Logging OtomatisSistem harus menyimpan log aktivitas untuk memungkinkan rekonstruksi insidenDeveloper/Provider
Transparansi kepada PenggunaPengguna harus diberi informasi memadai tentang cara kerja sistemDeveloper/Deployer
Human OversightHarus ada mekanisme yang memungkinkan manusia memantau, mengintervensi, dan menghentikan sistemDeployer
Akurasi, Robustness, CybersecurityStandar teknis minimum untuk keandalan sistemDeveloper/Provider
Conformity AssessmentBeberapa kategori high-risk harus melewati penilaian pihak ketiga sebelum rilisDeveloper/Provider

Siapa "Provider" dan siapa "Deployer"?

RANTAI TANGGUNG JAWAB DALAM EU AI ACT

AI PROVIDER                          AI DEPLOYER
(Developer/Pembuat)                  (Pengguna/Operator)

Perusahaan yang                      Perusahaan/instansi yang
mengembangkan dan                    menggunakan sistem AI
memasarkan sistem AI                 yang dibuat provider
untuk digunakan orang lain           dalam layanan mereka

Contoh: OpenAI (GPT),                Contoh: Bank yang
Anthropic (Claude),                  menggunakan model AI
startup AI Indonesia                 pihak ketiga untuk
                                     credit scoring

KEWAJIBAN UTAMA:                     KEWAJIBAN UTAMA:
β€’ Teknis: manajemen risiko,          β€’ Implementasi human
  dokumentasi, logging                 oversight
β€’ Menjamin kepatuhan regulasi        β€’ Registrasi di EU database
                                     β€’ Memastikan input data sah

12.2.4 Ketentuan Khusus untuk AI Generatif (GPAI)

EU AI Act juga mengatur General Purpose AI (GPAI) β€” model AI seperti GPT-4, Claude, Gemini yang dirancang untuk berbagai tugas umum:

Kategori GPAIKriteriaKewajiban Tambahan
GPAI biasaModel AI untuk keperluan umumDokumentasi teknis, kepatuhan hak cipta, ringkasan data pelatihan
GPAI dengan risiko sistemikFLOPs > 10^25 saat pelatihan (model sangat besar)Semua kewajiban GPAI biasa + adversarial testing, pelaporan insiden serius, cybersecurity measures

Relevansi untuk pengembang Indonesia: Jika Anda menggunakan API dari model GPAI (OpenAI, Anthropic, Google) untuk membangun layanan yang menarget pengguna di EU, regulasi ini akan berlaku untuk Anda sebagai deployer.

12.2.5 Sanksi EU AI Act

SKEMA SANKSI EU AI ACT

Pelanggaran sistem unacceptable risk:
β†’ Denda hingga €35 juta ATAU 7% dari total turnover global tahunan
  (mana yang LEBIH TINGGI)

Pelanggaran kewajiban sistem high-risk:
β†’ Denda hingga €15 juta ATAU 3% dari total turnover global tahunan

Pelanggaran lainnya (termasuk informasi tidak benar ke regulator):
β†’ Denda hingga €7,5 juta ATAU 1,5% dari total turnover global tahunan

Untuk startup dan UKM: denda proporsional yang lebih rendah

Efek ekstrateritorial: Seperti GDPR, EU AI Act berlaku untuk sistem AI yang ditawarkan di pasar EU, terlepas dari di mana developer berdomisili. Artinya, startup Indonesia yang ingin masuk pasar EU harus mematuhi EU AI Act.


BAGIAN 12.3 β€” REGULASI AI DI INDONESIA: KONDISI AKTUAL DAN GAP ANALYSIS

12.3.1 Kerangka Regulasi AI Indonesia Saat Ini

Indonesia belum memiliki undang-undang AI yang berdiri sendiri. Regulasi AI saat ini bersifat:

  1. Soft law β€” tidak mengikat secara hukum.
  2. Sektoral β€” tersebar di berbagai regulasi OJK, BI, Kemenkes, dll.
  3. Implisit β€” regulasi umum seperti UU ITE dan UU PDP berlaku untuk AI tanpa menyebut AI secara eksplisit.
PETA REGULASI AI INDONESIA SAAT INI

LEVEL INSTRUMEN             REGULASI                    SIFAT
──────────────────         ─────────────────────        ────────
Surat Edaran Menteri       SE Menkominfo No. 9/2023     Panduan
                           tentang Etika AI             (tidak
                                                         mengikat)

Regulasi OJK               POJK tentang IT              Mengikat
(Fintech, Perbankan)       untuk sektor keuangan        (sektoral)

Regulasi BI                PBI Sistem Pembayaran        Mengikat
                           (QRIS, uang elektronik)      (sektoral)

Regulasi Umum yang         UU ITE No. 1/2024            Mengikat
Berlaku Implisit           UU PDP No. 27/2022           (umum, tidak
                           UU Perlindungan Konsumen     spesifik AI)

Rencana Masa Depan         RKAI (Regulasi AI Indonesia) Dalam
                           sedang disiapkan             pembahasan

12.3.2 SE Menkominfo No. 9/2023 tentang Etika Kecerdasan Artifisial

Tanggal: 19 Oktober 2023
Sifat: Panduan β€” tidak mengikat secara hukum

SE ini mendefinisikan 7 nilai etika AI yang diharapkan dipatuhi oleh pelaku industri:

NoNilai EtikaPenjelasan dalam SE
1InklusifAI harus dapat diakses dan memberikan manfaat bagi semua lapisan masyarakat
2Berdaya GunaAI harus memberikan manfaat nyata bagi masyarakat dan lingkungan
3Dapat DipercayaSistem AI harus andal, aman, dan akurat
4Perlindungan Data PribadiAI harus memproses data sesuai UU PDP
5Inklusif dan Tidak DiskriminatifAI tidak boleh menghasilkan output yang diskriminatif
6Bertanggung JawabAda akuntabilitas yang jelas atas keputusan AI
7Berwawasan KebhinekaanAI harus mempertimbangkan nilai-nilai lokal Indonesia

Keterbatasan SE ini:

  • Tidak ada sanksi bagi yang tidak mematuhi.
  • Tidak ada mekanisme pengawasan independen.
  • Tidak mengatur sistem AI berisiko tinggi secara spesifik.
  • Tidak mewajibkan transparansi algoritma.

12.3.3 Gap Analysis: Indonesia vs EU AI Act

GAP REGULASI AI INDONESIA vs EU AI ACT 2024

Dimensi            EU AI Act                   Indonesia Saat Ini
───────────        ─────────────────────       ──────────────────────
Klasifikasi        βœ“ Empat tingkat risiko       βœ— Tidak ada klasifikasi
risiko AI            yang jelas                   formal

Larangan           βœ“ Social scoring,           βœ— Tidak ada larangan
eksplisit            biometrik real-time          formal sistem AI
                     dikecualikan               tertentu

Kewajiban          βœ“ Audit, logging,           βœ— Hanya anjuran
high-risk AI         dokumentasi, third-         dalam SE
                     party conformity

Hak individu       βœ“ Hak penjelasan            βœ“ Sebagian (UU PDP)
terhadap AI          (Pasal 86 AI Act)          βœ— Tidak ada hak
                   βœ“ Hak menolak keputusan       spesifik terhadap
                     otomatis penuh              keputusan AI

Transparansi       βœ“ Wajib label chatbot       βœ— Tidak ada kewajiban
AI                   & deepfake                  labeling AI

Pengawasan         βœ“ AI Office EU              βœ— Belum ada otoritas
regulasi             + Otoritas Nasional         AI yang ditunjuk
                     di tiap negara              secara resmi

Sanksi             βœ“ Denda hingga €35 juta     βœ— Tidak ada sanksi
                     atau 7% turnover            khusus AI

Standar            βœ“ CEN-CENELEC standards     βœ— Belum ada standar
teknis               yang diwajibkan             teknis AI nasional

AI generatif       βœ“ GPAI provisions           βœ— Tidak diatur
(LLM)                untuk model besar          secara spesifik

12.3.4 Regulasi AI yang Berlaku Implisit di Indonesia

Meskipun tidak ada UU AI khusus, beberapa regulasi yang ada dapat diterapkan pada sistem AI:

UU PDP No. 27/2022:

  • Pasal 22: pemrosesan data untuk profiling harus berbasis dasar hukum yang sah.
  • Pasal 52: subjek data berhak menolak keputusan yang semata-mata didasarkan pada pemrosesan otomatis (automated decision-making) termasuk profiling.
  • Pasal 27: data pribadi spesifik (kesehatan, biometrik) membutuhkan persetujuan eksplisit sebelum digunakan untuk melatih model AI.

UU ITE No. 1/2024:

  • Pasal 28 ayat (1): AI yang menghasilkan konten hoaks dapat menjerat penggunanya.
  • Pasal 27 ayat (3): deepfake yang mencemarkan nama baik dijerat Pasal 27(3).
  • Pasal 35: manipulasi dokumen/data elektronik oleh AI tools bisa dijerat Pasal 35.

UU Perlindungan Konsumen No. 8/1999:

  • Pasal 8: produk (termasuk layanan berbasis AI) harus sesuai dengan informasi yang dijanjikan.
  • Pasal 4(c): konsumen berhak mendapat informasi yang benar, jelas, dan jujur.
  • Berlaku untuk: layanan AI yang menjanjikan akurasi tertentu tetapi gagal.

BAGIAN 12.4 β€” TANGGUNG JAWAB HUKUM SISTEM AI

12.4.1 Pertanyaan Sentral: Siapa Bertanggung Jawab?

Ketika sistem AI membuat keputusan yang merugikan seseorang β€” kredit ditolak karena algoritma bias, diagnosis AI salah, mobil otonom menabrak β€” pertanyaan "siapa yang bertanggung jawab" menjadi sangat kompleks:

RANTAI AKTOR DALAM SISTEM AI

Data Provider         Model Developer         System Integrator
(penyedia data      β†’ (membangun &          β†’ (mengintegrasikan
 pelatihan)           melatih model)           model ke produk)
      β”‚                     β”‚                       β”‚
      β–Ό                     β–Ό                       β–Ό
      ─────────────────────────────────────────────────
                       SISTEM AI
                  (membuat keputusan)
      ─────────────────────────────────────────────────
                           β”‚
                           β–Ό
                 KEPUTUSAN YANG MERUGIKAN
                           β”‚
                 β”Œβ”€β”€β”€β”€β”€β”€β”€β”€β”€β”΄β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”
                 β”‚                      β”‚
                 β–Ό                      β–Ό
          PENGGUNA AKHIR          PIHAK KETIGA
         yang dirugikan          yang dirugikan
                 β”‚
                 β–Ό
         SIAPA YANG DIGUGAT?

12.4.2 Empat Kerangka Tanggung Jawab Hukum

Kerangka 1 β€” Tanggung Jawab Produk (Product Liability)

Sistem AI dapat dianggap sebagai "produk" β€” sehingga pembuatnya bertanggung jawab atas cacat produk yang menyebabkan kerugian.

Di Indonesia: UU Perlindungan Konsumen No. 8/1999 Pasal 19:

Pelaku usaha bertanggung jawab memberikan ganti rugi atas kerugian konsumen akibat mengonsumsi barang dan/atau jasa yang dihasilkannya.

PENERAPAN PRODUCT LIABILITY UNTUK AI

Sistem AI kredit scoring menolak pemohon kredit yang layak
karena bias dalam data pelatihan (data historis yang tidak
representatif untuk kelompok tertentu).

Analisis product liability:
β€’ Apakah ada "cacat" produk? β†’ Bias algoritma = cacat desain
β€’ Apakah ada kerugian nyata? β†’ Ditolak kredit = kerugian
β€’ Apakah ada hubungan kausal? β†’ Penolakan karena bias algoritma

Siapa yang bertanggung jawab?
β†’ Developer yang membuat model dengan data bias
β†’ Bank/fintech yang mengimplementasikan tanpa pengujian bias
β†’ Atau keduanya (tanggung jawab bersama)

Kerangka 2 β€” Kelalaian (Negligence)

Jika pengembang atau pengguna AI tidak mengambil langkah-langkah kewajaran yang seharusnya (standard of care) untuk mencegah kerugian yang dapat diramalkan.

Elemen kelalaian yang harus dibuktikan:

  1. Duty of Care: adanya kewajiban untuk berhati-hati.
  2. Breach of Duty: kewajiban tersebut dilanggar.
  3. Causation: pelanggaran tersebut menyebabkan kerugian.
  4. Damages: kerugian nyata yang dapat dikuantifikasi.
CONTOH PENERAPAN NEGLIGENCE AI:

Rumah sakit menggunakan AI diagnostik untuk membaca
foto rontgen. Sistem AI salah mengidentifikasi tumor.
Dokter langsung mengikuti rekomendasi AI tanpa
melakukan verifikasi mandiri. Pasien tidak mendapat
pengobatan yang tepat.

Analisis:
β€’ Duty of care dokter: wajib menggunakan keahlian
  profesional, tidak sekadar mengikuti AI
β€’ Breach: tidak melakukan verifikasi independen
β€’ Causation: keterlambatan diagnosis karena kelalaian
β€’ Damages: memburuknya kondisi pasien

Siapa bertanggung jawab?
β†’ Dokter (yang menerima rekomendasi tanpa verifikasi)
β†’ Rumah sakit (yang tidak menyediakan protokol yang
   mensyaratkan verifikasi manusia untuk output AI)
β†’ Developer AI (jika sistem memiliki akurasi yang
   dilebih-lebihkan dalam materi pemasaran)

Kerangka 3 β€” Tanggung Jawab Regulasi (Regulatory Liability)

Dalam sektor yang diregulasi (keuangan, kesehatan, pendidikan), kegagalan memenuhi regulasi yang berlaku menciptakan tanggung jawab tersendiri.

Di Indonesia, contoh tanggung jawab regulasi AI:

TANGGUNG JAWAB REGULASI AI DI SEKTOR TERREGULASI

SEKTOR KEUANGAN (OJK):
β€’ PSE keuangan yang menggunakan AI untuk keputusan kredit
  wajib memastikan sistem sesuai regulasi OJK
β€’ Jika AI melanggar prinsip perlindungan konsumen OJK:
  β†’ Sanksi administratif dari OJK
  β†’ Kewajiban ganti rugi ke konsumen

SEKTOR KESEHATAN (Kemenkes):
β€’ Alat kesehatan berbasis AI harus mendapat izin edar
  dari Kemenkes/BPOM
β€’ Penggunaan di luar izin: sanksi administratif + pidana

SEKTOR PENDIDIKAN:
β€’ Penggunaan AI untuk penilaian siswa yang tidak
  transparan berpotensi melanggar hak siswa (UU Sisdiknas)

Kerangka 4 β€” Tanggung Jawab atas Konten (Content Liability)

Ketika AI menghasilkan konten yang melanggar hukum β€” hoaks, pencemaran nama baik, pornografi, ujaran kebencian:

Jenis Konten AIRegulasi yang BerlakuSiapa yang Digugat
Deepfake yang mencemarkan nama baikUU ITE Pasal 27(3)Pengguna yang mendistribusikan
Hoaks yang dihasilkan AIUU ITE Pasal 28(1)Pengguna yang menyebarkan
Konten CSAM yang dihasilkan AIUU Perlindungan AnakPengguna yang membuat/mendistribusikan
AI yang menghasilkan instruksi berbahayaUU ITE Pasal 27-35Pengguna (tergantung konteks)

Pertanyaan terbuka yang belum terjawab regulasi Indonesia: Apakah platform AI (yang menyediakan model) ikut bertanggung jawab atas konten berbahaya yang dihasilkan modelnya? Ini adalah pertanyaan yang sedang diperdebatkan di seluruh dunia.

12.4.3 Studi Kasus: AI Credit Scoring dan Tanggung Jawab

SKENARIO: ALGORITMA KREDIT YANG DISKRIMINATIF

PT Fintech Cepat menggunakan model ML untuk menilai
kelayakan kredit calon peminjam. Model dilatih dengan
data pinjaman historis 5 tahun terakhir.

Ternyata, secara statistik, model ini secara konsisten
MENOLAK pemohon dari kecamatan X dengan alasan yang tidak
jelas. Diinvestigasi, ditemukan bahwa data historis
mengandung bias: kredit ke wilayah X memang jarang disetujui
sebelumnya bukan karena risiko kredit yang tinggi, tapi
karena kebijakan internal yang diskriminatif.

Model belajar dari data yang bias β†’ mengreplikasi dan
memperkuat diskriminasi tersebut.

ANALISIS TANGGUNG JAWAB:

UU Perlindungan Konsumen (Pasal 4, 8):
β†’ Konsumen (pemohon) berhak mendapat perlakuan adil
β†’ PT Fintech melanggar hak konsumen atas informasi
  yang benar tentang dasar penolakan

UU PDP (Pasal 52):
β†’ Pemohon berhak menolak keputusan otomatis
β†’ PT Fintech wajib menyediakan mekanisme ini

OJK POJK Perlindungan Konsumen:
β†’ Wajib ada mekanisme pengaduan yang efektif
β†’ Keputusan kredit harus dapat dipertanggungjawabkan

Potensi Gugatan:
β†’ Gugatan perdata kolektif dari pemohon di kecamatan X
β†’ Sanksi administratif OJK
β†’ Reputasi rusak

PELAJARAN UNTUK DEVELOPER:
β†’ Audit bias data sebelum melatih model
β†’ Fairness testing: uji apakah model berlaku adil
   untuk semua kelompok demografis
β†’ Explainability: sediakan penjelasan atas setiap
   keputusan otomatis
β†’ Human oversight: jangan sepenuhnya serahkan
   keputusan kredit kepada AI tanpa review manusia

BAGIAN 12.5 β€” DEEPFAKE DAN KONTEN SINTETIS BERBASIS AI

12.5.1 Apa itu Deepfake dan Seberapa Bahaya?

Deepfake (dari deep learning + fake) adalah konten video, audio, atau gambar yang dimanipulasi secara AI untuk membuat seseorang tampak mengatakan atau melakukan sesuatu yang tidak pernah dilakukannya.

EVOLUSI DEEPFAKE

2017: Deepfake pertama muncul β€” video pornografi
      menggunakan wajah selebriti
2019–2020: Alat deepfake menjadi mudah diakses publik
2021–2022: Deepfake digunakan untuk disinformasi politik
2023–2024: Real-time deepfake dalam video call
           AI voice cloning dalam hitungan detik
           Penipuan deepfake CEO mulai marak

SKALA ANCAMAN (Data Global 2023–2024):
β€’ Deepfake pornografi non-konsensual: 90%+ dari semua
  deepfake yang beredar, 99% targetnya perempuan
β€’ Penipuan deepfake "CEO fraud": kerugian rata-rata
  per insiden USD 250.000+
β€’ Deepfake dalam pemilu: ditemukan di 25+ negara
  menjelang pemilu 2024

12.5.2 Kerangka Hukum Deepfake di Indonesia

Indonesia belum memiliki regulasi khusus deepfake. Penanganannya menggunakan pasal-pasal yang ada secara analogi:

PETA REGULASI DEEPFAKE INDONESIA

JENIS DEEPFAKE        PASAL YANG BERLAKU       TANTANGAN HUKUM
─────────────         ──────────────────────   ─────────────────
Deepfake pornografi   Pasal 27(1) UU ITE       Korban harus
non-konsensual        UU Perlindungan Anak      mengadukan (delik
(IBSA/Revenge         (jika target anak)        aduan) β€” stigma
Porn AI-enhanced)                              membuat korban enggan

Deepfake untuk        Pasal 28(1) UU ITE       Siapa yang
penipuan finansial    + KUHP 378 (penipuan)    "mendistribusikan"?
(voice cloning CEO,   + KUHP 263 (pemalsuan)   Pembuat deepfake?
video call palsu)                              Yang menggunakan?

Deepfake pencemaran   Pasal 27(3) UU ITE       Pembuktian bahwa
nama baik             (setelah UU 1/2024:      target tidak pernah
(video palsu target   delik aduan absolut)     berkata/melakukan ini
mengakui kejahatan)

Deepfake disinformasi Pasal 28(2) UU ITE       Kapan "satire"
politik               (ujaran kebencian        menjadi "hoaks"?
                       berbasis SARA)

AI hallucination      Belum ada regulasi       Siapa yang
yang merugikan        spesifik β€” gap besar     bertanggung jawab
(AI mengklaim fakta                            atas "halusinasi"
palsu)                                         AI?

12.5.3 Regulasi Deepfake di EU dan Implikasinya

EU AI Act mengatur deepfake melalui ketentuan transparansi (Pasal 50):

Pengguna deepfake generator wajib memberi label bahwa konten tersebut dihasilkan atau dimanipulasi secara AI (AI-generated content disclosure).

Pengecualian: konten yang jelas-jelas merupakan seni atau satire, dengan catatan tidak menipu publik tentang kenyataannya.

Standar yang mulai berkembang:

  • C2PA (Coalition for Content Provenance and Authenticity): standar teknis untuk menyematkan metadata yang menunjukkan asal-usul konten (apakah AI-generated atau asli). Didukung oleh Adobe, Microsoft, Google, Sony, ARM.
  • Watermarking AI content: beberapa platform mulai mewajibkan watermark invisible pada konten AI-generated.

BAGIAN 12.6 β€” KERANGKA HUKUM FINTECH DI INDONESIA

12.6.1 Ekosistem Fintech Indonesia

Indonesia adalah pasar fintech terbesar di Asia Tenggara. Ekosistemnya mencakup:

PETA EKOSISTEM FINTECH INDONESIA

                    FINTECH INDONESIA
                          β”‚
    β”Œβ”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”Όβ”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”
    β”‚                     β”‚                         β”‚
    β–Ό                     β–Ό                         β–Ό
SISTEM              PINJAMAN              ASET & INVESTASI
PEMBAYARAN          (LENDING)             DIGITAL
    β”‚                     β”‚                         β”‚
  QRIS               P2P Lending           Aset Kripto
  E-wallet           (Pinjol)              Reksa dana digital
  Uang elektronik    BNPL (Buy Now         Robo-advisor
  Transfer digital   Pay Later)            Equity crowdfunding
    β”‚                     β”‚                         β”‚
    β–Ό                     β–Ό                         β–Ό
  BI (Bank Indonesia)  OJK (regulasi)    OJK (setelah Okt 2023)
  PBI Sistem           POJK P2P,         sebelumnya: Bappebti
  Pembayaran           POJK BNPL

12.6.2 Regulasi Sistem Pembayaran Digital (Bank Indonesia)

Dasar Hukum: Peraturan Bank Indonesia (PBI) β€” BI bertanggung jawab atas stabilitas dan keamanan sistem pembayaran nasional.

Regulasi utama:

InstrumenPerihalRelevansi
PBI No. 23/6/PBI/2021Penyedia Jasa PembayaranMengatur perizinan dompet digital, payment gateway, transfer dana
PADG No. 22/2020QRISStandarisasi QR code Indonesia β€” satu standar untuk semua pembayaran QR
UU No. 7/2011 tentang Mata UangUang elektronik vs mata uangKripto bukan alat pembayaran sah di Indonesia (meski bisa jadi aset)

QRIS (Quick Response Code Indonesian Standard):

  • Diluncurkan 2019 sebagai standardisasi QR code pembayaran.
  • Memungkinkan satu merchant QR code menerima pembayaran dari semua dompet digital.
  • Saat ini: transaksi QRIS telah melampaui triliun rupiah per bulan.

12.6.3 Regulasi P2P Lending (Pinjol)

Peer-to-Peer (P2P) Lending atau "pinjaman online" adalah salah satu sektor fintech yang paling berdampak sekaligus paling kontroversial di Indonesia.

Dasar Hukum: POJK No. 10/POJK.05/2022 tentang Layanan Pendanaan Bersama Berbasis Teknologi Informasi (menggantikan POJK 77/2016).

Ketentuan Utama POJK 10/2022:

KETENTUAN KRITIS POJK P2P LENDING

PERIZINAN:
β€’ Wajib berizin OJK sebelum beroperasi
β€’ Modal disetor minimum: Rp 25 miliar
β€’ Pemegang saham pengendali: WNI atau badan hukum Indonesia

BATASAN OPERASIONAL:
β€’ Jumlah pinjaman per peminjam: maksimum Rp 10 miliar
  (UMKM) atau Rp 2 miliar (produktif/konsumtif)
β€’ Wajib menggunakan rekening escrow terpisah
  (dana pemberi pinjaman β‰  dana perusahaan P2P)

PERLINDUNGAN KONSUMEN:
β€’ Wajib mengungkapkan tingkat keberhasilan bayar (TKB90)
  secara transparan di website
β€’ Penagihan hanya boleh dilakukan dengan cara yang wajar
  dan bermartabat (larangan penagihan dengan intimidasi)
β€’ Wajib verifikasi identitas peminjam (KYC/AML)

KEAMANAN DATA:
β€’ Wajib menjaga kerahasiaan data nasabah
β€’ Tunduk pada UU PDP untuk pemrosesan data pribadi

TEKNOLOGI:
β€’ Wajib menggunakan infrastruktur data di wilayah Indonesia
  (data localization requirement)

Fenomena "Pinjol Ilegal" dan Implikasinya:

PINJOL LEGAL vs PINJOL ILEGAL

PINJOL LEGAL (terdaftar OJK):
β€’ Bunga/biaya: diatur OJK
β€’ Data: dilindungi UU PDP
β€’ Penagihan: sesuai POJK
β€’ Ada mekanisme pengaduan

PINJOL ILEGAL (tidak terdaftar):
β€’ Bunga: tidak terbatas (sering 2-4% per HARI)
β€’ Data: akses kontak HP korban untuk intimidasi
β€’ Penagihan: ancaman, penyebaran foto, kontak semua
  orang di daftar kontak peminjam
β€’ Tidak ada perlindungan hukum efektif

TINDAKAN HUKUM TERHADAP PINJOL ILEGAL:
β€’ OJK blokir akses ke platform
β€’ Polri/Dittipidsiber tangkap pengelola
β€’ Pasal yang digunakan: UU ITE Pasal 30 (akses ilegal),
  Pasal 32 (pencurian data), UU No. 4/2023 (P2SK)
  + KUHP (pemerasan, ancaman)

12.6.4 Regulasi Aset Kripto di Indonesia

Sejarah Regulasi Kripto Indonesia:

TIMELINE REGULASI KRIPTO INDONESIA

2018: Bappebti mengeluarkan regulasi awal
       β†’ Kripto diakui sebagai "aset komoditi",
         BUKAN alat pembayaran yang sah
         (BI melarang kripto sebagai alat bayar)

2019–2021: Bappebti menetapkan daftar kripto yang
           boleh diperdagangkan (whitelist)

2021: Perba (Peraturan Bappebti) No. 8/2021 β€” kripto
      hanya boleh diperdagangkan melalui bursa kripto
      yang terdaftar di Bappebti

Oktober 2023: Pengalihan pengawasan dari Bappebti
              ke OJK (berdasarkan UU P2SK No. 4/2023)

2024: OJK memulai transisi pengawasan aset kripto
      β†’ Regulasi baru OJK sedang disiapkan

Karakteristik Regulasi Kripto Indonesia:

AspekKetentuan
Status hukum kriptoAset komoditi (bukan mata uang, bukan efek)
Alat pembayaranDILARANG digunakan sebagai alat pembayaran (BI)
PerdaganganDiizinkan melalui exchange yang terdaftar OJK/Bappebti
PajakPPh 0,1% dari nilai transaksi (Final), PPN 0,11%
Perlindungan investorTunduk pada ketentuan OJK setelah pengalihan 2023

Isu hukum kripto yang belum terselesaikan:

  • Bagaimana DeFi (Decentralized Finance) diatur jika tidak ada entitas terpusat?
  • Bagaimana NFT (Non-Fungible Token) dikategorikan β€” aset kripto, karya seni digital (HKI), atau keduanya?
  • Bagaimana regulasi stablecoin yang mengacu nilai rupiah?
  • Apakah DAO (Decentralized Autonomous Organization) memiliki legal standing?

12.6.5 Kerangka Perlindungan Konsumen Fintech

POJK + SE OJK yang relevan:

Konsumen fintech dilindungi oleh kerangka perlindungan berlapis:

KERANGKA PERLINDUNGAN KONSUMEN FINTECH INDONESIA

OJK (Regulasi Sektoral):
β€’ POJK No. 6/POJK.07/2022 tentang Perlindungan Konsumen
  dan Masyarakat di Sektor Jasa Keuangan
β€’ SE OJK No. 6/SEOJK.07/2022
  β†’ Hak mendapat informasi yang benar & transparan
  β†’ Hak pengaduan yang ditangani dalam tenggat waktu
  β†’ Larangan pratik misselling dan hidden charges

Bank Indonesia (Sistem Pembayaran):
β€’ PBI tentang perlindungan konsumen sistem pembayaran
  β†’ Keamanan data transaksi
  β†’ Kewajiban asuransi/garansi transaksi

UU Perlindungan Konsumen (Umum):
β€’ UU No. 8/1999 tetap berlaku sebagai perlindungan dasar
  yang tidak bisa dikurangi oleh regulasi sektoral

UU PDP (Lintas Sektor):
β€’ Data pengguna fintech = data pribadi
β€’ Wajib consent, hak akses, hak hapus, dll.

BAGIAN 12.7 β€” PERSPEKTIF ISLAMI: TEKNOLOGI BARU DAN MAQASHID SYARIAH

12.7.1 Kecerdasan Buatan dan Tanggung Jawab Moral

Islam menekankan bahwa manusia adalah khalifah di bumi β€” pengemban amanah untuk mengelola teknologi dengan bijaksana:

"Innī jā'ilun fil-ardhi khalīfah" "Sesungguhnya Aku hendak menjadikan seorang khalifah di bumi" (QS. Al-Baqarah: 30)

Sebagai khalifah digital, tanggung jawab pengembang dan pengguna AI meliputi:

TANGGUNG JAWAB KHALIFAH DIGITAL DALAM KONTEKS AI

1. TIDAK MEMBUAT BAHAYA (La Dharara wa la Dhirar)
   β†’ Sistem AI yang diskriminatif atau bias
     menyebabkan bahaya pada kelompok tertentu
   β†’ Deepfake yang merusak reputasi = kezaliman

2. KEADILAN DAN TIDAK DISKRIMINATIF (Al-'Adl)
   β†’ Algoritma kredit yang bias terhadap
     kelompok tertentu melanggar prinsip keadilan
   β†’ Sistem AI harus dipastikan tidak mereplikasi
     atau memperkuat ketidakadilan sosial

3. TRANSPARANSI DAN KEJUJURAN (As-Shidq)
   β†’ AI yang mengklaim kemampuan yang tidak ada
     (AI hallucination yang tidak diungkapkan) = bohong
   β†’ Wajib memberi tahu pengguna saat mereka
     berinteraksi dengan AI (transparansi)

4. AMANAH DALAM PENGELOLAAN DATA
   β†’ Data pengguna yang digunakan melatih AI
     adalah amanah β€” harus dikelola dengan benar
   β†’ Melanggar privasi untuk keuntungan AI
     adalah pengkhianatan amanah

12.7.2 Fintech dalam Perspektif Hukum Islam

Fintech menghadirkan peluang dan tantangan dari perspektif muamalah Islam:

P2P Lending dan Riba:

ANALISIS SYARIAH P2P LENDING

KONVENSIONAL:              BERBASIS SYARIAH:
P2P lending dengan bunga   P2P lending dengan skema:
tetap β†’ berpotensi RIBA    β€’ Mudharabah (bagi hasil)
                           β€’ Musyarakah (kemitraan)
                           β€’ Ijarah (sewa manfaat)
                           β€’ Murabahah (jual beli)

OJK mengatur P2P          OJK juga mengatur P2P
lending konvensional       lending syariah:
(POJK 10/2022)             β†’ Wajib ada Dewan Pengawas
                             Syariah (DPS)
                           β†’ Produk harus mendapat
                             fatwa DSN-MUI

Aset Kripto dalam Perspektif Fiqh: Para ulama berbeda pendapat tentang status hukum kripto:

Posisi UlamaArgumen
Haram (Majelis Ulama Indonesia 2021)Mengandung unsur gharar (ketidakpastian berlebih) dan digunakan untuk spekulasi; tidak memiliki underlying asset yang jelas
Mubah/Boleh (sebagian ulama)Seperti emas digital; nilainya ditentukan kesepakatan; selama digunakan untuk transaksi yang halal, tidak ada keharaman inheren
KondisionalBoleh untuk investasi dengan mempertimbangkan tujuan dan cara penggunaannya

Posisi DSN-MUI: Fatwa MUI No. 13 Tahun 2021 menyatakan bahwa mata uang kripto sebagai mata uang hukumnya haram β€” namun sebagai komoditi/aset digital yang memenuhi syarat dapat diperjualbelikan. Ini sejalan dengan posisi Bappebti yang mengakui kripto sebagai aset komoditi.


AKTIVITAS PEMBELAJARAN PERTEMUAN 12

Jadwal Sesi (100 Menit)

WaktuDurasiAktivitasMetode
0–5 mnt5 mntCek kehadiran + review Tugas 6 (esai refleksi P10)Administratif
5–40 mnt35 mntCeramah interaktif: EU AI Act, regulasi AI Indonesia, tanggung jawab AI, fintechCeramah + tanya jawab
40–80 mnt40 mntDiskusi isu kontemporer kelompok (lihat instruksi di bawah)Kelompok
80–95 mnt15 mntPresentasi & perdebatan antar kelompokPresentasi kelompok
95–100 mnt5 mntPengumuman Tugas 8 via Ngaji UIN Gusdur + preview P13Administratif

Diskusi Isu Kontemporer (40 Menit)

Bagi kelas menjadi 4 kelompok. Setiap kelompok mendapat satu skenario dan menjawab pertanyaan yang diberikan. Di akhir, setiap kelompok mempresentasikan kesimpulan (3–4 menit), dan kelas melakukan perdebatan singkat.


KELOMPOK 1: AI HAKIM DAN KEPUTUSAN OTOMATIS

Skenario: Pengadilan Negeri kota X berencana mengimplementasikan sistem AI untuk membantu hakim dalam menentukan lamanya vonis pidana. Model dilatih dari 10.000+ putusan pengadilan sebelumnya. Dalam pengujian, model menunjukkan akurasi 85% dalam "memprediksi" vonis yang serupa dengan hakim manusia. Sistem ini hanya akan memberikan rekomendasi β€” keputusan akhir tetap di tangan hakim.

Pertanyaan Diskusi:

  1. Berdasarkan EU AI Act, masuk kategori risiko apa sistem AI ini? Kewajiban apa saja yang berlaku?
  2. Apa risiko jika model dilatih dari putusan sejarah yang mungkin mengandung bias (misalnya, vonis lebih berat untuk kelompok sosial tertentu)?
  3. Apakah penggunaan sistem AI rekomendasi seperti ini konsisten dengan hak terdakwa untuk mendapat pengadilan yang adil (due process)? Gunakan perspektif hukum Indonesia dan nilai-nilai Islam tentang keadilan.
  4. Rekomendasi: Bolehkah sistem ini diimplementasikan? Jika ya, dengan syarat apa?

KELOMPOK 2: CHATBOT HUKUM YANG "SALAH"

Skenario: LexBot adalah chatbot hukum berbasis LLM yang diluncurkan startup Indonesia. LexBot mengklaim dapat memberikan "konsultasi hukum awal" dan "panduan pengisian dokumen hukum." Seorang pengguna menggunakan LexBot untuk mendapat panduan mengisi surat gugatan cerai. LexBot memberikan panduan yang salah secara prosedural. Pengguna mengikuti panduan tersebut, gugatan ditolak pengadilan, dan pengguna kehilangan uang pendaftaran serta harus menunggu 6 bulan lagi untuk mengajukan kembali.

Pertanyaan Diskusi:

  1. Siapa yang bertanggung jawab atas kerugian pengguna? Developer LexBot? Pengguna? Gunakan kerangka product liability dan negligence.
  2. Apakah LexBot termasuk sistem AI "high-risk" menurut EU AI Act? Jelaskan.
  3. Apakah LexBot melanggar regulasi Indonesia yang ada saat ini? Regulasi apa yang paling relevan?
  4. Bagaimana seharusnya startup AI yang menyediakan informasi hukum melindungi diri secara hukum (mitigasi risiko)? Diskusikan dari perspektif terms of service, disclaimer, dan desain produk.

KELOMPOK 3: PINJOL DAN ALGORITMA PENOLAKAN KREDIT

Skenario: PT RupiahCepat adalah P2P lending yang terdaftar OJK. Mereka menggunakan model ML untuk menentukan kelayakan kredit. Data yang digunakan untuk melatih model mencakup: riwayat transaksi digital, data e-commerce, lokasi GPS, dan pola penggunaan media sosial. Seorang guru di Jawa Tengah (Pak Ahmad, 35 tahun) ditolak kreditnya. Ketika menanyakan alasan, ia diberi jawaban generik: "Tidak memenuhi kriteria penilaian internal." Pak Ahmad curiga ditolak karena ia sering membaca artikel politik oposisi.

Pertanyaan Diskusi:

  1. Apakah PT RupiahCepat boleh menggunakan data media sosial dan GPS dalam model kredit scoring? Analisis dari perspektif UU PDP (jenis data, dasar pemrosesan, hak subjek data).
  2. Apakah Pak Ahmad berhak mendapat penjelasan atas penolakan kreditnya? Merujuk ke pasal apa dalam hukum Indonesia?
  3. Jika benar model menolak berdasarkan bacaan politik, pelanggaran apa yang terjadi?
  4. Sebagai pengembang yang ditugasi membangun model ini, langkah-langkah apa yang seharusnya Anda ambil untuk memastikan model adil dan patuh hukum?

KELOMPOK 4: DEEPFAKE DALAM PEMILU

Skenario: Tiga hari sebelum pemilihan gubernur, sebuah video viral di media sosial menampilkan kandidat A seolah mengakui menerima suap dalam percakapan privat. Video tersebut sangat meyakinkan. Kandidat A langsung menyatakan video itu deepfake. Tim teknisnya menganalisis dan menemukan artefak AI dalam video. Namun video sudah ditonton 5 juta kali. Kandidat A kalah tipis dalam pemilihan dan menduga deepfake menentukan hasil.

Pertanyaan Diskusi:

  1. Berdasarkan UU ITE yang ada, pasal apa yang dapat menjerat pembuat dan penyebar deepfake ini? Apa kelemahan regulasi saat ini untuk kasus semacam ini?
  2. Apakah EU AI Act (jika berlaku di Indonesia) memberikan perlindungan yang lebih baik? Ketentuan mana yang paling relevan?
  3. Siapa yang bertanggung jawab secara hukum: pembuat deepfake, orang yang pertama menyebarkan, atau platform media sosial yang tidak mendeteksi lebih cepat?
  4. Apa kebijakan yang seharusnya Indonesia miliki untuk menghadapi ancaman deepfake dalam proses demokrasi? Berikan rekomendasi konkret (regulasi, teknis, atau keduanya).

EVALUASI PERTEMUAN 12

Jenis Evaluasi: Tugas | Dikumpulkan via Ngaji UIN Gusdur

Tugas 8: Tugas Analitik Singkat

(Individu β€” via Ngaji UIN Gusdur β€” dikumpulkan maksimal 1 hari sebelum Pertemuan 13 β€” Masuk komponen Tugas)

Format: PDF (ketik jawaban di Word/Google Docs, export ke PDF) Petunjuk: Kerjakan sendiri. Jawab dengan tepat dan argumentatif. Sertakan referensi regulasi yang relevan dalam jawaban Anda.


Soal 1 β€” Klasifikasi Risiko EU AI Act (20 poin)

Sebuah startup Indonesia mengembangkan sistem AI dengan tiga fitur berikut:

  • Fitur A: Analisis CV untuk seleksi awal kandidat kerja.
  • Fitur B: Rekomendasi produk berdasarkan riwayat pembelian.
  • Fitur C: Deteksi emosi karyawan dari foto selfie kehadiran harian.

Untuk masing-masing fitur, tentukan: (a) tingkat risiko menurut EU AI Act, dan (b) kewajiban apa yang harus dipenuhi pengembang. Berikan alasan untuk setiap jawaban.


Soal 2 β€” Perbandingan Regulasi AI Indonesia vs EU (30 poin)

Apa perbedaan terbesar antara pendekatan regulasi AI di EU (EU AI Act) dan di Indonesia saat ini? Menurut Anda, pendekatan mana yang lebih tepat untuk Indonesia β€” regulasi mengikat seperti EU AI Act, atau pendekatan soft law seperti SE Menkominfo 9/2023? Berikan argumentasi minimal 150 kata dengan mempertimbangkan konteks Indonesia (tahap perkembangan industri AI, kapasitas regulasi, dll.).


Soal 3 β€” Tanggung Jawab Hukum AI (50 poin)

Skenario: Sebuah perusahaan pinjaman online (P2P lending, terdaftar OJK) menggunakan algoritma AI untuk menentukan kelayakan kredit. Algoritma tersebut secara konsisten menolak pemohon dari kota-kota tertentu di Indonesia Timur tanpa penjelasan yang memadai. Dari analisis data, ditemukan bahwa algoritma memiliki korelasi dengan kode pos β€” pemohon dari wilayah tertentu otomatis mendapat skor lebih rendah meskipun profil keuangannya sama.

Pertanyaan: a) Identifikasi minimal tiga pelanggaran hukum yang mungkin terjadi berdasarkan regulasi Indonesia yang berlaku. Sebutkan pasal/regulasi spesifik untuk setiap pelanggaran. b) Siapa saja pihak yang berpotensi bertanggung jawab secara hukum? Analisis tanggung jawab setiap pihak menggunakan kerangka yang ada. c) Apa yang seharusnya Anda lakukan β€” sebagai developer yang baru menyadari bias ini dalam sistem yang sudah berjalan β€” dari perspektif hukum dan etika?


Rubrik Penilaian Tugas 8:

SoalBobotIndikator Nilai Penuh
Soal 120%Tiga klasifikasi tepat + kewajiban relevan disebutkan + alasan logis
Soal 230%Perbedaan akurat; posisi didukung argumen berbasis konteks Indonesia; β‰₯150 kata
Soal 350%β‰₯3 pelanggaran + pasal spesifik; analisis tanggung jawab setiap pihak; respons etis yang realistis

KONEKSI KE PERTEMUAN LAIN

Benang Merah P11–P12–P13

P11: HKI DIGITAL          P12: REGULASI AI & FINTECH    P13: TRANSFORMASI DIGITAL
"Siapa pemilik            "Siapa bertanggung jawab      "Bagaimana pemerintah
kode/model AI?"           atas keputusan AI?"           menggunakan teknologi
                                                         untuk layanan publik?"

Hak cipta               Tanggung jawab              SPBE (e-Government)
AI-generated code  β†’   product liability AI    β†’   AI dalam layanan publik:
                        + regulasi OJK              siapa regulasinya?

Lisensi OSS untuk      EU AI Act:                  PDN dan keamanan
model AI open          transparansi                data pemerintah yang
source (Llama, etc.)   & accountability  β†’         menggunakan AI

Koneksi ke Pertemuan 15 (Etika Profesi TI)

Dilema etika yang akan muncul di P15 dengan konteks P12:

  • Bias detection: Anda menemukan model yang Anda kembangkan memiliki bias terhadap kelompok tertentu. Perusahaan menyuruh Anda tidak melaporkan. Apa yang Anda lakukan?
  • AI hallucination: Produk Anda melebih-lebihkan kemampuan AI (AI washing). Anda diminta membuat klaim pemasaran yang tidak akurat tentang akurasi model.
  • Surveillance capitalism: Perusahaan menggunakan data pengguna aplikasi untuk melatih model tanpa persetujuan eksplisit.

Koneksi ke Proyek Legal Audit (P16)

Bagi kelompok yang memilih aplikasi berbasis AI atau fintech sebagai objek audit, P12 memberikan kerangka analisis:

  • Apakah aplikasi menggunakan AI dalam keputusan yang mempengaruhi pengguna? Jika ya, apakah ada transparansi tentang cara kerjanya?
  • Jika fintech, apakah memiliki izin OJK yang tepat?
  • Apakah ada risiko pelanggaran UU PDP dalam pemrosesan data untuk model AI?
  • Apakah ada mekanisme pengaduan bagi pengguna yang merasa dirugikan keputusan AI?

RANGKUMAN MATERI PERTEMUAN 12

TopikPoin Kunci
Mengapa AI perlu regulasi khususPerilaku probabilistik, black box, skalabilitas dampak β€” berbeda dari software deterministik biasa
EU AI Act: 4 tingkat risikoUnacceptable (dilarang total), High Risk (kewajiban ketat), Limited Risk (transparansi), Minimal Risk (tidak diatur)
Sistem high-risk AIKredit scoring, rekrutmen, medis, pendidikan, keamanan β€” wajib registrasi, audit, logging, human oversight
GPAI/LLMModel besar (>10^25 FLOPs) wajib adversarial testing + pelaporan insiden; model biasa wajib dokumentasi & compliance hak cipta
Regulasi AI IndonesiaSE Menkominfo 9/2023 = soft law, tidak mengikat; gap besar vs EU AI Act di klasifikasi, sanksi, transparansi
Regulasi implisit AIUU PDP (profiling, automated decision-making), UU ITE (deepfake, hoaks), UU PK (product liability)
Tanggung jawab AI4 kerangka: product liability, negligence, regulatory liability, content liability
Credit scoring AI biasStudi kasus bias wilayah: violates UU PDP Pasal 52, POJK konsumen, prinsip keadilan
DeepfakeJenis (porn, fraud, pencemaran, disinformasi) Γ— regulasi yang berlaku; EU mensyaratkan label AI content
P2P LendingPOJK 10/2022: izin wajib, escrow, KYC, larangan penagihan intimidatif, TKB90 transparan
KriptoAset komoditi (bukan mata uang); beralih ke OJK 2023; isu DeFi, NFT, stablecoin belum terselesaikan
Perspektif IslamiKhalifah digital: tanggung jawab AI = amanah; deepfake = kezaliman; P2P konvensional vs syariah; fatwa MUI kripto

DAFTAR REFERENSI

Format APA edisi ke-7

Peraturan Perundang-Undangan & Regulasi Indonesia

Undang-Undang Nomor 8 Tahun 1999 tentang Perlindungan Konsumen. Lembaran Negara Republik Indonesia Tahun 1999 Nomor 42.

Undang-Undang Nomor 4 Tahun 2023 tentang Pengembangan dan Penguatan Sektor Keuangan. Lembaran Negara Republik Indonesia Tahun 2023 Nomor 4.

Peraturan Otoritas Jasa Keuangan Nomor 10/POJK.05/2022 tentang Layanan Pendanaan Bersama Berbasis Teknologi Informasi. (Regulasi P2P Lending)

Peraturan Otoritas Jasa Keuangan Nomor 6/POJK.07/2022 tentang Perlindungan Konsumen dan Masyarakat di Sektor Jasa Keuangan.

Surat Edaran Menteri Komunikasi dan Informatika Nomor 9 Tahun 2023 tentang Etika Kecerdasan Artifisial. Kementerian Komunikasi dan Informatika RI.

Peraturan Bappebti Nomor 8 Tahun 2021 tentang Pedoman Penyelenggaraan Perdagangan Pasar Fisik Aset Kripto di Bursa Berjangka.

Regulasi Internasional

Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence (Artificial Intelligence Act). Official Journal of the European Union, L 2024/1689. https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:32024R1689 (opens in a new tab)

Buku & Artikel Ilmiah

Hidayat, T., & Muttaqin, Z. (2020). Pengaturan kecerdasan buatan di Indonesia: Perspektif hukum. Jurnal Bina Mulia Hukum, 5(1), 14–30.

Chesney, R., & Citron, D. K. (2019). Deep fakes: A looming challenge for privacy, democracy, and national security. California Law Review, 107(6), 1753–1820.

Wachter, S., Mittelstadt, B., & Floridi, L. (2017). Why a right to explanation of automated decision-making does not exist in the general data protection regulation. International Data Privacy Law, 7(2), 76–99.

Zuboff, S. (2019). The age of surveillance capitalism: The fight for a human future at the new frontier of power. Public Affairs.

Bygrave, L. A. (2020). Minding the machine: Article 22 of the GDPR and its mind the gap. European Data Protection Law Review, 6(2), 158–169.

Laporan & Dokumen Resmi

Kementerian Komunikasi dan Informatika. (2021). Panduan etika kecerdasan artifisial Indonesia. Kominfo. https://aptika.kominfo.go.id (opens in a new tab)

Otoritas Jasa Keuangan. (2024). Perkembangan industri fintech Indonesia: Laporan triwulanan. OJK. https://ojk.go.id (opens in a new tab)

OECD. (2023). OECD principles on AI. OECD. https://oecd.ai/en/ai-principles (opens in a new tab)

NIST. (2023). AI risk management framework (AI RMF 1.0). National Institute of Standards and Technology. https://www.nist.gov/system/files/documents/2023/01/26/AI%20RMF%201.0.pdf (opens in a new tab)

Fatwa & Referensi Keagamaan

Majelis Ulama Indonesia (MUI). (2021). Fatwa MUI No. 13 Tahun 2021 tentang Hukum Aset Kripto sebagai Komoditi yang Diperdagangkan di Pasar Kripto. MUI.

Dewan Syariah Nasional - MUI. Fatwa-fatwa DSN-MUI tentang fintech syariah. https://dsnmui.or.id (opens in a new tab)

Referensi Online

European Commission. (2024). EU AI Act: What is it and how does it work? https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai (opens in a new tab)

Otoritas Jasa Keuangan. Daftar fintech lending berizin OJK. https://www.ojk.go.id/id/kanal/iknb/financial-technology/ (opens in a new tab)


Modul ini adalah bagian dari seri materi kuliah INF2505 β€” Hukum dan Kebijakan Teknologi Informasi. Materi ini mencakup regulasi yang masih terus berkembang β€” mahasiswa dianjurkan secara aktif memantau perkembangan regulasi AI Indonesia dan peraturan OJK terbaru.

Dosen Pengampu: Mohammad Reza Maulana, M.Kom β€” Program Studi Informatika, Fakultas Ekonomi dan Bisnis Islam, UIN K.H. Abdurrahman Wahid Pekalongan