Halaman

Sabtu, 21 Februari 2026

Lv 5. Human Decision Sovereignty

HILDST – Human‑in‑the‑Loop Decision Sovereignty Theory

HUMAN‑IN‑THE‑LOOP DECISION SOVEREIGNTY THEORY (HILDST)

Accountability‑Based Universal Wisdom and Trust
Cross‑Sector Pre‑Decision Governance Translator
Menegakkan Kedaulatan Manusia dalam Pengambilan Keputusan Berbantuan Kecerdasan Buatan

Versi: 1.0 – Final untuk Publikasi | Tanggal: 21 Februari 2026

ABSTRAK

Kecerdasan buatan (AI) semakin banyak digunakan untuk mendukung, dan dalam beberapa kasus menggantikan, pengambilan keputusan manusia. Namun, pergeseran ini menimbulkan pertanyaan fundamental: sejauh mana manusia boleh menyerahkan kedaulatan pengambilan keputusan kepada mesin? Di mana batas antara alat bantu dan pengganti? Dan bagaimana kita memastikan bahwa manusia tetap memegang kendali, terutama untuk keputusan-keputusan yang berdampak besar pada kehidupan, hak, dan martabat manusia?

Human‑in‑the‑Loop Decision Sovereignty Theory (HILDST) adalah teori mekanisme spesifik yang mengembangkan kerangka sistematis untuk menegakkan dan melindungi kedaulatan manusia dalam proses pengambilan keputusan yang melibatkan AI. Sebagai turunan dari Pre‑Decision Governance (PDG) dan Cognitive Accountability Architecture (CAA), HILDST berargumen bahwa kedaulatan keputusan harus tetap berada pada manusia, dan setiap penggunaan AI harus dirancang dengan mekanisme yang memastikan manusia memiliki kendali yang bermakna, terutama pada titik-titik kritis dalam proses pengambilan keputusan.

HILDST merumuskan empat pilar utama: (1) Mandatory Human Review – kewajiban bahwa keputusan strategis tertentu harus melalui review manusia sebelum dieksekusi; (2) Right to Override – hak manusia untuk mengesampingkan rekomendasi AI; (3) Informed Consent & Understanding – kewajiban bahwa manusia yang membuat keputusan memahami secara memadai rekomendasi AI dan implikasinya; dan (4) Sovereignty by Design – prinsip bahwa kedaulatan manusia harus diintegrasikan ke dalam desain sistem AI sejak awal, bukan sebagai tambahan.

Dengan mengintegrasikan wawasan dari literatur human‑computer interaction (HCI), etika AI, teori kedaulatan politik, akuntabilitas kognitif, dan nilai-nilai Islam tentang khalifah (kepemimpinan manusia) dan amanah (tanggung jawab), HILDST menyediakan landasan bagi pengembangan instrumen praktis seperti Decision Sovereignty Matrix, Human‑in‑the‑Loop Protocol, Informed Consent Checklist, dan Sovereignty by Design Principles. Teori ini melengkapi AIDAT, ABMGT, AITEMT, dan EDLT dengan fokus pada aspek paling fundamental: siapa yang memegang kendali final atas keputusan.

Kata Kunci: Human‑in‑the‑Loop, Kedaulatan Keputusan, Kontrol Manusia, Pengawasan AI, Override, Informed Consent, Akuntabilitas Kognitif, Tata Kelola AI, Khalifah, Amanah

1. PENDAHULUAN

1.1 Fenomena yang Belum Cukup Dijelaskan

Seiring dengan semakin canggihnya sistem AI, terjadi pergeseran bertahap dalam peran manusia dalam pengambilan keputusan:

Tingkat Keterlibatan ManusiaDeskripsiContoh
Human‑onlyManusia mengambil keputusan sepenuhnya tanpa bantuan AIKeputusan tradisional, rapat tanpa alat bantu AI
Human‑in‑the‑loop (HITL)AI memberikan rekomendasi, manusia mengambil keputusan final, setelah mempertimbangkan rekomendasi tersebutSistem rekomendasi (diagnosis berbantuan AI, rekomendasi investasi)
Human‑over‑the‑loopAI mengambil keputusan secara otomatis, tetapi manusia mengawasi dan dapat mengintervensi jika diperlukanSistem otomatis dengan dashboard monitoring (trading algoritmik dengan pengawasan)
Human‑out‑of‑the‑loopAI mengambil keputusan sepenuhnya secara otomatis tanpa campur tangan manusiaTrading algoritmik sepenuhnya otomatis, sistem rekomendasi konten tanpa filter

Kekhawatiran muncul ketika kita bergerak ke kanan spektrum ini, terutama untuk keputusan yang berdampak signifikan pada kehidupan, hak, dan martabat manusia:

DomainContoh KeputusanRisiko Jika Manusia Keluar dari Loop
KesehatanDiagnosis penyakit, rekomendasi pengobatan, prioritas pasienKesalahan medis, malpraktik, kehilangan nyawa, ketidakadilan akses
HukumPenentuan hukuman, keputusan pembebasan bersyarat, penilaian risiko residivismeKetidakadilan, pelanggaran hak asasi, diskriminasi sistemik
KeuanganPersetujuan kredit, keputusan investasi, deteksi fraudDiskriminasi, kerugian finansial massal, kerugian nasabah
PekerjaanRekrutmen, promosi, pemutusan hubungan kerjaDiskriminasi, ketidakadilan, pelanggaran hak pekerja
MiliterPenggunaan senjata otonom, penentuan targetPelanggaran hukum perang, kematian sipil, eskalasi konflik
Layanan PublikPenentuan kelayakan bantuan sosial, alokasi sumber daya publikKetidakadilan distributif, eksklusi kelompok rentan

Tanpa kerangka yang jelas tentang kedaulatan manusia, kita berisiko menciptakan dunia di mana keputusan‑keputusan penting dibuat oleh mesin tanpa pengawasan yang memadai, dan ketika terjadi kesalahan, tidak ada yang bertanggung jawab (responsibility gap).

1.2 Posisi dalam Hierarki Teori

HILDST adalah teori mekanisme spesifik yang berfokus pada penegakan kedaulatan manusia dalam pengambilan keputusan berbantuan AI. Ia merupakan pelengkap dari teori‑teori AI governance lainnya, dengan fokus pada aspek kontrol dan kewenangan final.


┌─────────────────────────────────────────────────────────────┐

│              COGNITIVE ACCOUNTABILITY ARCHITECTURE          │

│                       (Meta‑Teori)                          │

└─────────────────────────────────────────────────────────────┘

                              │

                              ▼

┌─────────────────────────────────────────────────────────────┐

│                 PRE‑DECISION GOVERNANCE (PDG)               │

│                  (General Integrative Theory)                │

└─────────────────────────────────────────────────────────────┘

          │                │                │                │

          ▼                ▼                ▼                ▼

┌─────────────────┐ ┌─────────────────┐ ┌─────────────────┐ ┌─────────────────┐

│   FRAMING       │ │    OPTION       │ │   INFORMATION   │ │  DELIBERATIVE   │

│   GOVERNANCE    │ │   ARCHITECTURE  │ │   FILTERING     │ │   STRUCTURE     │

└─────────────────┘ └─────────────────┘ └─────────────────┘ └─────────────────┘

          │                │                │                │

          └────────────────┼────────────────┼────────────────┘

                           ▼                ▼

          ┌─────────────────────────────────────────────────┐

          │                 AI GOVERNANCE THEORIES          │

          ├─────────────────┬─────────────────┬─────────────┤

          │      AIDAT      │     ABMGT       │   AITEMT    │

          │ (Akuntabilitas) │ (Mitigasi Bias) │ (Transparansi)

          ├─────────────────┴─────────────────┴─────────────┤

          │                      EDLT                        │

          │            (Batas Delegasi Epistemik)            │

          ├─────────────────────────────────────────────────┤

          │              ═════ HILDST ═════                  │

          │   (Human‑in‑the‑Loop Decision Sovereignty)       │

          └─────────────────────────────────────────────────┘

        

1.3 Tujuan dan Kontribusi

  1. Mendefinisikan kedaulatan manusia dalam pengambilan keputusan berbantuan AI sebagai prinsip normatif dan operasional.
  2. Mengembangkan kerangka konseptual untuk mengklasifikasikan tingkat keterlibatan manusia dan menentukan ambang batas di mana human‑in‑the‑loop menjadi wajib.
  3. Menyediakan instrumen praktis bagi organisasi untuk merancang sistem yang menghormati dan menegakkan kedaulatan manusia.
  4. Mengintegrasikan wawasan dari berbagai disiplin (HCI, etika AI, teori politik, akuntabilitas kognitif, nilai‑nilai Islam) ke dalam satu kerangka yang koheren.
  5. Menjelaskan bagaimana kedaulatan manusia merupakan prasyarat bagi akuntabilitas, keadilan, dan legitimasi keputusan berbantuan AI.

2. LANDASAN TEORETIS

2.1 Konsep Kedaulatan dalam Filsafat Politik

KonsepTokohRelevansi dengan HILDST
Kedaulatan sebagai kekuasaan tertinggiJean Bodin, Thomas HobbesDalam pengambilan keputusan, manusia harus memegang kekuasaan tertinggi; AI adalah alat, bukan penguasa.
Legitimasi berasal dari yang diperintahJohn Locke, RousseauKeputusan yang mempengaruhi manusia harus dapat dikaitkan dengan otoritas manusia yang sah.
Kontrak sosialRousseauAda kesepakatan implisit bahwa manusia tidak boleh menyerahkan kedaulatan sepenuhnya kepada mesin.

2.2 Human‑Computer Interaction dan Human‑AI Collaboration

TokohKontribusiRelevansi dengan HILDST
Shneiderman, B. (2020;2022)Human‑centered AI, level of automationAI harus dirancang untuk memperkuat, bukan menggantikan, kemampuan manusia. HILDST mengadopsi prinsip human‑centered.
Endsley, M. R. (2017)Situational awarenessManusia harus tetap memiliki pemahaman situasi yang memadai untuk dapat mengintervensi jika diperlukan. HILDST memastikan hal ini.
Parasuraman, R., Sheridan, T. B., & Wickens, C. D. (2000)Model tingkatan otomatisasiHILDST menentukan level otomatisasi yang sesuai untuk berbagai jenis keputusan.

2.3 Teori Akuntabilitas dan Tanggung Jawab

KonsepTokohRelevansi dengan HILDST
Akuntabilitas sebagai hubungan sosialBovens, M. (2007)Ada pihak yang bertanggung jawab. Jika AI mengambil keputusan, siapa yang bertanggung jawab? HILDST memastikan ada manusia.
Prinsip tanggung jawabJonas, H. (1984)Manusia memiliki tanggung jawab moral atas konsekuensi tindakan yang berada di bawah kendalinya.
Responsibility gapMatthias, A. (2004)Kesenjangan tanggung jawab ketika AI mengambil keputusan. HILDST menutup gap ini dengan memastikan manusia dalam loop.

2.4 Etika AI dan Prinsip Kontrol Manusia

PrinsipSumberRelevansi dengan HILDST
Human agency and oversightEU High‑Level Expert Group on AI (2019)Sistem AI harus mendukung otonomi manusia dan pengawasan manusia. HILDST mengoperasionalkan prinsip ini.
Human‑in‑commandFloridi, L., et al. (2018)Manusia harus memiliki kewenangan untuk mengesampingkan keputusan AI.
Dignity of the human personPrinsip etika universalMartabat manusia mensyaratkan bahwa keputusan yang mempengaruhi hidupnya tidak sepenuhnya diserahkan kepada mesin.

2.5 Nilai‑Nilai Islam: Khalifah dan Amanah

NilaiSumberRelevansi dengan HILDST
Khalifah (Kepemimpinan Manusia)QS. Al‑Baqarah: 30Manusia ditunjuk sebagai khalifah di muka bumi, memegang amanah kepemimpinan, termasuk dalam pengambilan keputusan.
Amanah (Tanggung Jawab)QS. Al‑Ahzab: 72Manusia memikul amanah yang tidak dipikul makhluk lain. HILDST memastikan amanah tidak didelegasikan ke mesin.
'Adl (Keadilan)QS. Al‑Ma'idah: 8Keadilan mensyaratkan adanya pihak yang bertanggung jawab dan dapat dimintai pertanggungjawaban.
Syura (Musyawarah)QS. Asy‑Syura: 38Proses pengambilan keputusan yang melibatkan musyawarah adalah nilai penting; HILDST mewujudkannya melalui mandatory review dan informed override.

2.6 Keterkaitan dengan Teori AI Governance Lainnya

TeoriFokusHubungan dengan HILDST
AIDAT (AI‑Assisted Decision Accountability)Akuntabilitas manusia atas keputusan berbantuan AIHILDST menyediakan mekanisme (mandatory review, right to override) untuk mewujudkan akuntabilitas tersebut.
ABMGT (Algorithmic Bias Mitigation)Mitigasi bias algoritmikHuman review dapat menangkap bias yang terlewat oleh deteksi otomatis. HILDST memungkinkan koreksi bias oleh manusia.
AITEMT (AI Transparency & Explainability)Transparansi dan explainabilityPenjelasan diperlukan agar manusia dapat membuat keputusan informed saat review atau override. HILDST bergantung pada AITEMT.
EDLT (Epistemic Delegation Limit)Batas delegasi epistemik ke AIHILDST mengimplementasikan batas delegasi dengan memastikan keputusan kritis tetap melibatkan manusia.

2.7 Keterkaitan dengan Pilar PDG

Pilar PDGKontribusi ke HILDST
Framing GovernanceManusia harus tetap terlibat dalam framing masalah; AI tidak boleh melakukan framing sendiri.
Option ArchitectureManusia harus mempertimbangkan opsi yang dihasilkan AI, tetapi tetap memiliki hak untuk memilih opsi lain (override).
Information FilteringManusia perlu memahami informasi yang disajikan AI (transparansi) untuk dapat melakukan review yang informed.
Deliberative StructureHILDST, melalui mandatory human review, adalah bagian dari struktur deliberasi.

3. DEFINISI DAN KONSEP INTI

3.1 Definisi Kedaulatan Manusia dalam Pengambilan Keputusan (Decision Sovereignty)

Dalam konteks HILDST, kedaulatan manusia dalam pengambilan keputusan didefinisikan sebagai:

Prinsip bahwa manusia memegang kendali final dan otoritas tertinggi atas keputusan‑keputusan yang berdampak signifikan terhadap kehidupan, hak, atau kepentingannya, dan bahwa penggunaan AI dalam proses tersebut harus dirancang untuk memperkuat, bukan menggantikan, kendali dan tanggung jawab manusia.

3.2 Definisi Human‑in‑the‑Loop (HITL)

Suatu paradigma desain sistem di mana manusia terlibat secara aktif dalam proses pengambilan keputusan, biasanya dengan meninjau, memvalidasi, atau mengesampingkan rekomendasi yang dihasilkan oleh AI, sebelum keputusan final dieksekusi.

3.3 Spektrum Keterlibatan Manusia

LevelNamaDeskripsiKedaulatan Manusia
Level 0Human‑onlyManusia mengambil keputusan tanpa bantuan AITertinggi
Level 1AI‑assistedAI memberikan informasi atau analisis, manusia memutuskanTinggi
Level 2AI‑recommendedAI memberikan rekomendasi, manusia memutuskan setelah reviewSedang‑Tinggi
Level 3Human‑in‑the‑loopAI mengambil keputusan, tetapi manusia harus menyetujui sebelum eksekusiSedang
Level 4Human‑over‑the‑loopAI mengambil keputusan secara otomatis, manusia mengawasi dan dapat mengintervensiRendah‑Sedang
Level 5Human‑out‑of‑the‑loopAI mengambil keputusan sepenuhnya otomatis tanpa campur tangan manusiaRendah

3.4 Prinsip Dasar HILDST

PrinsipPenjelasan
Kedaulatan manusia adalah hakikiTidak dapat didelegasikan atau dihilangkan, terutama untuk keputusan berdampak tinggi.
AI adalah alat, bukan agen moralAI tidak dapat memegang tanggung jawab; tanggung jawab tetap pada manusia.
Kontrol harus bermaknaHuman‑in‑the‑loop bukan sekadar formalitas; manusia harus memiliki waktu, informasi, dan wewenang yang memadai.
Transparansi adalah prasyaratManusia tidak dapat membuat keputusan informed tanpa penjelasan yang memadai (lihat AITEMT).
Desain sejak awal (by design)Kedaulatan manusia harus diintegrasikan ke dalam desain sistem, bukan ditambahkan kemudian.

4. EMPAT PILAR HUMAN‑IN‑THE‑LOOP DECISION SOVEREIGNTY THEORY

Pilar 1: Mandatory Human Review (Kewajiban Review Manusia)

Pertanyaan kunci: Untuk keputusan apa manusia wajib terlibat secara aktif (mereview, mempertimbangkan) sebelum keputusan dieksekusi?

DimensiIndikatorMetode PemenuhanInstrumen
Ambang Batas RisikoAda klasifikasi keputusan berdasarkan tingkat risiko (dampak pada individu, masyarakat, keuangan, reputasi); untuk risiko tinggi, wajib human reviewMatriks klasifikasi risiko, kebijakan tertulisDecision Risk Matrix
Jenis KeputusanKeputusan yang mempengaruhi hak, kebebasan, atau kesejahteraan individu (pekerjaan, kredit, kesehatan, hukum) wajib di‑reviewDaftar positif/negatif, regulasiList of Protected Decisions
Frekuensi ReviewTidak semua keputusan perlu di‑review, tetapi sampling untuk kepastian kualitas untuk risiko rendahSampling audit, protokol monitoringAudit Sampling Protocol
Kualifikasi ReviewerReviewer (manusia) memiliki kompetensi yang memadai untuk mengevaluasi rekomendasi AI (memahami domain, memahami keterbatasan AI)Sertifikasi, pelatihan, penunjukanReviewer Competency Framework
Dokumentasi ReviewSetiap proses review didokumentasikan, termasuk hasil review dan alasan keputusanLog review, formulirReview Log Template

Proposisi HILDST 1: Semakin tinggi risiko dan dampak suatu keputusan, semakin wajib mandatory human review dilakukan sebelum eksekusi.

Pilar 2: Right to Override (Hak untuk Mengesampingkan)

Pertanyaan kunci: Apakah manusia memiliki kewenangan dan kemampuan untuk mengesampingkan rekomendasi AI, dan apakah proses override tersebut didesain agar bermakna?

DimensiIndikatorMetode PemenuhanInstrumen
Kewenangan FormalAda kebijakan yang secara eksplisit memberikan hak override kepada manusia (individu tertentu atau dalam kondisi tertentu)Kebijakan tertulis, SK penunjukanOverride Policy
Kemudahan OverrideProses override tidak rumit, dapat dilakukan dalam waktu yang memadai, dan tidak memerlukan keahlian teknis yang tinggiDesain UI/UX, prosedur cepat, tombol override yang jelasOverride Mechanism (UI)
Informed OverrideOverride harus didasarkan pada pemahaman, bukan sekadar intuisi atau keengganan. Manusia harus memiliki akses ke penjelasan (AITEMT) untuk melakukan override yang informed.Integrasi dengan AITEMT, pelatihanInformed Override Protocol
Dokumentasi OverrideSetiap override didokumentasikan beserta alasannya, untuk keperluan audit, pembelajaran, dan akuntabilitasLog override, formulirOverride Log
Review OverrideOverride yang signifikan (misal: menyangkut keputusan besar atau sering terjadi) dapat direview oleh atasan atau komite untuk memastikan kualitas dan konsistensiMekanisme eskalasi, sampling auditOverride Review Board

Proposisi HILDST 2: Semakin mudah, cepat, dan informed proses override, semakin efektif kedaulatan manusia dipertahankan dalam praktik.

Pilar 3: Informed Consent & Understanding (Persetujuan dan Pemahaman yang Informed)

Pertanyaan kunci: Apakah manusia yang membuat keputusan (atau yang terkena dampak) memahami secara memadai rekomendasi AI, implikasinya, serta keterbatasan sistem?

DimensiIndikatorMetode PemenuhanInstrumen
Ketersediaan PenjelasanAI menyediakan penjelasan yang memadai (lihat AITEMT) tentang rekomendasi dan faktor‑faktor yang mempengaruhinyaIntegrasi dengan AITEMT, Explainability ReportExplainability Output
Pemahaman ReviewerReviewer (manusia) dapat menjelaskan kembali (dengan kata‑kata sendiri) alasan di balik rekomendasi AI dan faktor‑faktor kuncinyaTes pemahaman, wawancara, simulasiComprehension Test
Kesadaran KeterbatasanReviewer sadar akan keterbatasan AI (potensi bias, ketidakpastian, data yang digunakan, batasan model)Training, disclaimers, dokumentasiLimitations Statement
Persetujuan yang Informed (untuk individu terdampak)Jika keputusan mempengaruhi individu secara langsung (misal: penolakan kredit, diagnosis medis), mereka berhak mendapatkan penjelasan dan memberikan persetujuan (atau menolak) jika diperlukanInformed consent form, portal penggunaInformed Consent Form
Hak untuk MenolakIndividu berhak menolak keputusan yang sepenuhnya otomatis dan meminta peninjauan oleh manusiaOpt‑out mechanism, prosedur bandingOpt‑out Protocol

Proposisi HILDST 3: Kualitas keputusan manusia (dalam mereview dan melakukan override) meningkat seiring dengan tingkat pemahaman mereka terhadap rekomendasi AI dan keterbatasannya.

Pilar 4: Sovereignty by Design (Kedaulatan melalui Desain)

Pertanyaan kunci: Apakah prinsip kedaulatan manusia telah diintegrasikan ke dalam desain sistem AI sejak awal, bukan sebagai tambalan setelah sistem berjalan?

DimensiIndikatorMetode PemenuhanInstrumen
Human‑centered DefaultDefault sistem adalah melibatkan manusia, bukan otomatisasi penuh. Untuk keputusan strategis, workflow dimulai dengan notifikasi ke manusia.Desain workflow, arsitektur sistemWorkflow Diagram
Transparansi KontrolTitik‑titik intervensi manusia harus jelas, mudah diakses, dan dipahami dalam antarmuka pengguna.UI/UX design, user manualInterface Design
Redundansi dan Fail‑safeAda mekanisme cadangan jika manusia tidak tersedia atau gagal merespons (misal: eskalasi ke atasan, penundaan otomatis).Escalation procedure, fail‑safe protocolRedundancy Plan
Pelatihan dan EdukasiPengguna (reviewer) dilatih untuk menggunakan kedaulatan mereka secara efektif: memahami kapan harus review, kapan melakukan override, bagaimana membaca penjelasan.Training program, simulasiTraining Module
Evaluasi BerkalaEfektivitas mekanisme kedaulatan dievaluasi secara berkala (misal: seberapa sering override dilakukan, kualitas override, kepuasan pengguna).Audit, survei, wawancaraSovereignty Audit

Proposisi HILDST 4: Sistem yang dirancang dengan prinsip sovereignty by design lebih mungkin mempertahankan kedaulatan manusia dalam praktik dibandingkan sistem yang menambahkan kontrol manusia sebagai fitur tambahan (afterthought).

5. MODEL MEKANISME KAUSAL HILDST


┌─────────────────────────────────────────────────────────────────┐

│           HUMAN‑IN‑THE‑LOOP DECISION SOVEREIGNTY THEORY         │

│     (Empat Pilar: Mandatory Review, Right to Override,         │

│      Informed Understanding, Sovereignty by Design)             │

└───────────────────────────┬─────────────────────────────────────┘

                            │

                            ▼

┌─────────────────────────────────────────────────────────────────┐

│                PERUBAHAN INSENTIF INSTITUSIONAL                 │

│  • Mandatory review → insentif untuk tidak bergantung buta     │

│  • Right to override → insentif keberanian mengambil keputusan │

│  • Informed understanding → insentif untuk belajar dan paham   │

│  • Sovereignty by design → insentif desain yang bertanggungjawab│

└───────────────────────────┬─────────────────────────────────────┘

                            │

                            ▼

┌─────────────────────────────────────────────────────────────────┐

│               TRANSFORMASI PENGAMBILAN KEPUTUSAN                │

│  • Manusia terlibat aktif di titik kritis                        │

│  • Override dilakukan dengan pemahaman, bukan asal‑asalan        │

│  • Keputusan didasarkan pada sintesis AI + judgment manusia     │

│  • Sistem dirancang untuk memfasilitasi, bukan menggantikan      │

└───────────────────────────┬─────────────────────────────────────┘

                            │

                            ▼

┌─────────────────────────────────────────────────────────────────┐

│                 PENINGKATAN KUALITAS & LEGITIMASI               │

│  • Keputusan lebih berkualitas (AI + manusia)                   │

│  • Akuntabilitas jelas (ada manusia yang bertanggung jawab)     │

│  • Kepercayaan publik meningkat                                  │

│  • Risiko "responsibility gap" berkurang                        │

│  • Kedaulatan manusia terjaga                                    │

└─────────────────────────────────────────────────────────────────┘

        

6. PROPOSISI DAN HIPOTESIS

6.1 Proposisi Utama per Pilar

PilarProposisi
Mandatory ReviewP1: Semakin tinggi risiko dan dampak suatu keputusan, semakin wajib mandatory human review dilakukan sebelum eksekusi.
Right to OverrideP2: Semakin mudah, cepat, dan informed proses override, semakin efektif kedaulatan manusia dipertahankan dalam praktik.
Informed UnderstandingP3: Kualitas keputusan manusia (dalam mereview dan melakukan override) meningkat seiring dengan tingkat pemahaman mereka terhadap rekomendasi AI dan keterbatasannya.
Sovereignty by DesignP4: Sistem yang dirancang dengan prinsip sovereignty by design lebih mungkin mempertahankan kedaulatan manusia dalam praktik dibandingkan sistem yang menambahkan kontrol manusia sebagai fitur tambahan.

6.2 Hipotesis Kausal

  • H1: Organisasi yang menerapkan HILDST secara komprehensif menunjukkan tingkat akuntabilitas yang lebih tinggi (diukur dengan indikator seperti keberhasilan banding, kepuasan pengguna, dan rendahnya gugatan hukum).
  • H2: Terdapat korelasi positif antara kualitas informed understanding (Pilar 3) dan kualitas override (Pilar 2). Semakin baik pemahaman manusia, semakin tepat keputusan override yang diambil.
  • H3: Sistem dengan sovereignty by design (Pilar 4) memiliki probabilitas lebih rendah untuk mengalami "automation bias" (kecenderungan manusia terlalu percaya pada rekomendasi AI dan malas melakukan review kritis).
  • H4: Kejelasan mandatory human review (Pilar 1) berkorelasi negatif dengan jumlah keputusan bermasalah yang ditemukan setelah implementasi.
  • H5: Efek positif HILDST terhadap kualitas keputusan lebih kuat pada domain dengan risiko tinggi (kesehatan, keuangan, hukum) dibandingkan domain dengan risiko rendah.

7. INSTRUMEN HUMAN‑IN‑THE‑LOOP DECISION SOVEREIGNTY THEORY

7.1 Decision Sovereignty Matrix

Tingkat RisikoContoh KeputusanLevel Keterlibatan Manusia yang WajibMekanisme
Sangat Tinggi (dampak pada nyawa, hak fundamental, kebebasan)Diagnosis kanker, keputusan pengadilan, persetujuan senjata, penolakan kredit besarHuman‑in‑the‑loop – manusia mengambil keputusan final setelah mempertimbangkan rekomendasi AI (wajib review)Mandatory review, informed override, dokumentasi
Tinggi (dampak finansial besar, reputasi, kesejahteraan signifikan)Persetujuan kredit menengah, rekrutmen karyawan, rekomendasi investasi besarHuman‑over‑the‑loop – AI merekomendasikan, manusia dapat mengawasi dan mengintervensi, sampling auditDashboard monitoring, sampling audit, right to override
Sedang (dampak terbatas, dapat dikoreksi)Rekomendasi produk, prioritas layanan, penjadwalanHuman‑on‑the‑loop – AI mengambil keputusan rutin, manusia campur tangan jika ada keluhan atau anomaliMekanisme banding, audit berkala
Rendah (dampak minimal, mudah dikoreksi)Sorting email, rekomendasi konten non‑sensitifHuman‑out‑of‑the‑loop – AI mengambil keputusan otomatisPengawasan oleh desain, evaluasi periodik

7.2 Human‑in‑the‑Loop Protocol (Ringkasan)

LangkahAktivitasPICDurasiDokumen
1. NotifikasiSistem memberi notifikasi kepada reviewer bahwa ada keputusan yang memerlukan review (email, notifikasi aplikasi).SistemReal‑time-
2. Penyajian InformasiSistem menyajikan rekomendasi AI beserta penjelasan (lihat AITEMT), termasuk faktor‑faktor kunci, tingkat keyakinan, dan alternatif (jika ada).Sistem-Explanation Report
3. ReviewReviewer mempelajari rekomendasi, informasi pendukung, dan penjelasan.ReviewerBervariasi (sesuai SLA)-
4. KeputusanReviewer memutuskan: setuju, modifikasi, atau tolak (override). Jika override, harus memberikan alasan.Reviewer-Override Form
5. DokumentasiKeputusan, alasan, dan (jika override) alasan override dicatat dalam sistem.Reviewer/Sistem-Decision Log
6. Eskalasi (opsional)Jika ada perbedaan pendapat internal atau keraguan, dapat dieskalasi ke atasan atau komite.Reviewer-Escalation Form

7.3 Informed Consent & Understanding Checklist

Pertanyaan untuk ReviewerYaTidakCatatan
Apakah Anda memahami bagaimana AI sampai pada rekomendasi ini (faktor‑faktor utama)?
Apakah Anda mengetahui keterbatasan AI ini (data yang digunakan, potensi bias, akurasi per subkelompok)?
Apakah Anda dapat menjelaskan kembali rekomendasi AI dengan kata‑kata sendiri kepada orang awam?
Apakah Anda mempertimbangkan informasi di luar rekomendasi AI (konteks, faktor non‑kuantitatif) dalam keputusan Anda?
Apakah Anda yakin dengan keputusan Anda (tingkat keyakinan 1‑5)?___ / 5
Apakah Anda bersedia bertanggung jawab atas keputusan ini?

Jika jawaban "Tidak" untuk salah satu pertanyaan di atas, pertimbangkan untuk menunda keputusan dan berkonsultasi lebih lanjut atau meminta penjelasan tambahan.

7.4 Sovereignty by Design Principles

PrinsipDeskripsiImplementasi
Human‑centered defaultDefault sistem adalah melibatkan manusia, bukan otomatisasi penuh, untuk keputusan strategis.Workflow dimulai dengan notifikasi ke manusia; sistem tidak boleh mengeksekusi tanpa persetujuan untuk keputusan berisiko tinggi.
Transparency of controlTitik‑titik intervensi manusia harus jelas, mudah diakses, dan dipahami dalam antarmuka pengguna.UI/UX yang jelas, tombol override mudah ditemukan, penjelasan tentang konsekuensi override.
Feedback loopSistem harus memberi umpan balik tentang konsekuensi keputusan manusia (misal: jika override dilakukan, apa hasilnya?).Dashboard, notifikasi hasil, laporan periodik.
Graceful degradationJika manusia tidak tersedia (sakit, cuti), sistem harus "turun" ke mode aman (menunda keputusan, eskalasi ke atasan), bukan otomatisasi penuh tanpa pengawasan.Escalation procedure, fail‑safe protocol.
LearnabilityPengguna harus dapat belajar menggunakan kedaulatan mereka secara efektif melalui pelatihan, dokumentasi, dan tooltips.Pelatihan, dokumentasi, tooltips dalam antarmuka.

7.5 Sovereignty Maturity Index (SMI)

LevelDeskripsiKarakteristik
Level 1: Ad‑hocTidak ada mekanisme sistematis untuk memastikan kedaulatan manusia. Keputusan AI sering diambil tanpa review, tidak ada kebijakan override.• Tidak ada matriks risiko • Tidak ada protokol review • Pengguna tidak terlatih • Reaktif jika terjadi masalah
Level 2: ReaktifAda mekanisme reaktif, biasanya setelah masalah muncul (misal: setelah ada keluhan). Override mungkin dilakukan secara informal.• Audit setelah keluhan • Override mungkin secara informal • Belum ada kebijakan formal
Level 3: TerdefinisiAda kebijakan dan prosedur tertulis untuk human‑in‑the‑loop, mandatory review, dan override.• Matriks klasifikasi risiko • Prosedur review terdokumentasi • Pelatihan dasar diberikan
Level 4: TerkelolaMekanisme kedaulatan dijalankan secara sistematis, dimonitor, dan dievaluasi.• Review dilakukan konsisten sesuai matriks • Log override dianalisis untuk perbaikan • Metrik kepatuhan dipantau
Level 5: OptimalKedaulatan manusia terintegrasi penuh dalam desain sistem (sovereignty by design) dan budaya organisasi.• Sovereignty by design • Pengguna sangat terlatih • Pembelajaran dari override dan banding terinstitusionalisasi • Inovasi dalam mekanisme kedaulatan

8. INTEGRASI DENGAN TEORI AI GOVERNANCE LAINNYA

TeoriIntegrasi dengan HILDST
AIDAT (AI‑Assisted Decision Accountability)AIDAT menegaskan bahwa manusia bertanggung jawab; HILDST memastikan manusia memiliki kendali (review, override) untuk memenuhi tanggung jawab itu.
ABMGT (Algorithmic Bias Mitigation)Human review (Pilar 1 HILDST) adalah mekanisme mitigasi bias tambahan di luar mitigasi teknis ABMGT. Manusia dapat menangkap bias yang terlewat oleh algoritma.
AITEMT (AI Transparency & Explainability)Penjelasan dari AITEMT diperlukan agar manusia dapat melakukan review yang informed (Pilar 1) dan override yang informed (Pilar 2). HILDST bergantung pada AITEMT.
EDLT (Epistemic Delegation Limit)EDLT menentukan batas delegasi epistemik; HILDST mengimplementasikan batas tersebut dengan memastikan bahwa keputusan di luar batas tetap melibatkan manusia (mandatory review).

9. IMPLEMENTASI HILDST

9.1 Langkah‑langkah Implementasi

FaseAktivitasOutput
1. Komitmen PimpinanManajemen puncak menetapkan bahwa kedaulatan manusia adalah prinsip non‑negoisiable dalam penggunaan AI.Kebijakan tertulis, SK penunjukan AI Governance Officer
2. Pemetaan RisikoIdentifikasi semua keputusan berbantuan AI dan klasifikasikan menggunakan Decision Sovereignty Matrix.Matriks risiko per sistem/keputusan
3. Desain Ulang WorkflowUntuk keputusan berisiko tinggi dan sedang, pastikan ada mandatory human review dalam workflow.Workflow baru (SOP)
4. Pengembangan Mekanisme OverridePastikan override mudah dilakukan dan informed (dengan penjelasan). Integrasikan dengan AITEMT.UI/UX, prosedur, formulir override
5. PelatihanLatih reviewer/pengguna tentang cara menggunakan kedaulatan mereka, memahami penjelasan AI, dan kapan harus melakukan override.Program pelatihan, modul
6. PemantauanPantau efektivitas mekanisme HILDST (kepatuhan review, frekuensi dan kualitas override, kepuasan pengguna).Dashboard, log, laporan berkala
7. EvaluasiEvaluasi berkala (tahunan) dan lakukan perbaikan berdasarkan data dan umpan balik.Laporan evaluasi, rekomendasi perbaikan

9.2 Peran dan Tanggung Jawab

PeranTanggung Jawab
AI Governance Officer / Chief AI Ethics OfficerBertanggung jawab atas kebijakan, implementasi, dan kepatuhan HILDST di seluruh organisasi.
Reviewer (Manusia)Melakukan review keputusan sesuai protokol (Pilar 1), melakukan override jika perlu (Pilar 2), memastikan pemahaman (Pilar 3).
Desainer Sistem / DeveloperMemastikan prinsip sovereignty by design (Pilar 4) diimplementasikan dalam arsitektur dan antarmuka sistem.
TrainerMelatih pengguna tentang penggunaan kedaulatan, pemahaman penjelasan AI, dan protokol HILDST.
Auditor InternalMenguji kepatuhan terhadap HILDST, mengevaluasi efektivitas mekanisme.

10. STUDI KASUS HIPOTETIS

Kasus 1: Sistem Diagnostik Medis di Rumah Sakit

AspekPenerapan HILDST
KeputusanDiagnosis awal kanker berdasarkan hasil mammogram dan data pasien (risiko sangat tinggi).
Mandatory Review (P1)Semua diagnosis "suspect" dari AI wajib direview oleh dokter spesialis radiologi sebelum dikomunikasikan ke pasien. Sistem tidak mengizinkan hasil dikirim tanpa review.
Right to Override (P2)Dokter dapat mengesampingkan rekomendasi AI (misal: merekomendasikan biopsi meskipun AI bilang "jinak") dengan satu klik, tetapi harus memberikan alasan (misal: ada faktor risiko keluarga yang tidak tertangkap AI).
Informed Understanding (P3)AI menyediakan heatmap area yang dicurigai dan probabilitas (dari AITEMT). Dokter terlatih membaca ini. Ada sesi pelatihan rutin.
Sovereignty by Design (P4)Sistem dirancang agar diagnosis AI tidak otomatis masuk ke rekam medis tanpa review dokter. Ada notifikasi dan antarmuka yang jelas.
HasilAkurasi diagnosis meningkat (AI + dokter), kesalahan minimal, dokter tetap memegang kendali, pasien percaya.

Kasus 2: Sistem Persetujuan Kredit di Bank

AspekPenerapan HILDST
KeputusanPersetujuan kredit konsumen (risiko sedang‑tinggi).
Mandatory Review (P1)Untuk kredit di atas threshold tertentu (Rp 100 juta), wajib review oleh analis kredit. Untuk kredit kecil, sampling audit.
Right to Override (P2)Analis dapat menyetujui kredit yang ditolak AI, atau menolak yang disetujui AI, dengan catatan alasan (misal: "nasabah memiliki potensi bisnis yang tidak tercermin dalam data historis").
Informed Understanding (P3)AI menjelaskan faktor‑faktor utama yang mempengaruhi skor (feature importance dari AITEMT). Analis terlatih membaca ini.
Sovereignty by Design (P4)Dashboard analis menampilkan rekomendasi AI, riwayat nasabah, dan tombol override yang mudah. Ada notifikasi jika ada anomali.
HasilProses lebih cepat, tetap adil, ada manusia yang bertanggung jawab, kepuasan nasabah meningkat.

11. KETERBATASAN DAN BATASAN

KeterbatasanPenjelasanMitigasi
Beban kognitif reviewerHuman review untuk semua keputusan bisa membebani dan menyebabkan kelelahan (fatigue), yang justru menurunkan kualitas review.Terapkan secara proporsional (matriks risiko), gunakan sampling untuk risiko rendah, rotasi reviewer.
Kecepatan prosesHuman review memperlambat proses, yang mungkin tidak dapat diterima dalam situasi yang membutuhkan kecepatan tinggi.Desain workflow yang efisien, beri waktu yang memadai tetapi terbatas. Prioritaskan kecepatan hanya untuk keputusan yang memang membutuhkan.
Kualitas review yang bervariasiTidak semua review berkualitas; bisa dipengaruhi oleh kelelahan, bias, atau kurangnya pemahaman.Training, standarisasi, audit kualitas review, umpan balik.
Override sewenang‑wenangManusia bisa mengesampingkan AI tanpa alasan kuat (misal: karena tidak suka AI, atau karena terlalu percaya diri).Wajib dokumentasi alasan, review periodik atas pola override, umpan balik.
Desain yang burukJika sistem tidak dirancang dengan baik (sovereignty by design tidak diterapkan), mekanisme kedaulatan bisa diabaikan atau sulit digunakan.Terapkan sovereignty by design sejak awal, uji dengan pengguna, iterasi desain.

12. KESIMPULAN

Human‑in‑the‑Loop Decision Sovereignty Theory (HILDST) menawarkan kerangka sistematis untuk menegakkan dan melindungi kedaulatan manusia dalam pengambilan keputusan berbantuan AI. Dengan empat pilar—Mandatory Human Review, Right to Override, Informed Understanding, dan Sovereignty by Design—HILDST memastikan bahwa manusia tetap memegang kendali final, terutama untuk keputusan‑keputusan yang berdampak signifikan pada kehidupan, hak, dan martabat manusia.

HILDST melengkapi AIDAT (akuntabilitas), ABMGT (mitigasi bias), AITEMT (transparansi), dan EDLT (batas delegasi) dengan fokus pada aspek paling fundamental: siapa yang memegang kendali final. Dalam ekosistem AI governance yang utuh:

  • AIDAT memastikan manusia bertanggung jawab.
  • ABMGT memastikan AI tidak bias.
  • AITEMT memastikan AI dapat dijelaskan.
  • EDLT memastikan batas delegasi tidak dilanggar.
  • HILDST memastikan manusia memiliki kendali dan kedaulatan.

Berakar pada nilai‑nilai Islam tentang khalifah (kepemimpinan manusia) dan amanah (tanggung jawab), HILDST menegaskan bahwa kedaulatan manusia adalah hakiki dan tidak dapat didelegasikan. Manusia adalah khalifah yang memegang amanah pengambilan keputusan, dan AI hanyalah alat untuk membantu menunaikan amanah tersebut, bukan untuk menggantikannya.

Dengan menerapkan HILDST, organisasi dapat:

  • Menghindari "responsibility gap" di mana tidak ada yang bertanggung jawab atas keputusan AI.
  • Meningkatkan kualitas keputusan melalui sinergi antara kecerdasan manusia dan AI.
  • Membangun kepercayaan publik dengan menunjukkan bahwa manusia tetap memegang kendali.
  • Mematuhi regulasi yang semakin ketat tentang pengawasan manusia dalam AI.
  • Menjunjung tinggi martabat manusia dan nilai‑nilai kemanusiaan di era digital.

DAFTAR PUSTAKA

1. Shneiderman, B. (2020). Human‑Centered Artificial Intelligence: Reliable, Safe & Trustworthy. International Journal of Human‑Computer Interaction.

2. Shneiderman, B. (2022). Human‑Centered AI. Oxford University Press.

3. Endsley, M. R. (2017). From Here to Autonomy: Lessons Learned from Human Factors Research. Human Factors.

4. Parasuraman, R., Sheridan, T. B., & Wickens, C. D. (2000). A Model for Types and Levels of Human Interaction with Automation. IEEE Transactions on Systems, Man, and Cybernetics.

5. Bovens, M. (2007). Analysing and Assessing Accountability: A Conceptual Framework. European Law Journal.

6. Jonas, H. (1984). The Imperative of Responsibility. University of Chicago Press.

7. Matthias, A. (2004). The Responsibility Gap: Ascribing Responsibility for the Actions of Learning Automata. Ethics and Information Technology.

8. Floridi, L., et al. (2018). AI4People—An Ethical Framework for a Good AI Society. Minds and Machines.

9. EU High‑Level Expert Group on AI. (2019). Ethics Guidelines for Trustworthy AI.

10. CAA (Cognitive Accountability Architecture). (2026). Accountability‑Based Universal Wisdom and Trust.

11. PDG (Pre‑Decision Governance). (2026). Accountability‑Based Universal Wisdom and Trust.

12. AIDAT (AI‑Assisted Decision Accountability Theory). (2026). Accountability‑Based Universal Wisdom and Trust.

13. ABMGT (Algorithmic Bias Mitigation Governance Theory). (2026). Accountability‑Based Universal Wisdom and Trust.

14. AITEMT (AI Transparency & Explainability Mandate Theory). (2026). Accountability‑Based Universal Wisdom and Trust.

15. EDLT (Epistemic Delegation Limit Theory). (2026). Accountability‑Based Universal Wisdom and Trust.

"Ingatlah ketika Tuhanmu berfirman kepada para malaikat: 'Sesungguhnya Aku hendak menjadikan seorang khalifah di muka bumi.'" (QS. Al‑Baqarah: 30)

"Sesungguhnya Kami telah menawarkan amanah kepada langit, bumi, dan gunung‑gunung; maka semuanya enggan untuk memikulnya dan mereka khawatir akan mengkhianatinya, dan dipikullah amanah itu oleh manusia." (QS. Al‑Ahzab: 72)

"Kedaulatan bukan tentang menolak teknologi, tetapi tentang memastikan bahwa teknologi melayani manusia, bukan sebaliknya. Dalam setiap keputusan yang penting, harus ada manusia yang memegang kendali dan bersedia bertanggung jawab."