Halaman

Sabtu, 21 Februari 2026

Lv 3. AI-Assisted Decision AIDAT

AIDAT – AI‑Assisted Decision Accountability Theory

AI‑ASSISTED DECISION ACCOUNTABILITY THEORY (AIDAT)

Accountability‑Based Universal Wisdom and Trust
Cross‑Sector Pre‑Decision Governance Translator
Memperluas Akuntabilitas Kognitif ke dalam Penggunaan Kecerdasan Buatan dalam Pengambilan Keputusan

Versi: 1.0 – Final untuk Publikasi | Tanggal: 21 Februari 2026

ABSTRAK

Perkembangan kecerdasan buatan (AI) telah mengubah lanskap pengambilan keputusan di berbagai sektor—dari rekomendasi kebijakan publik, analisis investasi korporasi, hingga diagnosis medis dan penilaian risiko kredit. Namun, kemajuan ini membawa tantangan baru yang belum terselesaikan secara teoretis maupun praktis: bagaimana mempertahankan akuntabilitas manusia ketika keputusan semakin banyak dipengaruhi atau bahkan digantikan oleh sistem AI?

Artikel ini mengembangkan AI‑Assisted Decision Accountability Theory (AIDAT) sebagai teori turunan dari Pre‑Decision Governance (PDG) dan Cognitive Accountability Architecture (CAA). AIDAT secara sistematis membingkai ulang hubungan antara manusia dan AI dalam pengambilan keputusan, dengan menegaskan bahwa akuntabilitas keputusan tetap berada pada manusia, tidak dapat didelegasikan ke AI. AI berperan sebagai alat bantu yang memperluas kapasitas kognitif manusia, bukan sebagai agen moral yang bertanggung jawab.

AIDAT merumuskan empat pilar utama: (1) Batas Delegasi Epistemik – mendefinisikan sejauh mana proses berpikir dapat didelegasikan ke AI; (2) Transparansi dan Explainability – kewajiban untuk membuka "kotak hitam" AI; (3) Kedaulatan Manusia dalam Loop – jaminan bahwa manusia tetap memegang kendali atas keputusan final; dan (4) Akuntabilitas Residual – tanggung jawab manusia yang tidak terhapus meskipun menggunakan AI. Keempat pilar ini berfungsi sebagai kerangka untuk mendesain, mengevaluasi, dan mengawasi penggunaan AI dalam pengambilan keputusan strategis.

Dengan mengintegrasikan wawasan dari literatur Responsible AI, Algorithmic Accountability, Human‑Computer Interaction, dan Pre‑Decision Governance, serta diperkaya dengan nilai‑nilai manhaj Islam tentang amanah, 'adl, dan mas'uliyyah, AIDAT menawarkan kontribusi orisinal: menempatkan isu‑isu AI governance ke dalam arsitektur tata kelola pra‑keputusan yang terstruktur, bukan sekadar sebagai etika teknologi yang terpisah.

Kata Kunci: AI Accountability, Akuntabilitas Kognitif, Human‑in‑the‑Loop, Delegasi Epistemik, Tata Kelola AI, Pre‑Decision Governance, Amanah

1. PENDAHULUAN

1.1 Fenomena yang Belum Cukup Dijelaskan

Dalam satu dekade terakhir, penggunaan kecerdasan buatan (AI) dalam pengambilan keputusan strategis telah meluas secara dramatis. Algoritma kini digunakan untuk:

  • Merekomendasikan kebijakan publik berdasarkan analisis data besar.
  • Menentukan kelayakan kredit peminjam.
  • Mendiagnosis penyakit dan merekomendasikan pengobatan.
  • Menyaring pelamar kerja.
  • Mengoptimalkan alokasi sumber daya dalam organisasi.
  • Bahkan, dalam beberapa konteks, mengambil keputusan secara otomatis tanpa campur tangan manusia.

Namun, kemajuan ini membawa serangkaian pertanyaan yang belum terjawab secara memadai:

PertanyaanRealitas Saat Ini
Siapa yang bertanggung jawab jika AI membuat keputusan yang salah?Tidak jelas; sering kali "tanggung jawab teknis" diabaikan.
Bagaimana manusia dapat mengawasi sistem yang semakin kompleks dan opak?Sulit; "kotak hitam" AI sulit dipahami.
Sejauh mana manusia boleh mendelegasikan proses berpikir ke AI?Tidak ada batasan yang jelas.
Bagaimana memastikan AI tidak mereproduksi atau memperkuat bias?Upaya ada, tetapi belum sistematis.
Bagaimana nilai‑nilai etika dan agama dapat diintegrasikan dalam penggunaan AI?Sering terabaikan dalam desain teknis.

Fenomena ini menunjukkan adanya kesenjangan konseptual dalam literatur yang ada: akuntabilitas kognitif—yang telah diteorisasi dalam CAA dan PDG—belum diperluas secara sistematis ke dalam domain AI.

1.2 Posisi dalam Hierarki Teori

AIDAT diposisikan sebagai teori turunan (derived programmatic theory) dari PDG, yang secara spesifik mengadaptasi keempat pilar PDG ke dalam konteks penggunaan AI dalam pengambilan keputusan. AIDAT melengkapi teori‑teori AI governance lainnya (ABMGT, AITEMT, HILDST, EDLT) dengan fokus pada akuntabilitas manusia sebagai fondasi.


┌─────────────────────────────────────────────────────────────┐

│              COGNITIVE ACCOUNTABILITY ARCHITECTURE          │

│                       (Meta‑Teori)                          │

└─────────────────────────────────────────────────────────────┘

                              │

                              ▼

┌─────────────────────────────────────────────────────────────┐

│                 PRE‑DECISION GOVERNANCE (PDG)               │

│                  (General Integrative Theory)                │

└─────────────────────────────────────────────────────────────┘

          │                │                │                │

          ▼                ▼                ▼                ▼

┌─────────────────┐ ┌─────────────────┐ ┌─────────────────┐ ┌─────────────────┐

│      PEDG       │ │      IPDG       │ │      DQI        │ │      AIDAT      │

│  (Temporal)     │ │  (Pengukuran)   │ │   (Outcome)     │ │  (AI Domain)    │

└─────────────────┘ └─────────────────┘ └─────────────────┘ └─────────────────┘

    

1.3 Tujuan dan Kontribusi

AIDAT bertujuan untuk:

  1. Memperluas kerangka akuntabilitas kognitif ke dalam domain penggunaan AI dalam pengambilan keputusan.
  2. Mendefinisikan batas‑batas delegasi epistemik—sejauh mana proses berpikir dapat didelegasikan ke AI.
  3. Merumuskan empat pilar yang menjadi fondasi tata kelola AI yang akuntabel, dengan mengintegrasikan nilai‑nilai universal dan manhaj Islam.
  4. Menyediakan instrumen operasional untuk mengevaluasi dan mengawasi penggunaan AI.
  5. Menjelaskan bagaimana AIDAT dapat diintegrasikan dengan kerangka PDG yang lebih luas dan teori‑teori AI governance lainnya.

2. LANDASAN TEORETIS

2.1 Akuntabilitas Kognitif dan Pre‑Decision Governance

KonsepKontribusi ke AIDAT
CAA (Cognitive Accountability)Memperluas akuntabilitas ke ranah penalaran; AIDAT menerapkan ini pada sistem AI.
PDG (Pre‑Decision Governance)Empat pilar PDG menjadi kerangka untuk mendesain penggunaan AI yang akuntabel.
EDLT (Epistemic Delegation Limit)Mendefinisikan batas delegasi berpikir; AIDAT mengadopsi dan memperluas ke domain AI.

2.2 Literatur AI Governance dan Responsible AI

Tokoh/LiteraturKontribusiRelevansi dengan AIDAT
Floridi et al. (2018)Prinsip AI etis (transparansi, keadilan, akuntabilitas)Dijadikan fondasi normatif.
Diakopoulos (2016)Akuntabilitas algoritmik dan auditabilitasDiadaptasi menjadi mekanisme transparansi.
Mittelstadt et al. (2016)Etika algoritmaMemperkaya analisis dilema etis.
EU AI ActRegulasi AI berisiko tinggiMenyediakan konteks legal.

2.3 Human‑Computer Interaction dan Human‑in‑the‑Loop

TokohKontribusiRelevansi dengan AIDAT
Shneiderman (2020)Human‑centered AIDasar bagi pilar kedaulatan manusia.
Endsley (2017)Situational awarenessPentingnya manusia memahami konteks.

2.4 Nilai‑Nilai Manhaj Islam

NilaiSumberRelevansi dengan AIDAT
AmanahQS. Al‑Ahzab: 72Pengguna AI memegang amanah atas keputusan yang dihasilkan; tidak boleh mendelegasikan tanggung jawab kepada mesin.
'Adl (Keadilan)QS. Al‑Ma'idah: 8AI harus digunakan secara adil dan tidak diskriminatif.
Mas'uliyyah (Tanggung Jawab)Konsep IslamManusia bertanggung jawab atas tindakannya, termasuk yang dibantu AI.
Tabayyun (Klarifikasi)QS. Al‑Hujurat: 6AI harus transparan dan dapat dijelaskan agar manusia dapat melakukan verifikasi.

2.5 Keterkaitan dengan Teori Turunan AI Lainnya

AIDAT merupakan bagian dari ekosistem teori AI governance yang saling melengkapi:

TeoriFokusHubungan dengan AIDAT
ABMGTMitigasi bias algoritmikMelengkapi aspek keadilan.
AITEMTTransparansi dan explainabilityMenyediakan prasyarat untuk akuntabilitas.
HILDSTKedaulatan manusia dalam loopMemperkuat pilar kedaulatan.
EDLTBatas delegasi epistemikMemberikan landasan tentang apa yang boleh didelegasikan.

3. DEFINISI DAN KONSEP INTI

3.1 Definisi AI‑Assisted Decision

Dalam konteks AIDAT, AI‑assisted decision didefinisikan sebagai:

Proses pengambilan keputusan di mana sistem AI memberikan input, rekomendasi, analisis, atau bahkan keputusan awal, namun manusia tetap memiliki peran dalam evaluasi, modifikasi, atau otorisasi final, dengan tanggung jawab akhir berada pada manusia sebagai pemegang amanah.

3.2 Definisi AI Accountability

AI Accountability adalah kewajiban institusional untuk memastikan bahwa penggunaan AI dalam pengambilan keputusan memenuhi prinsip transparansi, keadilan, dan akuntabilitas kognitif, dengan manusia sebagai pemegang tanggung jawab utama, yang kelak akan dimintai pertanggungjawaban (hisab).

3.3 Prinsip Dasar AIDAT

PrinsipPenjelasan
AI adalah alat, bukan agen moralAI tidak dapat memegang tanggung jawab moral atau hukum.
Akuntabilitas tetap pada manusiaManusia yang menggunakan AI bertanggung jawab atas keputusan.
Delegasi epistemik terbatasManusia tidak boleh mendelegasikan penilaian nilai, framing, dan keputusan final.
Transparansi adalah prasyaratTanpa transparansi, akuntabilitas tidak mungkin.
Human‑in‑the‑loop adalah wajibUntuk keputusan strategis, manusia harus terlibat aktif.

4. EMPAT PILAR AIDAT

Pilar 1: Batas Delegasi Epistemik (Epistemic Delegation Boundaries)

Pertanyaan kunci: Sejauh mana manusia boleh mendelegasikan proses berpikir ke AI tanpa kehilangan akuntabilitas?

DimensiIndikatorRisiko Jika DilanggarInstrumen
Delegasi komputasi vs delegasi judgmentAI boleh membantu komputasi dan analisis data, tetapi tidak boleh menggantikan penilaian manusia atas nilai, etika, dan konteks.Keputusan tanpa sentuhan manusia, kehilangan konteks.Matriks Delegasi Epistemik
Delegasi eksplorasi opsiAI boleh menawarkan opsi, tetapi manusia harus memilih dan memahami alasannya.Manusia menjadi "rubber stamp".Formulir Analisis Opsi
Delegasi identifikasi risikoAI boleh mengidentifikasi risiko, tetapi manusia harus menilai signifikansi dan mitigasinya.Risiko terlewat atau salah prioritas.Epistemic Risk Register
Larangan delegasi framingFraming masalah tidak boleh didelegasikan ke AI; manusia harus mendefinisikan masalah.AI bekerja pada masalah yang salah.CFT (Counter‑Framing Theory)

Proposisi AIDAT 1: Semakin tinggi derajat delegasi judgment ke AI (beyond komputasi), semakin tinggi risiko pelanggaran akuntabilitas kognitif.

Pilar 2: Transparansi dan Explainability (Transparency & Explainability)

Pertanyaan kunci: Apakah proses penalaran AI cukup transparan untuk dapat diaudit dan dipahami manusia?

DimensiIndikatorRisiko Jika DilanggarInstrumen
ExplainabilityAI harus mampu memberikan penjelasan yang dapat dipahami manusia tentang bagaimana ia sampai pada rekomendasi."Kotak hitam", tidak bisa diaudit.Explainability Quality Index
TraceabilitySetiap keputusan harus dapat dilacak ke data dan parameter yang digunakan.Tidak bisa merekonstruksi kesalahan.Decision Traceability Index
Disclosure keterbatasanAI harus mengungkapkan batasan dan ketidakpastian modelnya.Overconfidence, keputusan keliru.Model Card, Transparency Disclosure
Akses untuk auditPihak independen harus dapat mengakses dan mengaudit algoritma.Tidak ada mekanisme pengawasan.Audit Access Protocol

Proposisi AIDAT 2: Tingkat transparansi algoritmik berkorelasi positif dengan kemampuan manusia untuk mempertahankan akuntabilitas atas keputusan yang dibantu AI.

Pilar 3: Kedaulatan Manusia dalam Loop (Human‑in‑the‑Loop Sovereignty)

Pertanyaan kunci: Apakah manusia memiliki kontrol yang memadai atas proses pengambilan keputusan yang melibatkan AI?

DimensiIndikatorRisiko Jika DilanggarInstrumen
Mandatory human reviewKeputusan strategis wajib melalui review manusia, tidak boleh otomatis.Otomatisasi tanpa pengawasan.Human‑in‑the‑Loop Protocol
Right to overrideManusia memiliki hak dan kemampuan untuk mengesampingkan rekomendasi AI.AI menjadi otoritas final.Override Mechanism
Informed overrideOverride harus didasarkan pada pemahaman, bukan sekadar intuisi.Override sewenang‑wenang.Informed Consent Checklist
Time for deliberationManusia harus diberi waktu cukup untuk mempertimbangkan sebelum memutuskan.Tekanan waktu, keputusan tergesa.Prosedur Cooling‑off

Proposisi AIDAT 3: Keberadaan mekanisme human review yang kuat (mandatory, informed, dengan waktu cukup) meningkatkan kualitas keputusan berbasis AI.

Pilar 4: Akuntabilitas Residual (Residual Accountability)

Pertanyaan kunci: Apakah tanggung jawab manusia tetap melekat meskipun menggunakan AI?

DimensiIndikatorRisiko Jika DilanggarInstrumen
Penetapan penanggung jawabAda pihak yang secara eksplisit ditunjuk sebagai penanggung jawab atas keputusan berbasis AI."Responsibility gap", tidak ada yang bertanggung jawab.Accountability Charter
Kewajiban pemahamanPenanggung jawab wajib memahami secara memadai cara kerja AI dan keterbatasannya.Buta teknologi, tidak mampu mengawasi.Training Program, Sertifikasi
Kewajiban monitoringPenanggung jawab wajib memantau kinerja AI secara berkala.Kesalahan tidak terdeteksi.Dashboard Monitoring
Kewajiban koreksiJika terjadi kesalahan, penanggung jawab wajib melakukan koreksi dan pembelajaran.Kesalahan berulang.Mekanisme Banding, Learning Loop
Dimensi transendentalKesadaran bahwa penggunaan AI akan dipertanggungjawabkan di hadapan Allah (hisab).Hilangnya motivasi etis spiritual.Integrasi nilai dalam pelatihan

Proposisi AIDAT 4: Semakin jelas penetapan akuntabilitas residual manusia, semakin tinggi legitimasi keputusan berbasis AI.

5. MODEL MEKANISME KAUSAL AIDAT


┌─────────────────────────────────────────────────────────────────┐

│                           AIDAT                                  │

│  (Empat Pilar: Delegasi, Transparansi, Kedaulatan, Akuntabilitas)│

└───────────────────────────┬─────────────────────────────────────┘

                            │

                            ▼

┌─────────────────────────────────────────────────────────────────┐

│                PERUBAHAN INSENTIF KOGNITIF                      │

│  • Batas delegasi → insentif untuk tidak "menyerahkan" ke AI   │

│  • Transparansi → insentif untuk memahami, bukan menerima buta  │

│  • Kedaulatan → insentif untuk tetap terlibat                  │

│  • Akuntabilitas residual → insentif untuk pengawasan melekat   │

└───────────────────────────┬─────────────────────────────────────┘

                            │

                            ▼

┌─────────────────────────────────────────────────────────────────┐

│               TRANSFORMASI PERILAKU PENGGUNAAN AI               │

│  • Framing tetap domain manusia                                 │

│  • Rekomendasi AI dikritisi, tidak diterima mentah‑mentah       │

│  • Keputusan final oleh manusia dengan pemahaman                │

│  • Ada dokumentasi dan audit trail                              │

│  • Kesadaran spiritual (hisab) memperkuat motivasi              │

└───────────────────────────┬─────────────────────────────────────┘

                            │

                            ▼

┌─────────────────────────────────────────────────────────────────┐

│                 PENINGKATAN AKUNTABILITAS KEPUTUSAN             │

│  • Keputusan lebih akurat karena AI membantu, bukan menggantikan│

│  • Risiko "responsibility gap" berkurang                       │

│  • Kepercayaan publik meningkat                                │

│  • Kepatuhan terhadap regulasi terpenuhi                       │

│  • Nilai‑nilai keadilan dan amanah terjaga                     │

└─────────────────────────────────────────────────────────────────┘

    

6. PROPOSISI DAN HIPOTESIS

6.1 Proposisi Utama per Pilar

PilarProposisi
Batas Delegasi EpistemikP1: Semakin tinggi derajat delegasi judgment ke AI (beyond komputasi), semakin tinggi risiko pelanggaran akuntabilitas kognitif.
Transparansi & ExplainabilityP2: Tingkat transparansi algoritmik berkorelasi positif dengan kemampuan manusia untuk mempertahankan akuntabilitas atas keputusan yang dibantu AI.
Kedaulatan ManusiaP3: Keberadaan mekanisme human review yang kuat (mandatory, informed, dengan waktu cukup) meningkatkan kualitas keputusan berbasis AI.
Akuntabilitas ResidualP4: Semakin jelas penetapan akuntabilitas residual manusia, semakin tinggi legitimasi keputusan berbasis AI.

6.2 Hipotesis Kausal

H1: Terdapat pengaruh positif antara penerapan AIDAT (agregat empat pilar) dan kualitas keputusan yang melibatkan AI (diukur dengan DQI‑AI).

H2: Pengaruh AIDAT terhadap kualitas keputusan dimediasi oleh:

  • H2a: Pemahaman manusia terhadap rekomendasi AI.
  • H2b: Frekuensi override yang informed.
  • H2c: Deteksi dini bias dan kesalahan.

H3: Pengaruh AIDAT lebih kuat dalam kondisi:

  • H3a: Kompleksitas keputusan tinggi.
  • H3b: Risiko reputasi atau diskriminasi tinggi.
  • H3c: Ketergantungan pada AI tinggi.
  • H3d: Kesadaran spiritual (hisab) kuat dalam organisasi.

7. INSTRUMEN AIDAT

7.1 Indeks Kesiapan AIDAT (AIDAT Readiness Index)

PilarIndikatorSkor 1‑5
Delegasi EpistemikAda kebijakan eksplisit tentang batas penggunaan AI.□ □ □ □ □
Ada klasifikasi tugas yang boleh/tidak boleh didelegasikan ke AI.□ □ □ □ □
Transparansi & ExplainabilitySemua AI yang digunakan memiliki dokumentasi explainability.□ □ □ □ □
Ada mekanisme audit algoritma berkala.□ □ □ □ □
Kedaulatan ManusiaSemua keputusan strategis wajib melalui human review.□ □ □ □ □
Manusia memiliki hak override yang mudah diakses.□ □ □ □ □
Akuntabilitas ResidualAda penunjukan penanggung jawab untuk setiap keputusan berbasis AI.□ □ □ □ □
Ada mekanisme banding bagi pihak terdampak.□ □ □ □ □
Ada kesadaran hisab dalam pelatihan dan kebijakan.□ □ □ □ □

AIDAT Readiness Index = (Total skor / 45) × 100 (skala 0‑100)

7.2 Formulir Evaluasi Keputusan Berbantuan AI (DQI‑AI)

DimensiSkor 1‑5Catatan
Kualitas rekomendasi AI (akurasi, relevansi)□ □ □ □ □
Pemahaman manusia atas rekomendasi□ □ □ □ □
Kualitas proses review manusia (kedalaman, kritis)□ □ □ □ □
Transparansi proses AI□ □ □ □ □
Keadilan dan bias□ □ □ □ □
Akuntabilitas residual (ada penanggung jawab)□ □ □ □ □
Kesesuaian dengan nilai (amanah, 'adl)□ □ □ □ □

DQI‑AI Total = (Total / 7) × 20 = ___ / 100

8. IMPLEMENTASI AIDAT

8.1 Langkah‑langkah Implementasi

FaseAktivitasOutput
1. InventarisasiIdentifikasi semua keputusan yang menggunakan AI di organisasi.Daftar use case AI (prioritas berdasarkan risiko).
2. Klasifikasi risikoKelompokkan berdasarkan risiko (tinggi, sedang, rendah).Matriks risiko AI.
3. Penetapan kebijakanTetapkan batas delegasi dan mekanisme review, integrasikan nilai amanah dan hisab.Kebijakan tertulis, Accountability Charter.
4. PelatihanLatih pengguna AI dalam memahami keterbatasan, cara review, dan kesadaran spiritual.SDM kompeten, modul pelatihan.
5. ImplementasiTerapkan AIDAT pada use case risiko tinggi terlebih dahulu.Protokol AIDAT terintegrasi.
6. Audit berkalaLakukan audit independen terhadap kepatuhan AIDAT.Laporan audit, rekomendasi perbaikan.
7. PembelajaranDokumentasikan pembelajaran dan perbaiki sistem.Knowledge base, update kebijakan.

8.2 Peran dan Tanggung Jawab

PeranTanggung Jawab
AI Governance OfficerMengawasi penerapan AIDAT di seluruh organisasi.
Tim Audit AlgoritmaMelakukan audit transparansi dan bias secara berkala.
Pengguna AI (Decision Makers)Memahami keterbatasan AI, melakukan review informed, menyadari tanggung jawab moral.
Pengembang AIMenyediakan dokumentasi explainability dan batasan.
Komite EtikMemastikan kepatuhan terhadap nilai‑nilai etika dan spiritual.

9. STUDI KASUS HIPOTETIS

Kasus 1: AI dalam Penilaian Kredit Perbankan

AspekPenerapan AIDAT
SituasiBank menggunakan AI untuk menilai kelayakan kredit nasabah. AI dilatih dengan data historis pinjaman 10 tahun terakhir yang mengandung bias historis.
Tanpa AIDATAI menolak banyak pemohon dari kelompok minoritas. Bank tidak menyadari bias karena tidak ada audit. Reputasi hancur, tuntutan hukum muncul.
Dengan AIDAT• Delegasi: Bank menetapkan bahwa keputusan final tetap oleh analis manusia.
• Transparansi: AI menyediakan penjelasan (feature importance) mengapa suatu permohonan ditolak.
• Kedaulatan: Analis memiliki hak override dan waktu untuk mempertimbangkan.
• Akuntabilitas: Ada penanggung jawab (kepala bagian kredit) yang memonitor kinerja AI.
• Nilai: Pelatihan tentang amanah dan keadilan dalam penilaian kredit.
HasilKeputusan lebih adil, risiko reputasi turun, kepercayaan nasabah meningkat.

Kasus 2: AI dalam Rekomendasi Kebijakan Publik

AspekPenerapan AIDAT
SituasiKementerian menggunakan AI untuk menganalisis dampak kebijakan ekonomi.
Tanpa AIDATAI merekomendasikan kebijakan yang menguntungkan kelompok tertentu. Menteri menandatangani tanpa memahami asumsi model. Kebijakan gagal, publik marah.
Dengan AIDAT• Delegasi: Framing kebijakan tetap oleh tim perencana, AI hanya membantu analisis.
• Transparansi: AI menjelaskan asumsi dan keterbatasan model.
• Kedaulatan: Ada sesi review khusus (Executive Challenge Session) sebelum keputusan final.
• Akuntabilitas: Menteri tetap bertanggung jawab, didukung dokumentasi proses.
• Nilai: Kesadaran hisab memperkuat motivasi untuk membuat kebijakan yang adil.
HasilKebijakan lebih tepat sasaran, menteri dapat menjelaskan dasar keputusan.

10. KETERBATASAN DAN BATASAN

KeterbatasanPenjelasanMitigasi
Kompleksitas teknisAudit algoritma membutuhkan keahlian khusus.Kembangkan tim multidisiplin, gunakan alat bantu, kerja sama dengan ahli.
Resistensi pengembangPengembang mungkin menolak transparansi.Insentif, regulasi, tekanan pasar, edukasi tentang amanah.
Biaya implementasiAudit berkala dan dokumentasi membutuhkan sumber daya.Terapkan bertahap, prioritaskan sistem berisiko tinggi.
Perkembangan AI cepatTeknologi berubah, regulasi bisa tertinggal.Desain framework adaptif, review berkala (tahunan).
Human errorManusia bisa tetap melakukan kesalahan meskipun dibantu AI.Kombinasikan dengan mekanisme lain (SCP, HILDST).
Kesadaran spiritualTidak semua organisasi memiliki nilai hisab.Framing sebagai tanggung jawab moral universal, dapat diadaptasi.

11. KESIMPULAN

AI‑Assisted Decision Accountability Theory (AIDAT) menawarkan kerangka sistematis untuk memahami dan mengelola akuntabilitas dalam pengambilan keputusan yang melibatkan kecerdasan buatan. Dengan berakar pada Cognitive Accountability Architecture (CAA) dan Pre‑Decision Governance (PDG), AIDAT memposisikan isu‑isu AI governance bukan sebagai domain terpisah, melainkan sebagai perluasan alami dari tata kelola pra‑keputusan ke dalam era digital.

Empat pilar AIDAT—Batas Delegasi Epistemik, Transparansi & Explainability, Kedaulatan Manusia dalam Loop, dan Akuntabilitas Residual—menyediakan kerangka untuk mendesain, mengevaluasi, dan mengawasi penggunaan AI dalam pengambilan keputusan strategis. Integrasi dengan nilai‑nilai manhaj Islam tentang amanah, 'adl, dan mas'uliyyah memberikan legitimasi normatif dan motivasi transendental yang memperkuat urgensi akuntabilitas kognitif.

Kontribusi utama AIDAT adalah menegaskan bahwa:

  1. AI adalah alat, bukan agen moral. Akuntabilitas tetap pada manusia sebagai pemegang amanah.
  2. Delegasi proses berpikir ke AI memiliki batas. Manusia tidak boleh mendelegasikan judgment, framing, dan nilai.
  3. Transparansi bukan pilihan, melainkan keharusan epistemik. Tanpa pemahaman, tidak ada akuntabilitas.
  4. Akuntabilitas residual harus dirancang secara eksplisit. Harus jelas siapa yang bertanggung jawab atas setiap keputusan berbasis AI.
  5. Kesadaran hisab memperkuat motivasi internal untuk menjaga kualitas keputusan.

Dengan demikian, AIDAT melengkapi kerangka PDG dan membuka jalan bagi pengembangan teori dan praktik tata kelola yang responsif terhadap era kecerdasan buatan, sekaligus menjunjung tinggi nilai‑nilai kemanusiaan dan spiritual.

12. DAFTAR PUSTAKA

  1. Bovens, M. (2007). Analysing and Assessing Accountability: A Conceptual Framework. European Law Journal.
  2. Diakopoulos, N. (2016). Accountability in Algorithmic Decision Making. Communications of the ACM.
  3. Endsley, M. R. (2017). From Here to Autonomy: Lessons Learned from Human Factors Research. Human Factors.
  4. Floridi, L., et al. (2018). AI4People—An Ethical Framework for a Good AI Society. Minds and Machines.
  5. Mittelstadt, B. D., et al. (2016). The Ethics of Algorithms: Mapping the Debate. Big Data & Society.
  6. Shneiderman, B. (2020). Human‑Centered Artificial Intelligence: Reliable, Safe & Trustworthy. International Journal of Human‑Computer Interaction.
  7. Kahneman, D., & Tversky, A. (1979). Prospect Theory: An Analysis of Decision under Risk. Econometrica.
  8. Simon, H. A. (1947). Administrative Behavior. Macmillan.
  9. Thaler, R. H., & Sunstein, C. R. (2008). Nudge. Yale University Press.
  10. Sunstein, C. R., & Hastie, R. (2015). Wiser. Harvard Business Review Press.
  11. CAA (Cognitive Accountability Architecture). (2026). Accountability‑Based Universal Wisdom and Trust.
  12. PDG (Pre‑Decision Governance). (2026). Accountability‑Based Universal Wisdom and Trust.
  13. EDLT (Epistemic Delegation Limit Theory). (2026). Accountability‑Based Universal Wisdom and Trust.
  14. Al‑Qur'an Al‑Karim.
  15. Ibn Taimiyah, Taqiyuddin. Majmu' al‑Fatawa.