AI‑ASSISTED DECISION ACCOUNTABILITY THEORY (AIDAT)
Versi: 1.0 – Final untuk Publikasi | Tanggal: 21 Februari 2026
ABSTRAK
Perkembangan kecerdasan buatan (AI) telah mengubah lanskap pengambilan keputusan di berbagai sektor—dari rekomendasi kebijakan publik, analisis investasi korporasi, hingga diagnosis medis dan penilaian risiko kredit. Namun, kemajuan ini membawa tantangan baru yang belum terselesaikan secara teoretis maupun praktis: bagaimana mempertahankan akuntabilitas manusia ketika keputusan semakin banyak dipengaruhi atau bahkan digantikan oleh sistem AI?
Artikel ini mengembangkan AI‑Assisted Decision Accountability Theory (AIDAT) sebagai teori turunan dari Pre‑Decision Governance (PDG) dan Cognitive Accountability Architecture (CAA). AIDAT secara sistematis membingkai ulang hubungan antara manusia dan AI dalam pengambilan keputusan, dengan menegaskan bahwa akuntabilitas keputusan tetap berada pada manusia, tidak dapat didelegasikan ke AI. AI berperan sebagai alat bantu yang memperluas kapasitas kognitif manusia, bukan sebagai agen moral yang bertanggung jawab.
AIDAT merumuskan empat pilar utama: (1) Batas Delegasi Epistemik – mendefinisikan sejauh mana proses berpikir dapat didelegasikan ke AI; (2) Transparansi dan Explainability – kewajiban untuk membuka "kotak hitam" AI; (3) Kedaulatan Manusia dalam Loop – jaminan bahwa manusia tetap memegang kendali atas keputusan final; dan (4) Akuntabilitas Residual – tanggung jawab manusia yang tidak terhapus meskipun menggunakan AI. Keempat pilar ini berfungsi sebagai kerangka untuk mendesain, mengevaluasi, dan mengawasi penggunaan AI dalam pengambilan keputusan strategis.
Dengan mengintegrasikan wawasan dari literatur Responsible AI, Algorithmic Accountability, Human‑Computer Interaction, dan Pre‑Decision Governance, serta diperkaya dengan nilai‑nilai manhaj Islam tentang amanah, 'adl, dan mas'uliyyah, AIDAT menawarkan kontribusi orisinal: menempatkan isu‑isu AI governance ke dalam arsitektur tata kelola pra‑keputusan yang terstruktur, bukan sekadar sebagai etika teknologi yang terpisah.
Kata Kunci: AI Accountability, Akuntabilitas Kognitif, Human‑in‑the‑Loop, Delegasi Epistemik, Tata Kelola AI, Pre‑Decision Governance, Amanah
1. PENDAHULUAN
1.1 Fenomena yang Belum Cukup Dijelaskan
Dalam satu dekade terakhir, penggunaan kecerdasan buatan (AI) dalam pengambilan keputusan strategis telah meluas secara dramatis. Algoritma kini digunakan untuk:
- Merekomendasikan kebijakan publik berdasarkan analisis data besar.
- Menentukan kelayakan kredit peminjam.
- Mendiagnosis penyakit dan merekomendasikan pengobatan.
- Menyaring pelamar kerja.
- Mengoptimalkan alokasi sumber daya dalam organisasi.
- Bahkan, dalam beberapa konteks, mengambil keputusan secara otomatis tanpa campur tangan manusia.
Namun, kemajuan ini membawa serangkaian pertanyaan yang belum terjawab secara memadai:
| Pertanyaan | Realitas Saat Ini |
|---|---|
| Siapa yang bertanggung jawab jika AI membuat keputusan yang salah? | Tidak jelas; sering kali "tanggung jawab teknis" diabaikan. |
| Bagaimana manusia dapat mengawasi sistem yang semakin kompleks dan opak? | Sulit; "kotak hitam" AI sulit dipahami. |
| Sejauh mana manusia boleh mendelegasikan proses berpikir ke AI? | Tidak ada batasan yang jelas. |
| Bagaimana memastikan AI tidak mereproduksi atau memperkuat bias? | Upaya ada, tetapi belum sistematis. |
| Bagaimana nilai‑nilai etika dan agama dapat diintegrasikan dalam penggunaan AI? | Sering terabaikan dalam desain teknis. |
Fenomena ini menunjukkan adanya kesenjangan konseptual dalam literatur yang ada: akuntabilitas kognitif—yang telah diteorisasi dalam CAA dan PDG—belum diperluas secara sistematis ke dalam domain AI.
1.2 Posisi dalam Hierarki Teori
AIDAT diposisikan sebagai teori turunan (derived programmatic theory) dari PDG, yang secara spesifik mengadaptasi keempat pilar PDG ke dalam konteks penggunaan AI dalam pengambilan keputusan. AIDAT melengkapi teori‑teori AI governance lainnya (ABMGT, AITEMT, HILDST, EDLT) dengan fokus pada akuntabilitas manusia sebagai fondasi.
┌─────────────────────────────────────────────────────────────┐
│ COGNITIVE ACCOUNTABILITY ARCHITECTURE │
│ (Meta‑Teori) │
└─────────────────────────────────────────────────────────────┘
│
▼
┌─────────────────────────────────────────────────────────────┐
│ PRE‑DECISION GOVERNANCE (PDG) │
│ (General Integrative Theory) │
└─────────────────────────────────────────────────────────────┘
│ │ │ │
▼ ▼ ▼ ▼
┌─────────────────┐ ┌─────────────────┐ ┌─────────────────┐ ┌─────────────────┐
│ PEDG │ │ IPDG │ │ DQI │ │ AIDAT │
│ (Temporal) │ │ (Pengukuran) │ │ (Outcome) │ │ (AI Domain) │
└─────────────────┘ └─────────────────┘ └─────────────────┘ └─────────────────┘
1.3 Tujuan dan Kontribusi
AIDAT bertujuan untuk:
- Memperluas kerangka akuntabilitas kognitif ke dalam domain penggunaan AI dalam pengambilan keputusan.
- Mendefinisikan batas‑batas delegasi epistemik—sejauh mana proses berpikir dapat didelegasikan ke AI.
- Merumuskan empat pilar yang menjadi fondasi tata kelola AI yang akuntabel, dengan mengintegrasikan nilai‑nilai universal dan manhaj Islam.
- Menyediakan instrumen operasional untuk mengevaluasi dan mengawasi penggunaan AI.
- Menjelaskan bagaimana AIDAT dapat diintegrasikan dengan kerangka PDG yang lebih luas dan teori‑teori AI governance lainnya.
2. LANDASAN TEORETIS
2.1 Akuntabilitas Kognitif dan Pre‑Decision Governance
| Konsep | Kontribusi ke AIDAT |
|---|---|
| CAA (Cognitive Accountability) | Memperluas akuntabilitas ke ranah penalaran; AIDAT menerapkan ini pada sistem AI. |
| PDG (Pre‑Decision Governance) | Empat pilar PDG menjadi kerangka untuk mendesain penggunaan AI yang akuntabel. |
| EDLT (Epistemic Delegation Limit) | Mendefinisikan batas delegasi berpikir; AIDAT mengadopsi dan memperluas ke domain AI. |
2.2 Literatur AI Governance dan Responsible AI
| Tokoh/Literatur | Kontribusi | Relevansi dengan AIDAT |
|---|---|---|
| Floridi et al. (2018) | Prinsip AI etis (transparansi, keadilan, akuntabilitas) | Dijadikan fondasi normatif. |
| Diakopoulos (2016) | Akuntabilitas algoritmik dan auditabilitas | Diadaptasi menjadi mekanisme transparansi. |
| Mittelstadt et al. (2016) | Etika algoritma | Memperkaya analisis dilema etis. |
| EU AI Act | Regulasi AI berisiko tinggi | Menyediakan konteks legal. |
2.3 Human‑Computer Interaction dan Human‑in‑the‑Loop
| Tokoh | Kontribusi | Relevansi dengan AIDAT |
|---|---|---|
| Shneiderman (2020) | Human‑centered AI | Dasar bagi pilar kedaulatan manusia. |
| Endsley (2017) | Situational awareness | Pentingnya manusia memahami konteks. |
2.4 Nilai‑Nilai Manhaj Islam
| Nilai | Sumber | Relevansi dengan AIDAT |
|---|---|---|
| Amanah | QS. Al‑Ahzab: 72 | Pengguna AI memegang amanah atas keputusan yang dihasilkan; tidak boleh mendelegasikan tanggung jawab kepada mesin. |
| 'Adl (Keadilan) | QS. Al‑Ma'idah: 8 | AI harus digunakan secara adil dan tidak diskriminatif. |
| Mas'uliyyah (Tanggung Jawab) | Konsep Islam | Manusia bertanggung jawab atas tindakannya, termasuk yang dibantu AI. |
| Tabayyun (Klarifikasi) | QS. Al‑Hujurat: 6 | AI harus transparan dan dapat dijelaskan agar manusia dapat melakukan verifikasi. |
2.5 Keterkaitan dengan Teori Turunan AI Lainnya
AIDAT merupakan bagian dari ekosistem teori AI governance yang saling melengkapi:
| Teori | Fokus | Hubungan dengan AIDAT |
|---|---|---|
| ABMGT | Mitigasi bias algoritmik | Melengkapi aspek keadilan. |
| AITEMT | Transparansi dan explainability | Menyediakan prasyarat untuk akuntabilitas. |
| HILDST | Kedaulatan manusia dalam loop | Memperkuat pilar kedaulatan. |
| EDLT | Batas delegasi epistemik | Memberikan landasan tentang apa yang boleh didelegasikan. |
3. DEFINISI DAN KONSEP INTI
3.1 Definisi AI‑Assisted Decision
Dalam konteks AIDAT, AI‑assisted decision didefinisikan sebagai:
3.2 Definisi AI Accountability
3.3 Prinsip Dasar AIDAT
| Prinsip | Penjelasan |
|---|---|
| AI adalah alat, bukan agen moral | AI tidak dapat memegang tanggung jawab moral atau hukum. |
| Akuntabilitas tetap pada manusia | Manusia yang menggunakan AI bertanggung jawab atas keputusan. |
| Delegasi epistemik terbatas | Manusia tidak boleh mendelegasikan penilaian nilai, framing, dan keputusan final. |
| Transparansi adalah prasyarat | Tanpa transparansi, akuntabilitas tidak mungkin. |
| Human‑in‑the‑loop adalah wajib | Untuk keputusan strategis, manusia harus terlibat aktif. |
4. EMPAT PILAR AIDAT
Pilar 1: Batas Delegasi Epistemik (Epistemic Delegation Boundaries)
Pertanyaan kunci: Sejauh mana manusia boleh mendelegasikan proses berpikir ke AI tanpa kehilangan akuntabilitas?
| Dimensi | Indikator | Risiko Jika Dilanggar | Instrumen |
|---|---|---|---|
| Delegasi komputasi vs delegasi judgment | AI boleh membantu komputasi dan analisis data, tetapi tidak boleh menggantikan penilaian manusia atas nilai, etika, dan konteks. | Keputusan tanpa sentuhan manusia, kehilangan konteks. | Matriks Delegasi Epistemik |
| Delegasi eksplorasi opsi | AI boleh menawarkan opsi, tetapi manusia harus memilih dan memahami alasannya. | Manusia menjadi "rubber stamp". | Formulir Analisis Opsi |
| Delegasi identifikasi risiko | AI boleh mengidentifikasi risiko, tetapi manusia harus menilai signifikansi dan mitigasinya. | Risiko terlewat atau salah prioritas. | Epistemic Risk Register |
| Larangan delegasi framing | Framing masalah tidak boleh didelegasikan ke AI; manusia harus mendefinisikan masalah. | AI bekerja pada masalah yang salah. | CFT (Counter‑Framing Theory) |
Proposisi AIDAT 1: Semakin tinggi derajat delegasi judgment ke AI (beyond komputasi), semakin tinggi risiko pelanggaran akuntabilitas kognitif.
Pilar 2: Transparansi dan Explainability (Transparency & Explainability)
Pertanyaan kunci: Apakah proses penalaran AI cukup transparan untuk dapat diaudit dan dipahami manusia?
| Dimensi | Indikator | Risiko Jika Dilanggar | Instrumen |
|---|---|---|---|
| Explainability | AI harus mampu memberikan penjelasan yang dapat dipahami manusia tentang bagaimana ia sampai pada rekomendasi. | "Kotak hitam", tidak bisa diaudit. | Explainability Quality Index |
| Traceability | Setiap keputusan harus dapat dilacak ke data dan parameter yang digunakan. | Tidak bisa merekonstruksi kesalahan. | Decision Traceability Index |
| Disclosure keterbatasan | AI harus mengungkapkan batasan dan ketidakpastian modelnya. | Overconfidence, keputusan keliru. | Model Card, Transparency Disclosure |
| Akses untuk audit | Pihak independen harus dapat mengakses dan mengaudit algoritma. | Tidak ada mekanisme pengawasan. | Audit Access Protocol |
Proposisi AIDAT 2: Tingkat transparansi algoritmik berkorelasi positif dengan kemampuan manusia untuk mempertahankan akuntabilitas atas keputusan yang dibantu AI.
Pilar 3: Kedaulatan Manusia dalam Loop (Human‑in‑the‑Loop Sovereignty)
Pertanyaan kunci: Apakah manusia memiliki kontrol yang memadai atas proses pengambilan keputusan yang melibatkan AI?
| Dimensi | Indikator | Risiko Jika Dilanggar | Instrumen |
|---|---|---|---|
| Mandatory human review | Keputusan strategis wajib melalui review manusia, tidak boleh otomatis. | Otomatisasi tanpa pengawasan. | Human‑in‑the‑Loop Protocol |
| Right to override | Manusia memiliki hak dan kemampuan untuk mengesampingkan rekomendasi AI. | AI menjadi otoritas final. | Override Mechanism |
| Informed override | Override harus didasarkan pada pemahaman, bukan sekadar intuisi. | Override sewenang‑wenang. | Informed Consent Checklist |
| Time for deliberation | Manusia harus diberi waktu cukup untuk mempertimbangkan sebelum memutuskan. | Tekanan waktu, keputusan tergesa. | Prosedur Cooling‑off |
Proposisi AIDAT 3: Keberadaan mekanisme human review yang kuat (mandatory, informed, dengan waktu cukup) meningkatkan kualitas keputusan berbasis AI.
Pilar 4: Akuntabilitas Residual (Residual Accountability)
Pertanyaan kunci: Apakah tanggung jawab manusia tetap melekat meskipun menggunakan AI?
| Dimensi | Indikator | Risiko Jika Dilanggar | Instrumen |
|---|---|---|---|
| Penetapan penanggung jawab | Ada pihak yang secara eksplisit ditunjuk sebagai penanggung jawab atas keputusan berbasis AI. | "Responsibility gap", tidak ada yang bertanggung jawab. | Accountability Charter |
| Kewajiban pemahaman | Penanggung jawab wajib memahami secara memadai cara kerja AI dan keterbatasannya. | Buta teknologi, tidak mampu mengawasi. | Training Program, Sertifikasi |
| Kewajiban monitoring | Penanggung jawab wajib memantau kinerja AI secara berkala. | Kesalahan tidak terdeteksi. | Dashboard Monitoring |
| Kewajiban koreksi | Jika terjadi kesalahan, penanggung jawab wajib melakukan koreksi dan pembelajaran. | Kesalahan berulang. | Mekanisme Banding, Learning Loop |
| Dimensi transendental | Kesadaran bahwa penggunaan AI akan dipertanggungjawabkan di hadapan Allah (hisab). | Hilangnya motivasi etis spiritual. | Integrasi nilai dalam pelatihan |
Proposisi AIDAT 4: Semakin jelas penetapan akuntabilitas residual manusia, semakin tinggi legitimasi keputusan berbasis AI.
5. MODEL MEKANISME KAUSAL AIDAT
┌─────────────────────────────────────────────────────────────────┐
│ AIDAT │
│ (Empat Pilar: Delegasi, Transparansi, Kedaulatan, Akuntabilitas)│
└───────────────────────────┬─────────────────────────────────────┘
│
▼
┌─────────────────────────────────────────────────────────────────┐
│ PERUBAHAN INSENTIF KOGNITIF │
│ • Batas delegasi → insentif untuk tidak "menyerahkan" ke AI │
│ • Transparansi → insentif untuk memahami, bukan menerima buta │
│ • Kedaulatan → insentif untuk tetap terlibat │
│ • Akuntabilitas residual → insentif untuk pengawasan melekat │
└───────────────────────────┬─────────────────────────────────────┘
│
▼
┌─────────────────────────────────────────────────────────────────┐
│ TRANSFORMASI PERILAKU PENGGUNAAN AI │
│ • Framing tetap domain manusia │
│ • Rekomendasi AI dikritisi, tidak diterima mentah‑mentah │
│ • Keputusan final oleh manusia dengan pemahaman │
│ • Ada dokumentasi dan audit trail │
│ • Kesadaran spiritual (hisab) memperkuat motivasi │
└───────────────────────────┬─────────────────────────────────────┘
│
▼
┌─────────────────────────────────────────────────────────────────┐
│ PENINGKATAN AKUNTABILITAS KEPUTUSAN │
│ • Keputusan lebih akurat karena AI membantu, bukan menggantikan│
│ • Risiko "responsibility gap" berkurang │
│ • Kepercayaan publik meningkat │
│ • Kepatuhan terhadap regulasi terpenuhi │
│ • Nilai‑nilai keadilan dan amanah terjaga │
└─────────────────────────────────────────────────────────────────┘
6. PROPOSISI DAN HIPOTESIS
6.1 Proposisi Utama per Pilar
| Pilar | Proposisi |
|---|---|
| Batas Delegasi Epistemik | P1: Semakin tinggi derajat delegasi judgment ke AI (beyond komputasi), semakin tinggi risiko pelanggaran akuntabilitas kognitif. |
| Transparansi & Explainability | P2: Tingkat transparansi algoritmik berkorelasi positif dengan kemampuan manusia untuk mempertahankan akuntabilitas atas keputusan yang dibantu AI. |
| Kedaulatan Manusia | P3: Keberadaan mekanisme human review yang kuat (mandatory, informed, dengan waktu cukup) meningkatkan kualitas keputusan berbasis AI. |
| Akuntabilitas Residual | P4: Semakin jelas penetapan akuntabilitas residual manusia, semakin tinggi legitimasi keputusan berbasis AI. |
6.2 Hipotesis Kausal
H1: Terdapat pengaruh positif antara penerapan AIDAT (agregat empat pilar) dan kualitas keputusan yang melibatkan AI (diukur dengan DQI‑AI).
H2: Pengaruh AIDAT terhadap kualitas keputusan dimediasi oleh:
- H2a: Pemahaman manusia terhadap rekomendasi AI.
- H2b: Frekuensi override yang informed.
- H2c: Deteksi dini bias dan kesalahan.
H3: Pengaruh AIDAT lebih kuat dalam kondisi:
- H3a: Kompleksitas keputusan tinggi.
- H3b: Risiko reputasi atau diskriminasi tinggi.
- H3c: Ketergantungan pada AI tinggi.
- H3d: Kesadaran spiritual (hisab) kuat dalam organisasi.
7. INSTRUMEN AIDAT
7.1 Indeks Kesiapan AIDAT (AIDAT Readiness Index)
| Pilar | Indikator | Skor 1‑5 |
|---|---|---|
| Delegasi Epistemik | Ada kebijakan eksplisit tentang batas penggunaan AI. | □ □ □ □ □ |
| Ada klasifikasi tugas yang boleh/tidak boleh didelegasikan ke AI. | □ □ □ □ □ | |
| Transparansi & Explainability | Semua AI yang digunakan memiliki dokumentasi explainability. | □ □ □ □ □ |
| Ada mekanisme audit algoritma berkala. | □ □ □ □ □ | |
| Kedaulatan Manusia | Semua keputusan strategis wajib melalui human review. | □ □ □ □ □ |
| Manusia memiliki hak override yang mudah diakses. | □ □ □ □ □ | |
| Akuntabilitas Residual | Ada penunjukan penanggung jawab untuk setiap keputusan berbasis AI. | □ □ □ □ □ |
| Ada mekanisme banding bagi pihak terdampak. | □ □ □ □ □ | |
| Ada kesadaran hisab dalam pelatihan dan kebijakan. | □ □ □ □ □ |
AIDAT Readiness Index = (Total skor / 45) × 100 (skala 0‑100)
7.2 Formulir Evaluasi Keputusan Berbantuan AI (DQI‑AI)
| Dimensi | Skor 1‑5 | Catatan |
|---|---|---|
| Kualitas rekomendasi AI (akurasi, relevansi) | □ □ □ □ □ | |
| Pemahaman manusia atas rekomendasi | □ □ □ □ □ | |
| Kualitas proses review manusia (kedalaman, kritis) | □ □ □ □ □ | |
| Transparansi proses AI | □ □ □ □ □ | |
| Keadilan dan bias | □ □ □ □ □ | |
| Akuntabilitas residual (ada penanggung jawab) | □ □ □ □ □ | |
| Kesesuaian dengan nilai (amanah, 'adl) | □ □ □ □ □ |
DQI‑AI Total = (Total / 7) × 20 = ___ / 100
8. IMPLEMENTASI AIDAT
8.1 Langkah‑langkah Implementasi
| Fase | Aktivitas | Output |
|---|---|---|
| 1. Inventarisasi | Identifikasi semua keputusan yang menggunakan AI di organisasi. | Daftar use case AI (prioritas berdasarkan risiko). |
| 2. Klasifikasi risiko | Kelompokkan berdasarkan risiko (tinggi, sedang, rendah). | Matriks risiko AI. |
| 3. Penetapan kebijakan | Tetapkan batas delegasi dan mekanisme review, integrasikan nilai amanah dan hisab. | Kebijakan tertulis, Accountability Charter. |
| 4. Pelatihan | Latih pengguna AI dalam memahami keterbatasan, cara review, dan kesadaran spiritual. | SDM kompeten, modul pelatihan. |
| 5. Implementasi | Terapkan AIDAT pada use case risiko tinggi terlebih dahulu. | Protokol AIDAT terintegrasi. |
| 6. Audit berkala | Lakukan audit independen terhadap kepatuhan AIDAT. | Laporan audit, rekomendasi perbaikan. |
| 7. Pembelajaran | Dokumentasikan pembelajaran dan perbaiki sistem. | Knowledge base, update kebijakan. |
8.2 Peran dan Tanggung Jawab
| Peran | Tanggung Jawab |
|---|---|
| AI Governance Officer | Mengawasi penerapan AIDAT di seluruh organisasi. |
| Tim Audit Algoritma | Melakukan audit transparansi dan bias secara berkala. |
| Pengguna AI (Decision Makers) | Memahami keterbatasan AI, melakukan review informed, menyadari tanggung jawab moral. |
| Pengembang AI | Menyediakan dokumentasi explainability dan batasan. |
| Komite Etik | Memastikan kepatuhan terhadap nilai‑nilai etika dan spiritual. |
9. STUDI KASUS HIPOTETIS
Kasus 1: AI dalam Penilaian Kredit Perbankan
| Aspek | Penerapan AIDAT |
|---|---|
| Situasi | Bank menggunakan AI untuk menilai kelayakan kredit nasabah. AI dilatih dengan data historis pinjaman 10 tahun terakhir yang mengandung bias historis. |
| Tanpa AIDAT | AI menolak banyak pemohon dari kelompok minoritas. Bank tidak menyadari bias karena tidak ada audit. Reputasi hancur, tuntutan hukum muncul. |
| Dengan AIDAT | • Delegasi: Bank menetapkan bahwa keputusan final tetap oleh analis manusia. • Transparansi: AI menyediakan penjelasan (feature importance) mengapa suatu permohonan ditolak. • Kedaulatan: Analis memiliki hak override dan waktu untuk mempertimbangkan. • Akuntabilitas: Ada penanggung jawab (kepala bagian kredit) yang memonitor kinerja AI. • Nilai: Pelatihan tentang amanah dan keadilan dalam penilaian kredit. |
| Hasil | Keputusan lebih adil, risiko reputasi turun, kepercayaan nasabah meningkat. |
Kasus 2: AI dalam Rekomendasi Kebijakan Publik
| Aspek | Penerapan AIDAT |
|---|---|
| Situasi | Kementerian menggunakan AI untuk menganalisis dampak kebijakan ekonomi. |
| Tanpa AIDAT | AI merekomendasikan kebijakan yang menguntungkan kelompok tertentu. Menteri menandatangani tanpa memahami asumsi model. Kebijakan gagal, publik marah. |
| Dengan AIDAT | • Delegasi: Framing kebijakan tetap oleh tim perencana, AI hanya membantu analisis. • Transparansi: AI menjelaskan asumsi dan keterbatasan model. • Kedaulatan: Ada sesi review khusus (Executive Challenge Session) sebelum keputusan final. • Akuntabilitas: Menteri tetap bertanggung jawab, didukung dokumentasi proses. • Nilai: Kesadaran hisab memperkuat motivasi untuk membuat kebijakan yang adil. |
| Hasil | Kebijakan lebih tepat sasaran, menteri dapat menjelaskan dasar keputusan. |
10. KETERBATASAN DAN BATASAN
| Keterbatasan | Penjelasan | Mitigasi |
|---|---|---|
| Kompleksitas teknis | Audit algoritma membutuhkan keahlian khusus. | Kembangkan tim multidisiplin, gunakan alat bantu, kerja sama dengan ahli. |
| Resistensi pengembang | Pengembang mungkin menolak transparansi. | Insentif, regulasi, tekanan pasar, edukasi tentang amanah. |
| Biaya implementasi | Audit berkala dan dokumentasi membutuhkan sumber daya. | Terapkan bertahap, prioritaskan sistem berisiko tinggi. |
| Perkembangan AI cepat | Teknologi berubah, regulasi bisa tertinggal. | Desain framework adaptif, review berkala (tahunan). |
| Human error | Manusia bisa tetap melakukan kesalahan meskipun dibantu AI. | Kombinasikan dengan mekanisme lain (SCP, HILDST). |
| Kesadaran spiritual | Tidak semua organisasi memiliki nilai hisab. | Framing sebagai tanggung jawab moral universal, dapat diadaptasi. |
11. KESIMPULAN
AI‑Assisted Decision Accountability Theory (AIDAT) menawarkan kerangka sistematis untuk memahami dan mengelola akuntabilitas dalam pengambilan keputusan yang melibatkan kecerdasan buatan. Dengan berakar pada Cognitive Accountability Architecture (CAA) dan Pre‑Decision Governance (PDG), AIDAT memposisikan isu‑isu AI governance bukan sebagai domain terpisah, melainkan sebagai perluasan alami dari tata kelola pra‑keputusan ke dalam era digital.
Empat pilar AIDAT—Batas Delegasi Epistemik, Transparansi & Explainability, Kedaulatan Manusia dalam Loop, dan Akuntabilitas Residual—menyediakan kerangka untuk mendesain, mengevaluasi, dan mengawasi penggunaan AI dalam pengambilan keputusan strategis. Integrasi dengan nilai‑nilai manhaj Islam tentang amanah, 'adl, dan mas'uliyyah memberikan legitimasi normatif dan motivasi transendental yang memperkuat urgensi akuntabilitas kognitif.
Kontribusi utama AIDAT adalah menegaskan bahwa:
- AI adalah alat, bukan agen moral. Akuntabilitas tetap pada manusia sebagai pemegang amanah.
- Delegasi proses berpikir ke AI memiliki batas. Manusia tidak boleh mendelegasikan judgment, framing, dan nilai.
- Transparansi bukan pilihan, melainkan keharusan epistemik. Tanpa pemahaman, tidak ada akuntabilitas.
- Akuntabilitas residual harus dirancang secara eksplisit. Harus jelas siapa yang bertanggung jawab atas setiap keputusan berbasis AI.
- Kesadaran hisab memperkuat motivasi internal untuk menjaga kualitas keputusan.
Dengan demikian, AIDAT melengkapi kerangka PDG dan membuka jalan bagi pengembangan teori dan praktik tata kelola yang responsif terhadap era kecerdasan buatan, sekaligus menjunjung tinggi nilai‑nilai kemanusiaan dan spiritual.
12. DAFTAR PUSTAKA
- Bovens, M. (2007). Analysing and Assessing Accountability: A Conceptual Framework. European Law Journal.
- Diakopoulos, N. (2016). Accountability in Algorithmic Decision Making. Communications of the ACM.
- Endsley, M. R. (2017). From Here to Autonomy: Lessons Learned from Human Factors Research. Human Factors.
- Floridi, L., et al. (2018). AI4People—An Ethical Framework for a Good AI Society. Minds and Machines.
- Mittelstadt, B. D., et al. (2016). The Ethics of Algorithms: Mapping the Debate. Big Data & Society.
- Shneiderman, B. (2020). Human‑Centered Artificial Intelligence: Reliable, Safe & Trustworthy. International Journal of Human‑Computer Interaction.
- Kahneman, D., & Tversky, A. (1979). Prospect Theory: An Analysis of Decision under Risk. Econometrica.
- Simon, H. A. (1947). Administrative Behavior. Macmillan.
- Thaler, R. H., & Sunstein, C. R. (2008). Nudge. Yale University Press.
- Sunstein, C. R., & Hastie, R. (2015). Wiser. Harvard Business Review Press.
- CAA (Cognitive Accountability Architecture). (2026). Accountability‑Based Universal Wisdom and Trust.
- PDG (Pre‑Decision Governance). (2026). Accountability‑Based Universal Wisdom and Trust.
- EDLT (Epistemic Delegation Limit Theory). (2026). Accountability‑Based Universal Wisdom and Trust.
- Al‑Qur'an Al‑Karim.
- Ibn Taimiyah, Taqiyuddin. Majmu' al‑Fatawa.