AI TRANSPARENCY & EXPLAINABILITY MANDATE THEORY (AITEMT)
Versi: 1.0 – Final untuk Publikasi | Tanggal: 21 Februari 2026
ABSTRAK
Kecerdasan buatan (AI) semakin banyak digunakan untuk mendukung atau bahkan menggantikan pengambilan keputusan manusia di berbagai sektor. Namun, sifat "kotak hitam" (black box) dari banyak sistem AI modern menimbulkan tantangan fundamental bagi akuntabilitas: jika suatu keputusan dibuat oleh atau dengan bantuan AI, bagaimana kita dapat meminta pertanggungjawaban atas keputusan tersebut jika proses penalarannya tidak dapat dipahami oleh manusia? Tanpa transparansi dan kemampuan menjelaskan (explainability), mustahil untuk mendeteksi bias, kesalahan, atau pelanggaran etika.
AI Transparency & Explainability Mandate Theory (AITEMT) adalah teori mekanisme spesifik yang mengembangkan kerangka sistematis untuk mewajibkan transparansi dan explainability dalam sistem AI yang digunakan untuk pengambilan keputusan strategis. Sebagai turunan dari Pre‑Decision Governance (PDG) dan Cognitive Accountability Architecture (CAA), AITEMT berargumen bahwa akuntabilitas kognitif tidak mungkin terwujud tanpa transparansi proses penalaran AI, dan oleh karena itu, transparansi harus menjadi mandat institusional, bukan sekadar rekomendasi teknis.
AITEMT merumuskan empat pilar utama: (1) Mandat Transparansi Desain dan Data – kewajiban untuk membuka arsitektur, data pelatihan, dan asumsi desain sistem AI; (2) Mandat Explainability – kewajiban untuk menyediakan penjelasan yang dapat dipahami manusia atas setiap keputusan atau rekomendasi berbasis AI; (3) Mandat Akses Audit – kewajiban untuk memberikan akses kepada pihak independen (regulator, auditor, peneliti) untuk mengaudit sistem; dan (4) Mandat Akuntabilitas Manusia – kewajiban untuk menetapkan pihak yang bertanggung jawab atas transparansi dan explainability, serta mekanisme banding bagi pihak terdampak.
Dengan mengintegrasikan wawasan dari literatur explainable AI (XAI), regulasi perlindungan data (GDPR, EU AI Act, UU PDP), teori akuntabilitas, cognitive governance, dan nilai‑nilai Islam tentang kejujuran (shidq) dan klarifikasi (tabayyun), AITEMT menyediakan landasan bagi pengembangan instrumen praktis seperti Transparency Disclosure Template (Model Card), Explainability Quality Index (EQI), Audit Access Protocol, dan Human Accountability Framework. Teori ini melengkapi AIDAT (AI‑Assisted Decision Accountability Theory), ABMGT (Algorithmic Bias Mitigation Governance Theory), HILDST (Human‑in‑the‑Loop Decision Sovereignty Theory), dan EDLT (Epistemic Delegation Limit Theory) dengan fokus pada prasyarat fundamental akuntabilitas AI: kemampuan untuk memahami dan menjelaskan.
Kata Kunci: Transparansi AI, Explainable AI (XAI), Akuntabilitas Algoritmik, Kotak Hitam, Hak atas Penjelasan, Tata Kelola AI, Regulasi AI, Shidq, Tabayyun
1. PENDAHULUAN
1.1 Fenomena yang Belum Cukup Dijelaskan
Perkembangan pesat kecerdasan buatan, terutama deep learning, telah menghasilkan sistem dengan kemampuan yang mengesankan namun seringkali tidak dapat dipahami. Model dengan jutaan parameter, jaringan saraf bertingkat, dan mekanisme attention yang kompleks membuatnya hampir mustahil bagi manusia—bahkan pengembangnya sendiri—untuk memahami mengapa suatu keputusan dibuat.
| Fenomena | Deskripsi | Implikasi |
|---|---|---|
| Black box problem | Sistem AI menghasilkan output tanpa penalaran yang dapat dipahami manusia | Tidak mungkin mengaudit, mendeteksi bias, atau mempertanggungjawabkan kesalahan |
| Right to explanation | GDPR memberikan hak kepada individu untuk mendapatkan penjelasan atas keputusan algoritmik | Sulit dipenuhi jika sistem tidak dirancang untuk explainability |
| Bias tersembunyi | Bias dapat bersembunyi dalam representasi internal yang tidak dapat diinterpretasi | Bias tidak terdeteksi, menyebabkan diskriminasi sistemik |
| Kesalahan sistemik | Kegagalan sistem tidak dapat dilacak ke sumbernya | Tidak ada pembelajaran, kesalahan berulang |
| Ketidakpercayaan publik | Masyarakat enggan mempercayai keputusan yang tidak dapat dipahami | Adopsi AI terhambat, resistensi publik |
| Responsibility gap | Tidak ada yang bisa dimintai pertanggungjawaban karena proses tidak transparan | Krisis legitimasi |
Tanpa transparansi dan explainability, kita menghadapi dilema: menggunakan teknologi canggih tanpa kemampuan mengawasinya, atau menolak teknologi yang berpotensi bermanfaat. AITEMT hadir untuk menjembatani dilema ini dengan mewajibkan transparansi sebagai prasyarat akuntabilitas.
1.2 Definisi Transparansi dan Explainability dalam Konteks AI
| Konsep | Definisi | Dimensi |
|---|---|---|
| Transparansi | Tingkat keterbukaan tentang keberadaan, arsitektur, data pelatihan, tujuan, dan keterbatasan sistem AI | • Desain: bagaimana sistem dibangun, arsitektur model, asumsi • Data: data apa yang digunakan, sumber, karakteristik, potensi bias • Tujuan: untuk apa sistem digunakan, batasan penggunaan • Kinerja: metrik akurasi, kinerja per subkelompok, keterbatasan |
| Explainability (XAI) | Kemampuan sistem AI untuk menyediakan penjelasan yang dapat dipahami manusia tentang mengapa suatu keputusan atau rekomendasi tertentu dihasilkan | • Global explainability: bagaimana sistem bekerja secara umum, faktor-faktor yang paling berpengaruh • Local explainability: mengapa keputusan spesifik ini diambil, faktor apa yang paling menentukan |
1.3 Posisi dalam Hierarki Teori
AITEMT adalah teori mekanisme spesifik (mechanism‑specific theory) yang berfokus pada transparansi dan explainability sebagai prasyarat akuntabilitas AI. Ia merupakan operasionalisasi dari prinsip Cognitive Accountability Architecture (CAA) dan Pilar 3: Information Filtering Governance dalam PDG, serta melengkapi teori‑teori turunan lainnya dalam domain AI governance.
1.4 Tujuan dan Kontribusi
AITEMT bertujuan untuk:
- Mendefinisikan transparansi dan explainability sebagai mandat institusional, bukan sekadar rekomendasi teknis.
- Mengembangkan kerangka konseptual untuk mewajibkan, mengukur, dan menegakkan transparansi dalam sistem AI.
- Menyediakan instrumen praktis bagi organisasi dan regulator untuk mengimplementasikan mandat transparansi.
- Mengintegrasikan wawasan dari berbagai disiplin (ilmu komputer, hukum, etika, tata kelola, dan nilai-nilai Islam) ke dalam satu kerangka yang koheren.
- Menjelaskan bagaimana transparansi dan explainability merupakan prasyarat bagi akuntabilitas AI, deteksi bias, dan kepercayaan publik.
2. LANDASAN TEORETIS
2.1 Regulasi dan Standar yang Ada
| Instrumen | Ketentuan Relevan | Keterbatasan |
|---|---|---|
| GDPR Pasal 22 & Recital 71 | Hak untuk tidak tunduk pada keputusan otomatis; hak atas penjelasan | Interpretasi masih diperdebatkan, tidak ada standar teknis, hanya untuk "keputusan" bukan "rekomendasi" |
| EU AI Act | Klasifikasi risiko (unacceptable, high, limited, minimal); untuk sistem berisiko tinggi, wajib transparansi, dokumentasi teknis, dan human oversight | Implementasi masih dalam proses, detail teknis belum final |
| UU Perlindungan Data Pribadi (UU PDP) Indonesia | Hak untuk mendapatkan informasi tentang pemrosesan data; hak untuk mengakses dan meminta penjelasan | Masih umum, belum spesifik untuk AI |
| OECD AI Principles | Prinsip transparansi dan explainability | Tidak mengikat, tidak ada mekanisme penegakan |
| Algorithmic Accountability Act (AS) | Kewajiban audit dampak algoritmik untuk perusahaan besar | Hanya untuk perusahaan besar, belum komprehensif |
Gap yang diisi AITEMT: Regulasi yang ada masih umum dan belum memberikan panduan operasional tentang bagaimana transparansi dan explainability harus diimplementasikan, diukur, dan ditegakkan dalam praktik.
2.2 Explainable AI (XAI) – State of the Art
| Pendekatan XAI | Deskripsi | Kekuatan | Kelemahan |
|---|---|---|---|
| Feature importance (SHAP, LIME) | Menunjukkan fitur mana yang paling berpengaruh terhadap keputusan | Mudah dipahami, implementasi luas | Tidak menjelaskan interaksi kompleks antar fitur; bisa menyesatkan jika fitur berkorelasi |
| Counterfactual explanations | Menjelaskan apa yang harus diubah agar hasil berbeda (misal: "Jika pendapatan Anda lebih tinggi Rp 1 juta, Anda akan diterima") | Intuitif, actionable, mudah dipahami | Bisa menyesatkan jika tidak tepat; sulit dihasilkan untuk model kompleks |
| Rule‑based explanations | Mengekstrak aturan keputusan dari model (misal: "Jika pendapatan > 5jt dan usia < 30, maka diterima") | Transparan, mudah dipahami | Kurang akurat untuk model kompleks; aturan bisa terlalu banyak |
| Visual explanations (saliency maps) | Menampilkan area fokus (untuk computer vision) | Intuitif, visual | Hanya untuk domain spesifik (gambar, video) |
| Example‑based explanations | Menunjukkan contoh serupa dari data training | Intuitif | Membutuhkan data yang representatif |
Sumbangan untuk AITEMT: Memberikan landasan teknis bahwa explainability itu mungkin, meskipun ada trade‑off dengan akurasi. AITEMT perlu menentukan tingkat explainability yang memadai sesuai konteks dan risiko.
2.3 Teori Akuntabilitas dan Transparansi (Bovens, 2007; Hood, 2010)
| Konsep | Relevansi dengan AITEMT |
|---|---|
| Akuntabilitas sebagai hubungan sosial | Ada pihak yang wajib menjelaskan (aktor) dan pihak yang meminta penjelasan (forum). AITEMT memastikan AI dapat dijelaskan oleh aktor manusia. |
| Transparansi sebagai prasyarat akuntabilitas | Tanpa transparansi, tidak mungkin ada akuntabilitas. AITEMT mewajibkan transparansi sebagai fondasi. |
| Akuntabilitas prosedural vs substantif | AITEMT mencakup keduanya: prosedur pengembangan yang transparan dan substantif penjelasan keputusan. |
2.4 Nilai-Nilai Islam: Shidq dan Tabayyun
| Nilai | Relevansi dengan AITEMT |
|---|---|
| Shidq (kejujuran) | Transparansi adalah bentuk kejujuran. Sistem AI harus jujur tentang cara kerjanya, keterbatasannya, dan potensi kesalahannya. Menyembunyikan cara kerja AI adalah bentuk ketidakjujuran (kidzb). |
| Tabayyun (klarifikasi, verifikasi) | Umat Islam diperintahkan untuk melakukan tabayyun (klarifikasi) terhadap informasi yang diterima. AITEMT memastikan bahwa individu yang terkena dampak keputusan AI dapat melakukan tabayyun dengan mendapatkan penjelasan yang memadai. |
| Amanah | Pengembang dan pengguna AI memegang amanah untuk memastikan bahwa sistem yang mereka gunakan dapat dipertanggungjawabkan. Transparansi adalah bagian dari menunaikan amanah. |
| 'Adl (keadilan) | Tanpa transparansi, tidak mungkin menilai apakah suatu keputusan adil atau tidak. |
2.5 Keterkaitan dengan Teori AI Governance Lainnya
| Teori | Fokus | Hubungan dengan AITEMT |
|---|---|---|
| AIDAT (AI‑Assisted Decision Accountability) | Akuntabilitas manusia atas keputusan berbantuan AI | AITEMT menyediakan prasyarat: manusia tidak bisa bertanggung jawab atas keputusan yang tidak dapat dipahami. |
| ABMGT (Algorithmic Bias Mitigation) | Mitigasi bias algoritmik | Bias tidak dapat dideteksi tanpa transparansi. AITEMT menyediakan akses untuk audit bias. |
| HILDST (Human‑in‑the‑Loop) | Kedaulatan manusia dalam loop | Manusia perlu penjelasan untuk melakukan override yang informed. AITEMT menyediakan penjelasan tersebut. |
| EDLT (Epistemic Delegation Limit) | Batas delegasi epistemik ke AI | Keputusan tidak boleh didelegasikan jika tidak dapat dijelaskan. AITEMT menentukan tingkat explainability yang diperlukan. |
2.6 Keterkaitan dengan Pilar PDG
| Pilar PDG | Kontribusi ke AITEMT |
|---|---|
| Framing Governance | Transparansi tentang bagaimana masalah didefinisikan dalam sistem AI. |
| Information Filtering | Transparansi tentang data yang digunakan dan bagaimana data diproses. |
| Option Architecture | Transparansi tentang opsi yang dihasilkan AI dan mengapa opsi tertentu direkomendasikan. |
| Deliberative Structure | Transparansi memungkinkan dissent yang informed dan deliberasi yang bermakna. |
3. EMPAT PILAR AITEMT
Pilar 1: Mandat Transparansi Desain dan Data (Design & Data Transparency Mandate)
Pertanyaan kunci: Apakah organisasi mengungkapkan informasi yang cukup tentang desain, data, dan tujuan sistem AI untuk memungkinkan pemahaman dan pengawasan yang memadai?
| Dimensi | Indikator | Metode Pemenuhan | Instrumen |
|---|---|---|---|
| Transparansi Desain | Arsitektur model, algoritma yang digunakan, asumsi desain, pilihan parameter | Dokumentasi teknis, laporan desain | Model Card, Technical Report |
| Transparansi Data | Sumber data, periode pengumpulan, karakteristik data (ukuran, representasi), potensi bias, langkah pra‑pemrosesan | Data sheet, dataset documentation, laporan kualitas data | Data Sheet, Dataset Card |
| Transparansi Tujuan | Tujuan penggunaan yang diizinkan, batasan penggunaan, konteks yang sesuai, populasi target | Statement of intended use, user manual | Intended Use Statement |
| Transparansi Kinerja | Metrik kinerja (akurasi, presisi, recall), kinerja per subkelompok (disaggregated performance), keterbatasan model | Performance report, evaluation results | Performance Dashboard, Limitations Statement |
| Transparansi Pengawasan | Tingkat pengawasan manusia (human‑in‑the‑loop, human‑on‑the‑loop), mekanisme intervensi | Human oversight protocol, SOP | HILDST Protocol |
Proposisi AITEMT 1: Semakin komprehensif transparansi desain dan data (mencakup arsitektur, data, tujuan, kinerja, pengawasan), semakin tinggi kepercayaan pengguna dan kemampuan audit.
Pilar 2: Mandat Explainability (Explainability Mandate)
Pertanyaan kunci: Untuk setiap keputusan atau rekomendasi yang dibuat atau dibantu AI, dapatkah sistem memberikan penjelasan yang dapat dipahami oleh manusia yang terdampak?
| Dimensi | Indikator | Metode Pemenuhan | Instrumen |
|---|---|---|---|
| Explainability Global | Penjelasan tentang cara kerja sistem secara umum, faktor‑faktor apa yang paling berpengaruh secara keseluruhan | Dokumentasi, visualisasi, ringkasan | Global Explanation Report |
| Explainability Lokal | Penjelasan mengapa keputusan spesifik ini diambil (faktor‑faktor utama, bobotnya) | Counterfactual, feature importance, LIME, SHAP | Local Explanation (per keputusan) |
| Kemampuan Pemahaman (Comprehensibility) | Penjelasan dapat dipahami oleh pengguna non‑teknis (bahasa sederhana, visual, contoh) | User testing, penyederhanaan bahasa, desain komunikasi | User Comprehension Test |
| Konteks Sensitivitas | Penjelasan disesuaikan dengan konteks dan kebutuhan pengguna (misal: penjelasan berbeda untuk konsumen, regulator, auditor) | Personalized explanations, multiple explanation levels | Contextual Explanation Protocol |
| Ketepatan Penjelasan (Fidelity) | Penjelasan akurat mencerminkan proses aktual model (tidak menyesatkan) | Verifikasi fidelity, konsistensi dengan model | Fidelity Test |
Proposisi AITEMT 2: Semakin tinggi kualitas explainability (mencakup global, lokal, pemahaman, konteks, ketepatan), semakin rendah risiko keputusan yang tidak dapat dipertanggungjawabkan.
Pilar 3: Mandat Akses Audit (Audit Access Mandate)
Pertanyaan kunci: Apakah pihak independen (regulator, auditor, peneliti) memiliki akses yang memadai untuk mengaudit sistem AI guna memverifikasi transparansi, keadilan, dan keamanannya?
| Dimensi | Indikator | Metode Pemenuhan | Instrumen |
|---|---|---|---|
| Akses untuk Regulator | Regulator dapat mengakses kode sumber (source code), data (dengan perlindungan privasi), log, dan dokumentasi untuk audit kepatuhan | Regulatory sandbox, on‑site inspection, data sharing agreement | Regulatory Access Protocol |
| Akses untuk Auditor Independen | Pihak ketiga yang tersertifikasi dapat melakukan audit bias, keamanan, dan etika | Third‑party audit rights, NDA, kontrak audit | Third‑Party Audit Framework |
| Akses untuk Peneliti | Peneliti (akademisi, lembaga riset) dapat mengakses data anonim, API, dan model untuk riset dampak sosial, dengan pengawasan etik | Research API, data sharing agreement, ethical clearance | Research Access Protocol |
| Akses untuk Pengguna Terdampak | Pengguna dapat mengakses penjelasan atas keputusan yang mempengaruhi mereka (lihat Pilar 2) dan mengajukan banding | User portal, helpline, formulir banding | User Access Mechanism |
| Dokumentasi Audit | Semua akses dan temuan audit didokumentasikan, termasuk rekomendasi dan tindak lanjut | Audit trail, laporan audit, public report (anonim) | Audit Documentation System |
Proposisi AITEMT 3: Semakin luas akses audit yang diberikan (kepada regulator, auditor independen, peneliti), semakin tinggi probabilitas deteksi dini masalah, perbaikan sistem, dan kepercayaan publik.
Pilar 4: Mandat Akuntabilitas Manusia (Human Accountability Mandate)
Pertanyaan kunci: Siapa yang bertanggung jawab secara hukum dan institusional atas transparansi dan explainability sistem AI, serta atas keputusan yang dihasilkan? Bagaimana mekanisme banding bagi pihak terdampak?
| Dimensi | Indikator | Metode Pemenuhan | Instrumen |
|---|---|---|---|
| Penetapan Penanggung Jawab | Ada pihak yang secara eksplisit ditunjuk sebagai penanggung jawab atas transparansi dan explainability sistem (misal: AI Governance Officer, Chief AI Ethics Officer) | Penunjukan formal, deskripsi tugas, SK | Accountability Charter |
| Kewajiban Pemahaman | Penanggung jawab wajib memahami secara memadai cara kerja sistem dan keterbatasannya | Pelatihan, sertifikasi, dokumentasi kompetensi | Training Program, Competency Assessment |
| Kewajiban Dokumentasi | Penanggung jawab wajib memastikan dokumentasi transparansi (Pilar 1) dan explainability (Pilar 2) tersedia dan mutakhir | Dokumentasi wajib, review berkala | Documentation Policy |
| Kewajiban Respons | Penanggung jawab wajib merespons pertanyaan, keluhan, dan permintaan penjelasan dari pihak terdampak dengan tepat waktu | SLA (Service Level Agreement), mekanisme pengaduan | Complaint Handling Protocol |
| Mekanisme Banding | Individu yang terdampak oleh keputusan berbasis AI dapat mengajukan banding dan mendapatkan penjelasan serta peninjauan ulang oleh manusia | Grievance procedure, escalation mechanism, human review | Appeals Process |
Proposisi AITEMT 4: Semakin jelas penetapan akuntabilitas manusia dan mekanisme banding, semakin tinggi legitimasi keputusan berbasis AI dan kepercayaan publik.
5. MODEL MEKANISME KAUSAL AITEMT
6. PROPOSISI DAN HIPOTESIS
6.1 Proposisi Utama per Pilar
| Pilar | Proposisi |
|---|---|
| Transparansi Desain & Data | P1: Semakin komprehensif transparansi desain dan data (mencakup arsitektur, data, tujuan, kinerja, pengawasan), semakin tinggi kepercayaan pengguna dan kemampuan audit. |
| Explainability | P2: Semakin tinggi kualitas explainability (mencakup global, lokal, pemahaman, konteks, ketepatan), semakin rendah risiko keputusan yang tidak dapat dipertanggungjawabkan. |
| Akses Audit | P3: Semakin luas akses audit yang diberikan (kepada regulator, auditor independen, peneliti), semakin tinggi probabilitas deteksi dini masalah, perbaikan sistem, dan kepercayaan publik. |
| Akuntabilitas Manusia | P4: Semakin jelas penetapan akuntabilitas manusia dan mekanisme banding, semakin tinggi legitimasi keputusan berbasis AI dan kepercayaan publik. |
6.2 Hipotesis Kausal
H1: Organisasi yang menerapkan AITEMT secara komprehensif menunjukkan tingkat kepercayaan publik yang lebih tinggi terhadap produk dan layanan AI mereka (diukur dengan survei kepuasan dan kepercayaan).
H2: Terdapat korelasi positif antara kualitas explainability (diukur dengan Explainability Quality Index/EQI) dan tingkat keberhasilan banding (appeal) atas keputusan AI (semakin baik penjelasan, semakin sedikit banding atau semakin tinggi kepuasan banding).
H3: Sistem AI dengan akses audit yang luas (Pilar 3) memiliki probabilitas lebih rendah untuk menimbulkan kontroversi publik karena masalah etika, bias, atau kesalahan, karena masalah dapat dideteksi lebih awal.
H4: Kejelasan akuntabilitas manusia (Pilar 4) berkorelasi negatif dengan jumlah gugatan hukum dan pengaduan terkait keputusan AI.
H5: Efek positif AITEMT terhadap kepercayaan publik lebih kuat pada sistem AI yang digunakan untuk keputusan berdampak tinggi (kesehatan, keuangan, hukum, pekerjaan).
7. INSTRUMEN AITEMT
7.1 Transparency Disclosure Template (Model Card)
| MODEL CARD – RINGKASAN TRANSPARANSI AI | |
|---|---|
| Identitas Model | |
| Nama Model | |
| Versi/Tanggal | |
| Pengembang | |
| Unit Penanggung Jawab | |
| Kontak Penanggung Jawab | |
| Tujuan Penggunaan | |
| Tujuan Utama | |
| Penggunaan yang Diizinkan | |
| Penggunaan yang Dilarang | |
| Populasi Target | |
| Detail Teknis | |
| Arsitektur Model | |
| Algoritma Pelatihan | |
| Framework | |
| Jumlah Parameter | |
| Data | |
| Sumber Data | |
| Periode Data | |
| Jumlah Data | |
| Karakteristik Data (demografi, geografi) | |
| Potensi Bias yang Diketahui | |
| Langkah Pra‑pemrosesan | |
| Kinerja | |
| Metrik Utama | |
| Akurasi Keseluruhan | |
| Akurasi per Subkelompok (disaggregated) | |
| Keterbatasan Model | |
| Trade‑off yang Diketahui (misal: akurasi vs keadilan) | |
| Explainability | |
| Metode Explainability yang Didukung | |
| Tingkat Explainability (global, lokal) | |
| Bahasa/Tingkat Kesulitan Penjelasan | |
| Pengawasan dan Akuntabilitas | |
| Tingkat Pengawasan Manusia | ☐ Human‑in‑the‑loop ☐ Human‑on‑the‑loop ☐ Human‑out‑of‑the‑loop |
| Mekanisme Intervensi | |
| Penanggung Jawab | |
| Mekanisme Banding | |
| Audit dan Kepatuhan | |
| Audit Terakhir | |
| Frekuensi Audit | |
| Sertifikasi (jika ada) | |
7.2 Explainability Quality Index (EQI)
| Dimensi | Indikator | Bobot | Skor (1‑5) | Catatan | ||||
|---|---|---|---|---|---|---|---|---|
| Ketersediaan | Apakah sistem menyediakan penjelasan untuk setiap keputusan? | 15% | □ | □ | □ | □ | □ | |
| Kejelasan (Clarity) | Apakah penjelasan mudah dipahami oleh pengguna awam (non‑teknis)? | 20% | □ | □ | □ | □ | □ | Uji dengan pengguna target |
| Akurasi (Fidelity) | Apakah penjelasan akurat mencerminkan proses aktual model? | 20% | □ | □ | □ | □ | □ | Uji konsistensi |
| Kelengkapan (Completeness) | Apakah penjelasan mencakup faktor‑faktor kunci yang mempengaruhi keputusan? | 15% | □ | □ | □ | □ | □ | |
| Kontekstualitas | Apakah penjelasan relevan dengan situasi spesifik pengguna? | 10% | □ | □ | □ | □ | □ | |
| Aksesibilitas | Apakah penjelasan mudah diakses oleh yang terdampak (waktu, format)? | 10% | □ | □ | □ | □ | □ | |
| Actionability | Apakah penjelasan memungkinkan pengguna untuk melakukan tindakan (misal: mengajukan banding, memperbaiki data)? | 10% | □ | □ | □ | □ | □ | |
EQI = Total skor tertimbang = ___ / 5
EQI (skala 0‑100) = (EQI / 5) × 100
Interpretasi: 80‑100: Sangat baik – penjelasan memadai untuk akuntabilitas; 60‑79: Baik – perlu peningkatan di beberapa area; 40‑59: Cukup – risiko penjelasan tidak memadai; <40: Lemah – sistem tidak dapat dipertanggungjawabkan.
7.3 Audit Access Protocol (Ringkasan)
| Jenis Akses | Pihak yang Berhak | Prosedur | Batasan | Dokumen |
|---|---|---|---|---|
| Akses Regulator | Otoritas pengawas (Kominfo, OJK, dll) | Permintaan formal, NDA, jadwal audit | Rahasia dagang dilindungi, privasi data terjaga | Laporan audit |
| Akses Auditor Independen | Auditor tersertifikasi (misal: dari lembaga audit AI) | Kontrak audit, NDA, ruang lingkup audit | Tidak boleh komersial, data anonim | Laporan audit independen |
| Akses Peneliti | Institusi riset terdaftar (universitas, lembaga riset) | Proposal riset, ethical clearance, NDA | Data anonim, publikasi harus disetujui | Makalah riset |
| Akses Pengguna | Individu terdampak | Portal pengguna, formulir permintaan, verifikasi identitas | Hanya penjelasan keputusan sendiri, bukan akses sistem | Penjelasan keputusan |
7.4 Human Accountability Framework
| Aspek | Kebijakan | Penanggung Jawab | Dokumentasi |
|---|---|---|---|
| Penetapan Tanggung Jawab | SK penunjukan pejabat yang bertanggung jawab atas transparansi AI | Direktur Utama/Pimpinan | SK, deskripsi tugas |
| Kewajiban Pemahaman | Program pelatihan wajib bagi penanggung jawab dan pengguna AI | HRD, AI Governance Officer | Sertifikasi, catatan pelatihan |
| Kewajiban Dokumentasi | Semua sistem AI wajib memiliki Model Card dan dokumentasi terkini | Tim Pengembang, AI Governance Officer | Model Card, Technical Report |
| Kewajiban Respons | SLA untuk respons pertanyaan dan keluhan (misal: maksimal 14 hari) | Customer Service, AI Governance Officer | Log permintaan, laporan SLA |
| Mekanisme Banding | Prosedur pengajuan banding, peninjauan oleh manusia, eskalasi | Customer Service, Tim Etik | Formulir banding, database banding |
8. INTEGRASI DENGAN MEKANISME LAIN
| Mekanisme | Integrasi dengan AITEMT |
|---|---|
| AIDAT (AI Accountability) | AIDAT menegaskan bahwa manusia tetap bertanggung jawab; AITEMT memastikan manusia dapat memahami apa yang dilakukan AI untuk dapat bertanggung jawab. |
| ABMGT (Bias Mitigation) | ABMGT fokus pada mitigasi bias; AITEMT menyediakan transparansi yang diperlukan untuk mendeteksi bias (audit data, audit model). |
| HILDST (Human‑in‑the‑Loop) | HILDST memastikan manusia dalam loop; AITEMT menyediakan penjelasan yang diperlukan agar manusia dapat melakukan review yang informed. |
| EDLT (Delegation Limit) | EDLT menentukan batas delegasi; AITEMT menentukan bahwa keputusan yang didelegasikan harus dapat dijelaskan. |
| ATT (Assumption Testing) | Transparansi data dan model membantu menguji asumsi tentang AI. |
| SCP (Structured Challenge) | Dokumentasi transparansi (Model Card) menjadi input bagi Tim Penantang dalam SCP. |
| IPDG | Transparansi AI berkontribusi pada Information Filtering Governance. |
| DQI | Explainability dapat menjadi salah satu dimensi dalam DQI untuk keputusan berbasis AI. |
9. IMPLEMENTASI AITEMT
9.1 Langkah‑langkah Implementasi
| Fase | Aktivitas | Output |
|---|---|---|
| 1. Komitmen Kebijakan | Manajemen puncak menetapkan kebijakan bahwa semua sistem AI wajib memenuhi mandat AITEMT. | Kebijakan tertulis, SK penunjukan AI Governance Officer |
| 2. Inventarisasi | Identifikasi semua sistem AI yang digunakan organisasi untuk pengambilan keputusan. | Daftar inventaris AI (prioritas berdasarkan risiko) |
| 3. Penilaian Kesenjangan (Gap Analysis) | Lakukan penilaian terhadap setiap sistem AI terhadap keempat pilar AITEMT. | Gap analysis report per sistem |
| 4. Pengembangan/Perbaikan | Kembangkan atau modifikasi sistem untuk memenuhi mandat (transparansi desain, explainability, akses audit, akuntabilitas). | Sistem yang diperbarui |
| 5. Dokumentasi | Buat dokumentasi sesuai template (Model Card, Explainability Report). | Dokumentasi lengkap |
| 6. Pengujian | Uji kecukupan explainability dengan pengguna nyata (user testing). | User testing report |
| 7. Peluncuran dan Pemantauan | Luncurkan sistem dengan mekanisme pemantauan berkelanjutan. | Dashboard, log, laporan berkala |
9.2 Peran dan Tanggung Jawab
| Peran | Tanggung Jawab |
|---|---|
| AI Governance Officer / Chief AI Ethics Officer | Bertanggung jawab atas kebijakan, implementasi, dan kepatuhan AITEMT di seluruh organisasi. |
| Data Scientist / ML Engineer | Mengimplementasikan explainability dalam model, menyediakan dokumentasi teknis. |
| Product Manager | Memastikan kebutuhan explainability dan transparansi diterjemahkan ke dalam produk. |
| Legal & Compliance | Memastikan kepatuhan terhadap regulasi (GDPR, EU AI Act, UU PDP). |
| Auditor Internal | Menguji kepatuhan terhadap AITEMT secara berkala. |
| Customer Service | Menangani permintaan penjelasan dan banding dari pengguna. |
10. STUDI KASUS HIPOTETIS
Kasus 1: Sistem Skoring Kredit di Bank
| Aspek | Penerapan AITEMT |
|---|---|
| Transparansi Desain & Data | Bank menerbitkan Model Card yang menjelaskan data yang digunakan (riwayat pembayaran, pendapatan, utang), faktor‑faktor penentu skor, dan akurasi per kelompok demografi (gender, usia). |
| Explainability | Setiap nasabah yang ditolak mendapat penjelasan: "Skor Anda rendah karena riwayat pembayaran terlambat 3 kali dalam 2 tahun terakhir. Jika ingin meningkatkan skor, bayar tagihan tepat waktu selama 6 bulan." Penjelasan diberikan melalui SMS dan aplikasi mobile. |
| Akses Audit | OJK (regulator) dapat mengakses sistem untuk audit berkala melalui regulatory sandbox. Peneliti dari universitas dapat mengakses data anonim untuk studi dampak sosial. |
| Akuntabilitas Manusia | Ada pejabat yang bertanggung jawab (Kepala Divisi Kredit). Nasabah dapat mengajukan banding ke petugas khusus melalui call center atau email. |
| Hasil | Kepercayaan nasabah meningkat, keluhan turun 60%, kepatuhan terhadap regulasi terpenuhi. |
Kasus 2: Sistem Rekomendasi Kesehatan (Aplikasi Telemedicine)
| Aspek | Penerapan AITEMT |
|---|---|
| Transparansi Desain & Data | Aplikasi menjelaskan bahwa rekomendasi didasarkan pada jurnal medis tertentu (disebutkan sumbernya) dan data pengguna yang dienkripsi. Ada peringatan bahwa ini bukan pengganti konsultasi dokter. |
| Explainability | Rekomendasi obat disertai penjelasan: "Obat ini direkomendasikan karena efektif untuk pasien dengan gejala serupa (berdasarkan 5 studi klinis, referensi: [link]). Namun, konsultasikan dengan dokter sebelum mengonsumsi." |
| Akses Audit | Kementerian Kesehatan dapat mengaudit sistem. Rumah sakit mitra dapat melihat metodologi. |
| Akuntabilitas Manusia | Ada tim dokter yang bertanggung jawab (nama dan kontak tersedia). Pengguna dapat melaporkan efek samping atau meminta klarifikasi. |
| Hasil | Adopsi aplikasi meningkat, insiden kesalahan medis minimal, kepercayaan pengguna tinggi. |
11. KETERBATASAN DAN BATASAN
| Keterbatasan | Penjelasan | Mitigasi |
|---|---|---|
| Trade‑off akurasi‑explainability | Model yang lebih akurat (misal: deep learning) sering kurang explainable. | Gunakan pendekatan hibrida: model kompleks untuk prediksi, model sederhana (surrogate) untuk penjelasan. Prioritaskan explainability untuk keputusan berdampak tinggi. |
| Rahasia dagang (trade secrets) | Transparansi penuh dapat mengungkap rahasia bisnis (misal: algoritma proprietary). | Bedakan antara transparansi publik (cukup penjelasan tingkat tinggi, Model Card) dan transparansi regulator (akses lebih luas dengan NDA). |
| Kompleksitas teknis | Menyediakan explainability untuk model kompleks (deep learning) sulit dan mahal. | Investasi dalam riset XAI, gunakan metode terbaik yang tersedia (SHAP, LIME, counterfactual). Libatkan ahli. |
| Beban implementasi | Memenuhi mandat AITEMT (dokumentasi, explainability, audit) membutuhkan sumber daya tambahan. | Terapkan bertahap, prioritaskan sistem berisiko tinggi. Integrasikan dengan siklus pengembangan yang ada (DevOps menjadi MLOps). |
| Perkembangan teknologi cepat | Metode XAI terus berkembang, regulasi bisa tertinggal. | Desain framework adaptif, review berkala (tahunan), update kebijakan. |
12. KESIMPULAN
AI Transparency & Explainability Mandate Theory (AITEMT) menawarkan kerangka sistematis untuk mewajibkan transparansi dan kemampuan menjelaskan dalam sistem AI yang digunakan untuk pengambilan keputusan strategis. Dengan empat pilar—Transparansi Desain & Data, Explainability, Akses Audit, dan Akuntabilitas Manusia—AITEMT memastikan bahwa AI tidak hanya canggih, tetapi juga dapat dipahami, diaudit, dan dipertanggungjawabkan.
AITEMT melengkapi AIDAT (akuntabilitas AI), ABMGT (mitigasi bias), HILDST (kedaulatan manusia), dan EDLT (batas delegasi) dengan menyediakan prasyarat fundamental: kemampuan untuk memahami apa yang dilakukan AI. Tanpa ini, akuntabilitas, mitigasi bias, dan kedaulatan manusia tidak mungkin terwujud.
Dalam era di mana AI semakin menentukan kehidupan manusia, transparansi dan explainability bukan lagi kemewahan, melainkan keharusan etis, legal, dan sosial. Sejalan dengan nilai‑nilai Islam tentang shidq (kejujuran) dan tabayyun (klarifikasi), AITEMT menyediakan jalan untuk mewujudkan AI yang tidak hanya cerdas, tetapi juga jujur, terbuka, dan dapat dipertanggungjawabkan.
Dengan menerapkan AITEMT, organisasi dapat:
- Membangun kepercayaan publik melalui transparansi.
- Memfasilitasi deteksi dini bias dan kesalahan.
- Mematuhi regulasi yang semakin ketat.
- Memberdayakan individu yang terdampak dengan hak untuk memahami dan menantang keputusan.
- Mewujudkan akuntabilitas kognitif dalam era AI.
DAFTAR PUSTAKA
- Adadi, A., & Berrada, M. (2018). Peeking Inside the Black‑Box: A Survey on Explainable Artificial Intelligence (XAI). IEEE Access.
- Arrieta, A. B., et al. (2020). Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges. Information Fusion.
- Bovens, M. (2007). Analysing and Assessing Accountability: A Conceptual Framework. European Law Journal.
- Diakopoulos, N. (2016). Accountability in Algorithmic Decision Making. Communications of the ACM.
- Floridi, L., et al. (2018). AI4People—An Ethical Framework for a Good AI Society. Minds and Machines.
- Goodman, B., & Flaxman, S. (2017). European Union Regulations on Algorithmic Decision‑Making and a "Right to Explanation". AI Magazine.
- Guidotti, R., et al. (2018). A Survey of Methods for Explaining Black Box Models. ACM Computing Surveys.
- Jobin, A., Ienca, M., & Vayena, E. (2019). The Global Landscape of AI Ethics Guidelines. Nature Machine Intelligence.
- Kahneman, D. (2011). Thinking, Fast and Slow. Farrar, Straus and Giroux.
- Mitchell, M., et al. (2019). Model Cards for Model Reporting. Proceedings of the Conference on Fairness, Accountability, and Transparency.
- Ribeiro, M. T., Singh, S., & Guestrin, C. (2016). "Why Should I Trust You?": Explaining the Predictions of Any Classifier. KDD.
- Rudin, C. (2019). Stop Explaining Black Box Machine Learning Models for High Stakes Decisions and Use Interpretable Models Instead. Nature Machine Intelligence.
- Wachter, S., Mittelstadt, B., & Floridi, L. (2017). Why a Right to Explanation of Automated Decision‑Making Does Not Exist in the GDPR. International Data Privacy Law.
- CAA (Cognitive Accountability Architecture). (2026). Accountability‑Based Universal Wisdom and Trust.
- PDG (Pre‑Decision Governance). (2026). Accountability‑Based Universal Wisdom and Trust.
- AIDAT (AI‑Assisted Decision Accountability Theory). (2026). Accountability‑Based Universal Wisdom and Trust.
- ABMGT (Algorithmic Bias Mitigation Governance Theory). (2026). Accountability‑Based Universal Wisdom and Trust.
- HILDST (Human‑in‑the‑Loop Decision Sovereignty Theory). (2026). Accountability‑Based Universal Wisdom and Trust.
- EDLT (Epistemic Delegation Limit Theory). (2026). Accountability‑Based Universal Wisdom and Trust.
“Hai orang‑orang yang beriman, jika datang kepadamu orang fasik membawa suatu berita, maka periksalah dengan teliti (tabayyun).” (QS. Al‑Hujurat: 6)
“Sesungguhnya Allah menyuruh kamu menyampaikan amanah kepada yang berhak menerimanya.” (QS. An‑Nisa: 58)
“AI yang tidak dapat dijelaskan adalah AI yang tidak dapat dipercaya. Transparansi bukan penghalang inovasi, melainkan fondasi kepercayaan.”