Halaman

Sabtu, 21 Februari 2026

Lv 5. Transparency & Explainability

AITEMT – AI Transparency & Explainability Mandate Theory

AI TRANSPARENCY & EXPLAINABILITY MANDATE THEORY (AITEMT)

Accountability‑Based Universal Wisdom and Trust
Cross‑Sector Pre‑Decision Governance Translator
Mewajibkan Transparansi dan Kemampuan Menjelaskan dalam Sistem Kecerdasan Buatan untuk Pengambilan Keputusan yang Akuntabel

Versi: 1.0 – Final untuk Publikasi | Tanggal: 21 Februari 2026

ABSTRAK

Kecerdasan buatan (AI) semakin banyak digunakan untuk mendukung atau bahkan menggantikan pengambilan keputusan manusia di berbagai sektor. Namun, sifat "kotak hitam" (black box) dari banyak sistem AI modern menimbulkan tantangan fundamental bagi akuntabilitas: jika suatu keputusan dibuat oleh atau dengan bantuan AI, bagaimana kita dapat meminta pertanggungjawaban atas keputusan tersebut jika proses penalarannya tidak dapat dipahami oleh manusia? Tanpa transparansi dan kemampuan menjelaskan (explainability), mustahil untuk mendeteksi bias, kesalahan, atau pelanggaran etika.

AI Transparency & Explainability Mandate Theory (AITEMT) adalah teori mekanisme spesifik yang mengembangkan kerangka sistematis untuk mewajibkan transparansi dan explainability dalam sistem AI yang digunakan untuk pengambilan keputusan strategis. Sebagai turunan dari Pre‑Decision Governance (PDG) dan Cognitive Accountability Architecture (CAA), AITEMT berargumen bahwa akuntabilitas kognitif tidak mungkin terwujud tanpa transparansi proses penalaran AI, dan oleh karena itu, transparansi harus menjadi mandat institusional, bukan sekadar rekomendasi teknis.

AITEMT merumuskan empat pilar utama: (1) Mandat Transparansi Desain dan Data – kewajiban untuk membuka arsitektur, data pelatihan, dan asumsi desain sistem AI; (2) Mandat Explainability – kewajiban untuk menyediakan penjelasan yang dapat dipahami manusia atas setiap keputusan atau rekomendasi berbasis AI; (3) Mandat Akses Audit – kewajiban untuk memberikan akses kepada pihak independen (regulator, auditor, peneliti) untuk mengaudit sistem; dan (4) Mandat Akuntabilitas Manusia – kewajiban untuk menetapkan pihak yang bertanggung jawab atas transparansi dan explainability, serta mekanisme banding bagi pihak terdampak.

Dengan mengintegrasikan wawasan dari literatur explainable AI (XAI), regulasi perlindungan data (GDPR, EU AI Act, UU PDP), teori akuntabilitas, cognitive governance, dan nilai‑nilai Islam tentang kejujuran (shidq) dan klarifikasi (tabayyun), AITEMT menyediakan landasan bagi pengembangan instrumen praktis seperti Transparency Disclosure Template (Model Card), Explainability Quality Index (EQI), Audit Access Protocol, dan Human Accountability Framework. Teori ini melengkapi AIDAT (AI‑Assisted Decision Accountability Theory), ABMGT (Algorithmic Bias Mitigation Governance Theory), HILDST (Human‑in‑the‑Loop Decision Sovereignty Theory), dan EDLT (Epistemic Delegation Limit Theory) dengan fokus pada prasyarat fundamental akuntabilitas AI: kemampuan untuk memahami dan menjelaskan.

Kata Kunci: Transparansi AI, Explainable AI (XAI), Akuntabilitas Algoritmik, Kotak Hitam, Hak atas Penjelasan, Tata Kelola AI, Regulasi AI, Shidq, Tabayyun

1. PENDAHULUAN

1.1 Fenomena yang Belum Cukup Dijelaskan

Perkembangan pesat kecerdasan buatan, terutama deep learning, telah menghasilkan sistem dengan kemampuan yang mengesankan namun seringkali tidak dapat dipahami. Model dengan jutaan parameter, jaringan saraf bertingkat, dan mekanisme attention yang kompleks membuatnya hampir mustahil bagi manusia—bahkan pengembangnya sendiri—untuk memahami mengapa suatu keputusan dibuat.

FenomenaDeskripsiImplikasi
Black box problemSistem AI menghasilkan output tanpa penalaran yang dapat dipahami manusiaTidak mungkin mengaudit, mendeteksi bias, atau mempertanggungjawabkan kesalahan
Right to explanationGDPR memberikan hak kepada individu untuk mendapatkan penjelasan atas keputusan algoritmikSulit dipenuhi jika sistem tidak dirancang untuk explainability
Bias tersembunyiBias dapat bersembunyi dalam representasi internal yang tidak dapat diinterpretasiBias tidak terdeteksi, menyebabkan diskriminasi sistemik
Kesalahan sistemikKegagalan sistem tidak dapat dilacak ke sumbernyaTidak ada pembelajaran, kesalahan berulang
Ketidakpercayaan publikMasyarakat enggan mempercayai keputusan yang tidak dapat dipahamiAdopsi AI terhambat, resistensi publik
Responsibility gapTidak ada yang bisa dimintai pertanggungjawaban karena proses tidak transparanKrisis legitimasi

Tanpa transparansi dan explainability, kita menghadapi dilema: menggunakan teknologi canggih tanpa kemampuan mengawasinya, atau menolak teknologi yang berpotensi bermanfaat. AITEMT hadir untuk menjembatani dilema ini dengan mewajibkan transparansi sebagai prasyarat akuntabilitas.

1.2 Definisi Transparansi dan Explainability dalam Konteks AI

KonsepDefinisiDimensi
TransparansiTingkat keterbukaan tentang keberadaan, arsitektur, data pelatihan, tujuan, dan keterbatasan sistem AI• Desain: bagaimana sistem dibangun, arsitektur model, asumsi
• Data: data apa yang digunakan, sumber, karakteristik, potensi bias
• Tujuan: untuk apa sistem digunakan, batasan penggunaan
• Kinerja: metrik akurasi, kinerja per subkelompok, keterbatasan
Explainability (XAI)Kemampuan sistem AI untuk menyediakan penjelasan yang dapat dipahami manusia tentang mengapa suatu keputusan atau rekomendasi tertentu dihasilkan• Global explainability: bagaimana sistem bekerja secara umum, faktor-faktor yang paling berpengaruh
• Local explainability: mengapa keputusan spesifik ini diambil, faktor apa yang paling menentukan

1.3 Posisi dalam Hierarki Teori

AITEMT adalah teori mekanisme spesifik (mechanism‑specific theory) yang berfokus pada transparansi dan explainability sebagai prasyarat akuntabilitas AI. Ia merupakan operasionalisasi dari prinsip Cognitive Accountability Architecture (CAA) dan Pilar 3: Information Filtering Governance dalam PDG, serta melengkapi teori‑teori turunan lainnya dalam domain AI governance.

┌─────────────────────────────────────────────────────────────┐ │ COGNITIVE ACCOUNTABILITY ARCHITECTURE │ │ (Meta‑Teori) │ └─────────────────────────────────────────────────────────────┘ │ ▼ ┌─────────────────────────────────────────────────────────────┐ │ PRE‑DECISION GOVERNANCE (PDG) │ │ (General Integrative Theory) │ └─────────────────────────────────────────────────────────────┘ │ │ │ ▼ ▼ ▼ ┌─────────────────┐ ┌─────────────────┐ ┌─────────────────┐ │ INFORMATION │ │ OPTION │ │ DELIBERATIVE │ │ FILTERING │ │ ARCHITECTURE │ │ STRUCTURE │ └─────────────────┘ └─────────────────┘ └─────────────────┘ │ │ │ └────────────────┼────────────────┘ ▼ ┌─────────────────────────────────────────────────┐ │ AI GOVERNANCE THEORIES │ ├─────────────────┬─────────────────┬─────────────┤ │ AIDAT │ ABMGT │ HILDST │ │ (Akuntabilitas) │ (Mitigasi Bias) │ (Kedaulatan)│ ├─────────────────┴─────────────────┴─────────────┤ │ EDLT │ │ (Batas Delegasi Epistemik) │ ├─────────────────────────────────────────────────┤ │ ═════ AITEMT ═════ │ │ (Transparansi & Explainability Mandate) │ └─────────────────────────────────────────────────┘

1.4 Tujuan dan Kontribusi

AITEMT bertujuan untuk:

  1. Mendefinisikan transparansi dan explainability sebagai mandat institusional, bukan sekadar rekomendasi teknis.
  2. Mengembangkan kerangka konseptual untuk mewajibkan, mengukur, dan menegakkan transparansi dalam sistem AI.
  3. Menyediakan instrumen praktis bagi organisasi dan regulator untuk mengimplementasikan mandat transparansi.
  4. Mengintegrasikan wawasan dari berbagai disiplin (ilmu komputer, hukum, etika, tata kelola, dan nilai-nilai Islam) ke dalam satu kerangka yang koheren.
  5. Menjelaskan bagaimana transparansi dan explainability merupakan prasyarat bagi akuntabilitas AI, deteksi bias, dan kepercayaan publik.

2. LANDASAN TEORETIS

2.1 Regulasi dan Standar yang Ada

InstrumenKetentuan RelevanKeterbatasan
GDPR Pasal 22 & Recital 71Hak untuk tidak tunduk pada keputusan otomatis; hak atas penjelasanInterpretasi masih diperdebatkan, tidak ada standar teknis, hanya untuk "keputusan" bukan "rekomendasi"
EU AI ActKlasifikasi risiko (unacceptable, high, limited, minimal); untuk sistem berisiko tinggi, wajib transparansi, dokumentasi teknis, dan human oversightImplementasi masih dalam proses, detail teknis belum final
UU Perlindungan Data Pribadi (UU PDP) IndonesiaHak untuk mendapatkan informasi tentang pemrosesan data; hak untuk mengakses dan meminta penjelasanMasih umum, belum spesifik untuk AI
OECD AI PrinciplesPrinsip transparansi dan explainabilityTidak mengikat, tidak ada mekanisme penegakan
Algorithmic Accountability Act (AS)Kewajiban audit dampak algoritmik untuk perusahaan besarHanya untuk perusahaan besar, belum komprehensif

Gap yang diisi AITEMT: Regulasi yang ada masih umum dan belum memberikan panduan operasional tentang bagaimana transparansi dan explainability harus diimplementasikan, diukur, dan ditegakkan dalam praktik.

2.2 Explainable AI (XAI) – State of the Art

Pendekatan XAIDeskripsiKekuatanKelemahan
Feature importance (SHAP, LIME)Menunjukkan fitur mana yang paling berpengaruh terhadap keputusanMudah dipahami, implementasi luasTidak menjelaskan interaksi kompleks antar fitur; bisa menyesatkan jika fitur berkorelasi
Counterfactual explanationsMenjelaskan apa yang harus diubah agar hasil berbeda (misal: "Jika pendapatan Anda lebih tinggi Rp 1 juta, Anda akan diterima")Intuitif, actionable, mudah dipahamiBisa menyesatkan jika tidak tepat; sulit dihasilkan untuk model kompleks
Rule‑based explanationsMengekstrak aturan keputusan dari model (misal: "Jika pendapatan > 5jt dan usia < 30, maka diterima")Transparan, mudah dipahamiKurang akurat untuk model kompleks; aturan bisa terlalu banyak
Visual explanations (saliency maps)Menampilkan area fokus (untuk computer vision)Intuitif, visualHanya untuk domain spesifik (gambar, video)
Example‑based explanationsMenunjukkan contoh serupa dari data trainingIntuitifMembutuhkan data yang representatif

Sumbangan untuk AITEMT: Memberikan landasan teknis bahwa explainability itu mungkin, meskipun ada trade‑off dengan akurasi. AITEMT perlu menentukan tingkat explainability yang memadai sesuai konteks dan risiko.

2.3 Teori Akuntabilitas dan Transparansi (Bovens, 2007; Hood, 2010)

KonsepRelevansi dengan AITEMT
Akuntabilitas sebagai hubungan sosialAda pihak yang wajib menjelaskan (aktor) dan pihak yang meminta penjelasan (forum). AITEMT memastikan AI dapat dijelaskan oleh aktor manusia.
Transparansi sebagai prasyarat akuntabilitasTanpa transparansi, tidak mungkin ada akuntabilitas. AITEMT mewajibkan transparansi sebagai fondasi.
Akuntabilitas prosedural vs substantifAITEMT mencakup keduanya: prosedur pengembangan yang transparan dan substantif penjelasan keputusan.

2.4 Nilai-Nilai Islam: Shidq dan Tabayyun

NilaiRelevansi dengan AITEMT
Shidq (kejujuran)Transparansi adalah bentuk kejujuran. Sistem AI harus jujur tentang cara kerjanya, keterbatasannya, dan potensi kesalahannya. Menyembunyikan cara kerja AI adalah bentuk ketidakjujuran (kidzb).
Tabayyun (klarifikasi, verifikasi)Umat Islam diperintahkan untuk melakukan tabayyun (klarifikasi) terhadap informasi yang diterima. AITEMT memastikan bahwa individu yang terkena dampak keputusan AI dapat melakukan tabayyun dengan mendapatkan penjelasan yang memadai.
AmanahPengembang dan pengguna AI memegang amanah untuk memastikan bahwa sistem yang mereka gunakan dapat dipertanggungjawabkan. Transparansi adalah bagian dari menunaikan amanah.
'Adl (keadilan)Tanpa transparansi, tidak mungkin menilai apakah suatu keputusan adil atau tidak.

2.5 Keterkaitan dengan Teori AI Governance Lainnya

TeoriFokusHubungan dengan AITEMT
AIDAT (AI‑Assisted Decision Accountability)Akuntabilitas manusia atas keputusan berbantuan AIAITEMT menyediakan prasyarat: manusia tidak bisa bertanggung jawab atas keputusan yang tidak dapat dipahami.
ABMGT (Algorithmic Bias Mitigation)Mitigasi bias algoritmikBias tidak dapat dideteksi tanpa transparansi. AITEMT menyediakan akses untuk audit bias.
HILDST (Human‑in‑the‑Loop)Kedaulatan manusia dalam loopManusia perlu penjelasan untuk melakukan override yang informed. AITEMT menyediakan penjelasan tersebut.
EDLT (Epistemic Delegation Limit)Batas delegasi epistemik ke AIKeputusan tidak boleh didelegasikan jika tidak dapat dijelaskan. AITEMT menentukan tingkat explainability yang diperlukan.

2.6 Keterkaitan dengan Pilar PDG

Pilar PDGKontribusi ke AITEMT
Framing GovernanceTransparansi tentang bagaimana masalah didefinisikan dalam sistem AI.
Information FilteringTransparansi tentang data yang digunakan dan bagaimana data diproses.
Option ArchitectureTransparansi tentang opsi yang dihasilkan AI dan mengapa opsi tertentu direkomendasikan.
Deliberative StructureTransparansi memungkinkan dissent yang informed dan deliberasi yang bermakna.

3. EMPAT PILAR AITEMT

Pilar 1: Mandat Transparansi Desain dan Data (Design & Data Transparency Mandate)

Pertanyaan kunci: Apakah organisasi mengungkapkan informasi yang cukup tentang desain, data, dan tujuan sistem AI untuk memungkinkan pemahaman dan pengawasan yang memadai?

DimensiIndikatorMetode PemenuhanInstrumen
Transparansi DesainArsitektur model, algoritma yang digunakan, asumsi desain, pilihan parameterDokumentasi teknis, laporan desainModel Card, Technical Report
Transparansi DataSumber data, periode pengumpulan, karakteristik data (ukuran, representasi), potensi bias, langkah pra‑pemrosesanData sheet, dataset documentation, laporan kualitas dataData Sheet, Dataset Card
Transparansi TujuanTujuan penggunaan yang diizinkan, batasan penggunaan, konteks yang sesuai, populasi targetStatement of intended use, user manualIntended Use Statement
Transparansi KinerjaMetrik kinerja (akurasi, presisi, recall), kinerja per subkelompok (disaggregated performance), keterbatasan modelPerformance report, evaluation resultsPerformance Dashboard, Limitations Statement
Transparansi PengawasanTingkat pengawasan manusia (human‑in‑the‑loop, human‑on‑the‑loop), mekanisme intervensiHuman oversight protocol, SOPHILDST Protocol

Proposisi AITEMT 1: Semakin komprehensif transparansi desain dan data (mencakup arsitektur, data, tujuan, kinerja, pengawasan), semakin tinggi kepercayaan pengguna dan kemampuan audit.

Pilar 2: Mandat Explainability (Explainability Mandate)

Pertanyaan kunci: Untuk setiap keputusan atau rekomendasi yang dibuat atau dibantu AI, dapatkah sistem memberikan penjelasan yang dapat dipahami oleh manusia yang terdampak?

DimensiIndikatorMetode PemenuhanInstrumen
Explainability GlobalPenjelasan tentang cara kerja sistem secara umum, faktor‑faktor apa yang paling berpengaruh secara keseluruhanDokumentasi, visualisasi, ringkasanGlobal Explanation Report
Explainability LokalPenjelasan mengapa keputusan spesifik ini diambil (faktor‑faktor utama, bobotnya)Counterfactual, feature importance, LIME, SHAPLocal Explanation (per keputusan)
Kemampuan Pemahaman (Comprehensibility)Penjelasan dapat dipahami oleh pengguna non‑teknis (bahasa sederhana, visual, contoh)User testing, penyederhanaan bahasa, desain komunikasiUser Comprehension Test
Konteks SensitivitasPenjelasan disesuaikan dengan konteks dan kebutuhan pengguna (misal: penjelasan berbeda untuk konsumen, regulator, auditor)Personalized explanations, multiple explanation levelsContextual Explanation Protocol
Ketepatan Penjelasan (Fidelity)Penjelasan akurat mencerminkan proses aktual model (tidak menyesatkan)Verifikasi fidelity, konsistensi dengan modelFidelity Test

Proposisi AITEMT 2: Semakin tinggi kualitas explainability (mencakup global, lokal, pemahaman, konteks, ketepatan), semakin rendah risiko keputusan yang tidak dapat dipertanggungjawabkan.

Pilar 3: Mandat Akses Audit (Audit Access Mandate)

Pertanyaan kunci: Apakah pihak independen (regulator, auditor, peneliti) memiliki akses yang memadai untuk mengaudit sistem AI guna memverifikasi transparansi, keadilan, dan keamanannya?

DimensiIndikatorMetode PemenuhanInstrumen
Akses untuk RegulatorRegulator dapat mengakses kode sumber (source code), data (dengan perlindungan privasi), log, dan dokumentasi untuk audit kepatuhanRegulatory sandbox, on‑site inspection, data sharing agreementRegulatory Access Protocol
Akses untuk Auditor IndependenPihak ketiga yang tersertifikasi dapat melakukan audit bias, keamanan, dan etikaThird‑party audit rights, NDA, kontrak auditThird‑Party Audit Framework
Akses untuk PenelitiPeneliti (akademisi, lembaga riset) dapat mengakses data anonim, API, dan model untuk riset dampak sosial, dengan pengawasan etikResearch API, data sharing agreement, ethical clearanceResearch Access Protocol
Akses untuk Pengguna TerdampakPengguna dapat mengakses penjelasan atas keputusan yang mempengaruhi mereka (lihat Pilar 2) dan mengajukan bandingUser portal, helpline, formulir bandingUser Access Mechanism
Dokumentasi AuditSemua akses dan temuan audit didokumentasikan, termasuk rekomendasi dan tindak lanjutAudit trail, laporan audit, public report (anonim)Audit Documentation System

Proposisi AITEMT 3: Semakin luas akses audit yang diberikan (kepada regulator, auditor independen, peneliti), semakin tinggi probabilitas deteksi dini masalah, perbaikan sistem, dan kepercayaan publik.

Pilar 4: Mandat Akuntabilitas Manusia (Human Accountability Mandate)

Pertanyaan kunci: Siapa yang bertanggung jawab secara hukum dan institusional atas transparansi dan explainability sistem AI, serta atas keputusan yang dihasilkan? Bagaimana mekanisme banding bagi pihak terdampak?

DimensiIndikatorMetode PemenuhanInstrumen
Penetapan Penanggung JawabAda pihak yang secara eksplisit ditunjuk sebagai penanggung jawab atas transparansi dan explainability sistem (misal: AI Governance Officer, Chief AI Ethics Officer)Penunjukan formal, deskripsi tugas, SKAccountability Charter
Kewajiban PemahamanPenanggung jawab wajib memahami secara memadai cara kerja sistem dan keterbatasannyaPelatihan, sertifikasi, dokumentasi kompetensiTraining Program, Competency Assessment
Kewajiban DokumentasiPenanggung jawab wajib memastikan dokumentasi transparansi (Pilar 1) dan explainability (Pilar 2) tersedia dan mutakhirDokumentasi wajib, review berkalaDocumentation Policy
Kewajiban ResponsPenanggung jawab wajib merespons pertanyaan, keluhan, dan permintaan penjelasan dari pihak terdampak dengan tepat waktuSLA (Service Level Agreement), mekanisme pengaduanComplaint Handling Protocol
Mekanisme BandingIndividu yang terdampak oleh keputusan berbasis AI dapat mengajukan banding dan mendapatkan penjelasan serta peninjauan ulang oleh manusiaGrievance procedure, escalation mechanism, human reviewAppeals Process

Proposisi AITEMT 4: Semakin jelas penetapan akuntabilitas manusia dan mekanisme banding, semakin tinggi legitimasi keputusan berbasis AI dan kepercayaan publik.

5. MODEL MEKANISME KAUSAL AITEMT

┌─────────────────────────────────────────────────────────────────┐ │ AI TRANSPARENCY & EXPLAINABILITY MANDATE THEORY │ │ (Empat Pilar: Transparansi Desain, Explainability, │ │ Akses Audit, Akuntabilitas Manusia) │ └───────────────────────────┬─────────────────────────────────────┘ │ ▼ ┌─────────────────────────────────────────────────────────────────┐ │ PERUBAHAN INSENTIF INSTITUSIONAL │ │ • Mandat transparansi desain → insentif dokumentasi sistematik│ │ • Mandat explainability → insentif desain XAI sejak awal │ │ • Akses audit → insentif keterbukaan dan akuntabilitas │ │ • Akuntabilitas manusia → insentif pengawasan melekat │ └───────────────────────────┬─────────────────────────────────────┘ │ ▼ ┌─────────────────────────────────────────────────────────────────┐ │ TRANSFORMASI PENGELOLAAN AI │ │ • Sistem dirancang dengan transparansi sebagai fitur utama │ │ • Penjelasan tersedia untuk setiap keputusan │ │ • Dokumentasi lengkap dan dapat diakses │ │ • Pihak eksternal dapat mengaudit sistem │ │ • Ada manusia yang bertanggung jawab dan dapat dihubungi │ └───────────────────────────┬─────────────────────────────────────┘ │ ▼ ┌─────────────────────────────────────────────────────────────────┐ │ PENINGKATAN AKUNTABILITAS & KEPERCAYAAN │ │ • Keputusan AI dapat dipahami dan dijelaskan │ │ • Bias dan kesalahan dapat dideteksi melalui audit │ │ • Kepercayaan publik meningkat │ │ • Kepatuhan terhadap regulasi terpenuhi │ │ • Risiko hukum dan reputasi berkurang │ └─────────────────────────────────────────────────────────────────┘

6. PROPOSISI DAN HIPOTESIS

6.1 Proposisi Utama per Pilar

PilarProposisi
Transparansi Desain & DataP1: Semakin komprehensif transparansi desain dan data (mencakup arsitektur, data, tujuan, kinerja, pengawasan), semakin tinggi kepercayaan pengguna dan kemampuan audit.
ExplainabilityP2: Semakin tinggi kualitas explainability (mencakup global, lokal, pemahaman, konteks, ketepatan), semakin rendah risiko keputusan yang tidak dapat dipertanggungjawabkan.
Akses AuditP3: Semakin luas akses audit yang diberikan (kepada regulator, auditor independen, peneliti), semakin tinggi probabilitas deteksi dini masalah, perbaikan sistem, dan kepercayaan publik.
Akuntabilitas ManusiaP4: Semakin jelas penetapan akuntabilitas manusia dan mekanisme banding, semakin tinggi legitimasi keputusan berbasis AI dan kepercayaan publik.

6.2 Hipotesis Kausal

H1: Organisasi yang menerapkan AITEMT secara komprehensif menunjukkan tingkat kepercayaan publik yang lebih tinggi terhadap produk dan layanan AI mereka (diukur dengan survei kepuasan dan kepercayaan).

H2: Terdapat korelasi positif antara kualitas explainability (diukur dengan Explainability Quality Index/EQI) dan tingkat keberhasilan banding (appeal) atas keputusan AI (semakin baik penjelasan, semakin sedikit banding atau semakin tinggi kepuasan banding).

H3: Sistem AI dengan akses audit yang luas (Pilar 3) memiliki probabilitas lebih rendah untuk menimbulkan kontroversi publik karena masalah etika, bias, atau kesalahan, karena masalah dapat dideteksi lebih awal.

H4: Kejelasan akuntabilitas manusia (Pilar 4) berkorelasi negatif dengan jumlah gugatan hukum dan pengaduan terkait keputusan AI.

H5: Efek positif AITEMT terhadap kepercayaan publik lebih kuat pada sistem AI yang digunakan untuk keputusan berdampak tinggi (kesehatan, keuangan, hukum, pekerjaan).

7. INSTRUMEN AITEMT

7.1 Transparency Disclosure Template (Model Card)

MODEL CARD – RINGKASAN TRANSPARANSI AI
Identitas Model
Nama Model
Versi/Tanggal
Pengembang
Unit Penanggung Jawab
Kontak Penanggung Jawab
Tujuan Penggunaan
Tujuan Utama
Penggunaan yang Diizinkan
Penggunaan yang Dilarang
Populasi Target
Detail Teknis
Arsitektur Model
Algoritma Pelatihan
Framework
Jumlah Parameter
Data
Sumber Data
Periode Data
Jumlah Data
Karakteristik Data (demografi, geografi)
Potensi Bias yang Diketahui
Langkah Pra‑pemrosesan
Kinerja
Metrik Utama
Akurasi Keseluruhan
Akurasi per Subkelompok (disaggregated)
Keterbatasan Model
Trade‑off yang Diketahui (misal: akurasi vs keadilan)
Explainability
Metode Explainability yang Didukung
Tingkat Explainability (global, lokal)
Bahasa/Tingkat Kesulitan Penjelasan
Pengawasan dan Akuntabilitas
Tingkat Pengawasan Manusia☐ Human‑in‑the‑loop ☐ Human‑on‑the‑loop ☐ Human‑out‑of‑the‑loop
Mekanisme Intervensi
Penanggung Jawab
Mekanisme Banding
Audit dan Kepatuhan
Audit Terakhir
Frekuensi Audit
Sertifikasi (jika ada)

7.2 Explainability Quality Index (EQI)

DimensiIndikatorBobotSkor (1‑5)Catatan
KetersediaanApakah sistem menyediakan penjelasan untuk setiap keputusan?15%
Kejelasan (Clarity)Apakah penjelasan mudah dipahami oleh pengguna awam (non‑teknis)?20%Uji dengan pengguna target
Akurasi (Fidelity)Apakah penjelasan akurat mencerminkan proses aktual model?20%Uji konsistensi
Kelengkapan (Completeness)Apakah penjelasan mencakup faktor‑faktor kunci yang mempengaruhi keputusan?15%
KontekstualitasApakah penjelasan relevan dengan situasi spesifik pengguna?10%
AksesibilitasApakah penjelasan mudah diakses oleh yang terdampak (waktu, format)?10%
ActionabilityApakah penjelasan memungkinkan pengguna untuk melakukan tindakan (misal: mengajukan banding, memperbaiki data)?10%

EQI = Total skor tertimbang = ___ / 5
EQI (skala 0‑100) = (EQI / 5) × 100

Interpretasi: 80‑100: Sangat baik – penjelasan memadai untuk akuntabilitas; 60‑79: Baik – perlu peningkatan di beberapa area; 40‑59: Cukup – risiko penjelasan tidak memadai; <40: Lemah – sistem tidak dapat dipertanggungjawabkan.

7.3 Audit Access Protocol (Ringkasan)

Jenis AksesPihak yang BerhakProsedurBatasanDokumen
Akses RegulatorOtoritas pengawas (Kominfo, OJK, dll)Permintaan formal, NDA, jadwal auditRahasia dagang dilindungi, privasi data terjagaLaporan audit
Akses Auditor IndependenAuditor tersertifikasi (misal: dari lembaga audit AI)Kontrak audit, NDA, ruang lingkup auditTidak boleh komersial, data anonimLaporan audit independen
Akses PenelitiInstitusi riset terdaftar (universitas, lembaga riset)Proposal riset, ethical clearance, NDAData anonim, publikasi harus disetujuiMakalah riset
Akses PenggunaIndividu terdampakPortal pengguna, formulir permintaan, verifikasi identitasHanya penjelasan keputusan sendiri, bukan akses sistemPenjelasan keputusan

7.4 Human Accountability Framework

AspekKebijakanPenanggung JawabDokumentasi
Penetapan Tanggung JawabSK penunjukan pejabat yang bertanggung jawab atas transparansi AIDirektur Utama/PimpinanSK, deskripsi tugas
Kewajiban PemahamanProgram pelatihan wajib bagi penanggung jawab dan pengguna AIHRD, AI Governance OfficerSertifikasi, catatan pelatihan
Kewajiban DokumentasiSemua sistem AI wajib memiliki Model Card dan dokumentasi terkiniTim Pengembang, AI Governance OfficerModel Card, Technical Report
Kewajiban ResponsSLA untuk respons pertanyaan dan keluhan (misal: maksimal 14 hari)Customer Service, AI Governance OfficerLog permintaan, laporan SLA
Mekanisme BandingProsedur pengajuan banding, peninjauan oleh manusia, eskalasiCustomer Service, Tim EtikFormulir banding, database banding

8. INTEGRASI DENGAN MEKANISME LAIN

MekanismeIntegrasi dengan AITEMT
AIDAT (AI Accountability)AIDAT menegaskan bahwa manusia tetap bertanggung jawab; AITEMT memastikan manusia dapat memahami apa yang dilakukan AI untuk dapat bertanggung jawab.
ABMGT (Bias Mitigation)ABMGT fokus pada mitigasi bias; AITEMT menyediakan transparansi yang diperlukan untuk mendeteksi bias (audit data, audit model).
HILDST (Human‑in‑the‑Loop)HILDST memastikan manusia dalam loop; AITEMT menyediakan penjelasan yang diperlukan agar manusia dapat melakukan review yang informed.
EDLT (Delegation Limit)EDLT menentukan batas delegasi; AITEMT menentukan bahwa keputusan yang didelegasikan harus dapat dijelaskan.
ATT (Assumption Testing)Transparansi data dan model membantu menguji asumsi tentang AI.
SCP (Structured Challenge)Dokumentasi transparansi (Model Card) menjadi input bagi Tim Penantang dalam SCP.
IPDGTransparansi AI berkontribusi pada Information Filtering Governance.
DQIExplainability dapat menjadi salah satu dimensi dalam DQI untuk keputusan berbasis AI.

9. IMPLEMENTASI AITEMT

9.1 Langkah‑langkah Implementasi

FaseAktivitasOutput
1. Komitmen KebijakanManajemen puncak menetapkan kebijakan bahwa semua sistem AI wajib memenuhi mandat AITEMT.Kebijakan tertulis, SK penunjukan AI Governance Officer
2. InventarisasiIdentifikasi semua sistem AI yang digunakan organisasi untuk pengambilan keputusan.Daftar inventaris AI (prioritas berdasarkan risiko)
3. Penilaian Kesenjangan (Gap Analysis)Lakukan penilaian terhadap setiap sistem AI terhadap keempat pilar AITEMT.Gap analysis report per sistem
4. Pengembangan/PerbaikanKembangkan atau modifikasi sistem untuk memenuhi mandat (transparansi desain, explainability, akses audit, akuntabilitas).Sistem yang diperbarui
5. DokumentasiBuat dokumentasi sesuai template (Model Card, Explainability Report).Dokumentasi lengkap
6. PengujianUji kecukupan explainability dengan pengguna nyata (user testing).User testing report
7. Peluncuran dan PemantauanLuncurkan sistem dengan mekanisme pemantauan berkelanjutan.Dashboard, log, laporan berkala

9.2 Peran dan Tanggung Jawab

PeranTanggung Jawab
AI Governance Officer / Chief AI Ethics OfficerBertanggung jawab atas kebijakan, implementasi, dan kepatuhan AITEMT di seluruh organisasi.
Data Scientist / ML EngineerMengimplementasikan explainability dalam model, menyediakan dokumentasi teknis.
Product ManagerMemastikan kebutuhan explainability dan transparansi diterjemahkan ke dalam produk.
Legal & ComplianceMemastikan kepatuhan terhadap regulasi (GDPR, EU AI Act, UU PDP).
Auditor InternalMenguji kepatuhan terhadap AITEMT secara berkala.
Customer ServiceMenangani permintaan penjelasan dan banding dari pengguna.

10. STUDI KASUS HIPOTETIS

Kasus 1: Sistem Skoring Kredit di Bank

AspekPenerapan AITEMT
Transparansi Desain & DataBank menerbitkan Model Card yang menjelaskan data yang digunakan (riwayat pembayaran, pendapatan, utang), faktor‑faktor penentu skor, dan akurasi per kelompok demografi (gender, usia).
ExplainabilitySetiap nasabah yang ditolak mendapat penjelasan: "Skor Anda rendah karena riwayat pembayaran terlambat 3 kali dalam 2 tahun terakhir. Jika ingin meningkatkan skor, bayar tagihan tepat waktu selama 6 bulan." Penjelasan diberikan melalui SMS dan aplikasi mobile.
Akses AuditOJK (regulator) dapat mengakses sistem untuk audit berkala melalui regulatory sandbox. Peneliti dari universitas dapat mengakses data anonim untuk studi dampak sosial.
Akuntabilitas ManusiaAda pejabat yang bertanggung jawab (Kepala Divisi Kredit). Nasabah dapat mengajukan banding ke petugas khusus melalui call center atau email.
HasilKepercayaan nasabah meningkat, keluhan turun 60%, kepatuhan terhadap regulasi terpenuhi.

Kasus 2: Sistem Rekomendasi Kesehatan (Aplikasi Telemedicine)

AspekPenerapan AITEMT
Transparansi Desain & DataAplikasi menjelaskan bahwa rekomendasi didasarkan pada jurnal medis tertentu (disebutkan sumbernya) dan data pengguna yang dienkripsi. Ada peringatan bahwa ini bukan pengganti konsultasi dokter.
ExplainabilityRekomendasi obat disertai penjelasan: "Obat ini direkomendasikan karena efektif untuk pasien dengan gejala serupa (berdasarkan 5 studi klinis, referensi: [link]). Namun, konsultasikan dengan dokter sebelum mengonsumsi."
Akses AuditKementerian Kesehatan dapat mengaudit sistem. Rumah sakit mitra dapat melihat metodologi.
Akuntabilitas ManusiaAda tim dokter yang bertanggung jawab (nama dan kontak tersedia). Pengguna dapat melaporkan efek samping atau meminta klarifikasi.
HasilAdopsi aplikasi meningkat, insiden kesalahan medis minimal, kepercayaan pengguna tinggi.

11. KETERBATASAN DAN BATASAN

KeterbatasanPenjelasanMitigasi
Trade‑off akurasi‑explainabilityModel yang lebih akurat (misal: deep learning) sering kurang explainable.Gunakan pendekatan hibrida: model kompleks untuk prediksi, model sederhana (surrogate) untuk penjelasan. Prioritaskan explainability untuk keputusan berdampak tinggi.
Rahasia dagang (trade secrets)Transparansi penuh dapat mengungkap rahasia bisnis (misal: algoritma proprietary).Bedakan antara transparansi publik (cukup penjelasan tingkat tinggi, Model Card) dan transparansi regulator (akses lebih luas dengan NDA).
Kompleksitas teknisMenyediakan explainability untuk model kompleks (deep learning) sulit dan mahal.Investasi dalam riset XAI, gunakan metode terbaik yang tersedia (SHAP, LIME, counterfactual). Libatkan ahli.
Beban implementasiMemenuhi mandat AITEMT (dokumentasi, explainability, audit) membutuhkan sumber daya tambahan.Terapkan bertahap, prioritaskan sistem berisiko tinggi. Integrasikan dengan siklus pengembangan yang ada (DevOps menjadi MLOps).
Perkembangan teknologi cepatMetode XAI terus berkembang, regulasi bisa tertinggal.Desain framework adaptif, review berkala (tahunan), update kebijakan.

12. KESIMPULAN

AI Transparency & Explainability Mandate Theory (AITEMT) menawarkan kerangka sistematis untuk mewajibkan transparansi dan kemampuan menjelaskan dalam sistem AI yang digunakan untuk pengambilan keputusan strategis. Dengan empat pilar—Transparansi Desain & Data, Explainability, Akses Audit, dan Akuntabilitas Manusia—AITEMT memastikan bahwa AI tidak hanya canggih, tetapi juga dapat dipahami, diaudit, dan dipertanggungjawabkan.

AITEMT melengkapi AIDAT (akuntabilitas AI), ABMGT (mitigasi bias), HILDST (kedaulatan manusia), dan EDLT (batas delegasi) dengan menyediakan prasyarat fundamental: kemampuan untuk memahami apa yang dilakukan AI. Tanpa ini, akuntabilitas, mitigasi bias, dan kedaulatan manusia tidak mungkin terwujud.

Dalam era di mana AI semakin menentukan kehidupan manusia, transparansi dan explainability bukan lagi kemewahan, melainkan keharusan etis, legal, dan sosial. Sejalan dengan nilai‑nilai Islam tentang shidq (kejujuran) dan tabayyun (klarifikasi), AITEMT menyediakan jalan untuk mewujudkan AI yang tidak hanya cerdas, tetapi juga jujur, terbuka, dan dapat dipertanggungjawabkan.

Dengan menerapkan AITEMT, organisasi dapat:

  • Membangun kepercayaan publik melalui transparansi.
  • Memfasilitasi deteksi dini bias dan kesalahan.
  • Mematuhi regulasi yang semakin ketat.
  • Memberdayakan individu yang terdampak dengan hak untuk memahami dan menantang keputusan.
  • Mewujudkan akuntabilitas kognitif dalam era AI.

DAFTAR PUSTAKA

  1. Adadi, A., & Berrada, M. (2018). Peeking Inside the Black‑Box: A Survey on Explainable Artificial Intelligence (XAI). IEEE Access.
  2. Arrieta, A. B., et al. (2020). Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges. Information Fusion.
  3. Bovens, M. (2007). Analysing and Assessing Accountability: A Conceptual Framework. European Law Journal.
  4. Diakopoulos, N. (2016). Accountability in Algorithmic Decision Making. Communications of the ACM.
  5. Floridi, L., et al. (2018). AI4People—An Ethical Framework for a Good AI Society. Minds and Machines.
  6. Goodman, B., & Flaxman, S. (2017). European Union Regulations on Algorithmic Decision‑Making and a "Right to Explanation". AI Magazine.
  7. Guidotti, R., et al. (2018). A Survey of Methods for Explaining Black Box Models. ACM Computing Surveys.
  8. Jobin, A., Ienca, M., & Vayena, E. (2019). The Global Landscape of AI Ethics Guidelines. Nature Machine Intelligence.
  9. Kahneman, D. (2011). Thinking, Fast and Slow. Farrar, Straus and Giroux.
  10. Mitchell, M., et al. (2019). Model Cards for Model Reporting. Proceedings of the Conference on Fairness, Accountability, and Transparency.
  11. Ribeiro, M. T., Singh, S., & Guestrin, C. (2016). "Why Should I Trust You?": Explaining the Predictions of Any Classifier. KDD.
  12. Rudin, C. (2019). Stop Explaining Black Box Machine Learning Models for High Stakes Decisions and Use Interpretable Models Instead. Nature Machine Intelligence.
  13. Wachter, S., Mittelstadt, B., & Floridi, L. (2017). Why a Right to Explanation of Automated Decision‑Making Does Not Exist in the GDPR. International Data Privacy Law.
  14. CAA (Cognitive Accountability Architecture). (2026). Accountability‑Based Universal Wisdom and Trust.
  15. PDG (Pre‑Decision Governance). (2026). Accountability‑Based Universal Wisdom and Trust.
  16. AIDAT (AI‑Assisted Decision Accountability Theory). (2026). Accountability‑Based Universal Wisdom and Trust.
  17. ABMGT (Algorithmic Bias Mitigation Governance Theory). (2026). Accountability‑Based Universal Wisdom and Trust.
  18. HILDST (Human‑in‑the‑Loop Decision Sovereignty Theory). (2026). Accountability‑Based Universal Wisdom and Trust.
  19. EDLT (Epistemic Delegation Limit Theory). (2026). Accountability‑Based Universal Wisdom and Trust.

“Hai orang‑orang yang beriman, jika datang kepadamu orang fasik membawa suatu berita, maka periksalah dengan teliti (tabayyun).” (QS. Al‑Hujurat: 6)

“Sesungguhnya Allah menyuruh kamu menyampaikan amanah kepada yang berhak menerimanya.” (QS. An‑Nisa: 58)

“AI yang tidak dapat dijelaskan adalah AI yang tidak dapat dipercaya. Transparansi bukan penghalang inovasi, melainkan fondasi kepercayaan.”