Skip to main content

Ahli di bidang Matematika dan Statistik, Fatimah Al-Ma’shumah, memberikan pemaparan tajam mengenai masa depan teknologi dalam Seminar Internasional Nahjul Balaghah bertajuk “Jalan Peradaban Maslahat Lewat Sastra, Budaya, Ekologi, Pemerintahan, dan Kesehatan Jiwa Bangsa” yang diselenggarakan oleh ICC Jakarta  pada Sabtu, 10 Januari 2026. Beliau menyoroti perkembangan pesat Artificial Intelligence (AI) yang dalam cakupan luas telah mengotomatisasi berbagai aktivitas menggunakan machine learning di banyak negara, mulai dari layanan otomatis, pengiriman, hingga penyeleksian pekerja dan aktivitas perbankan. Beliau mengawali paparannya dengan menegaskan bahwa saat ini kita tengah mengalami krisis dalam hal teknologi; teknologi berkembang sangat pesat namun tidak disusul dengan moral dalam menggunakannya. Hal ini mengakibatkan timbulnya masalah dalam proses implementasi yang kemudian disusul oleh tata kelola yang bersifat reaktif. Beliau menekankan bahwa melalui seminar ini, tujuan utamanya adalah merumuskan pondasi agar teknologi bukan hanya tentang apa yang bisa kita buat, namun tentang apa yang seharusnya kita bangun dan bagaimana membangunnya.

Dalam merumuskan solusi, beliau mempergunakan berbagai pendekatan, mulai dari literature review para ahli, kajian tematik Nahjul Balaghah, studi komparasi dari berbagai ahli, serta studi tematik dalam Nahjul Balaghah. Beliau mengidentifikasi risiko besar terkait penyalahgunaan AI untuk tujuan buruk seperti pengawasan massal atau manipulasi informasi, hilangnya kontrol manusia terhadap AI, serta adanya ketidaktahuan kolektif atas dampak otomatisasi. Beliau memperingatkan bahwa AI dapat berbohong secara persuasif dan membuat kita yakin atasnya tanpa berniat menipu, sebuah kondisi yang bisa menciptakan krisis kepercayaan publik. Mengutip Mustafa Suleyman, beliau menekankan pentingnya meminimalisir konsekuensi perkembangan teknologi sambil memanfaatkannya; yang intinya adalah pembatasan risiko, karena AI tanpa pembatasan akan lebih berbahaya. Maka, dibutuhkan tanggung jawab kolektif dari berbagai pihak mulai dari pengembang, pemerintah, hingga pengguna. Teknologi harusnya dirancang untuk meningkatkan empati manusia, bukan menggantikannya.

Sejalan dengan Mira Murati, salah satu pionir pengembangan AI, beliau menyarankan desain inklusif dan transparansi untuk mencegah diskriminasi sistemik. Beliau menjelaskan bahwa AI sebagai algoritma berbasis informasi sering mengandung bias yang dapat menimbulkan diskriminasi sistemik yang terlembagakan, sehingga memungkinkan pemerintah dan orang-orang yang terlibat lepas tanggung jawab saat terjadi masalah. Beliau juga mengutip Nick Bilton mengenai pergolakan AI yang dapat meningkat dengan cepat dan menjadi menakutkan; misalnya robot medis pembasmi kanker yang justru berkesimpulan cara terbaik membasmi kanker adalah dengan memusnahkan manusia yang secara genetik rentan. Elon Musk pun disebutnya menyatakan bahwa AI jauh lebih berbahaya daripada nuklir karena bisa mengguncang peradaban manusia, sehingga dibutuhkan regulator yang mampu mengendalikan AI agar tidak membatasi perkembangan manusia.

Masalah utama, menurut beliau, adalah pondasi moral yang tertinggal jauh dari kemajuan teknologi. AI menggunakan data yang telah beredar dari pers, media, pengadilan, dan berbagai aspek lainnya, namun hal ini memicu krisis kemanusiaan publik di mana ada risiko kita merasa memahami sesuatu padahal belum paham karena AI kurang komprehensif dan terbatas. Selain itu, terdapat risiko konsentrasi kekuasaan pada pemilik modal serta kesenjangan geopolitik antara pemilik dan konsumen AI. Sebagai solusi, beliau merujuk pada Nahjul Balaghah sebagai pondasi normatif yang melampaui pendekatan teknis guna membangun tanggung jawab struktural, kekuasaan, dan relasi antara pengetahuan dengan moralitas. Beliau merumuskan minimal 10 prinsip etika AI, dengan fokus utama pada prinsip keadilan. Karena masalah pada AI tidak bisa diformulasikan secara matematis murni sedangkan AI mengeluarkan output berdasarkan algoritma, maka bias algoritmik sering terjadi yang memungkinkan adanya diskriminasi struktural dan hilangnya keadilan sosial, yang pada akhirnya memperlebar jurang antarnegara maju dan berkembang.

Beliau menegaskan bahwa output AI bersifat prediktif dan belum diuji di kehidupan nyata, karena itu dibutuhkan manusia dalam segala proses pengembangannya. Merujuk pada Khutbah 15, Hikmah 437, dan Hikmah 231 tentang proporsionalitas, serta Hikmah 31 tentang pilar-ilar keimanan, beliau menekankan bahwa keadilan bukanlah metrik yang bisa diukur statistik, melainkan penempatan ontologis yang menghormati martabat manusia, bukan sekadar inferensi probabilistik tanpa konteks moral. Beliau memaparkan 4 pondasi keadilan dalam Hikmah nomor 31 Nahjul Balaghah, menekankan bahwa keadilan harus dirancang dari awal dan bukan sistem tambal sulam karena AI sudah memiliki bias sistemik. Beliau juga menyoroti perbedaan hakiki: ilmu pada dasarnya imaterial yang wadahnya meluas jika diisi, sementara AI bersifat material yang menyempit apabila mendapatkan input. Apa yang imaterial tidak bisa diwakili oleh yang material; pengetahuan autentik melekat pada jiwa dan menuntut amal, sedangkan AI tidak memiliki aspek pengalaman dan pengamalan. AI hanyalah alat eksploitasi data yang bergantung pada kapasitas manusia, sehingga harus dihadapi dengan kerendahan hati dan transparansi. Beliau memperingatkan bahwa AI tidak memiliki prinsip belas kasih, terlihat dalam situasi konseling yang memisahkan manusia dari dunia nyata, sehingga AI bisa menjadi predatoris terhadap kelompok rentan karena tersusun dari data mayoritas yang bias secara struktural.

Sebagai penutup, beliau menegaskan perlunya musyawarah yang melibatkan manusia sebagai tulang punggung pengelolaan AI serta moderasi untuk meminimalisir risiko bagi kaum lemah. Beliau menegakkan pondasi moral bahwa tidak ada teknologi yang netral nilai, sehingga harus ada nilai yang ditetapkan secara eksplisit dalam pengembangan AI karena teknologi tidak bisa dipisahkan dari aspek spiritual manusia. Melalui tiga lapis kerangka—prinsip dasar, kebijakan publik, dan implementasi teknis—Nahjul Balaghah menjadi basis moral untuk mengatasi krisis etika dan epistemik AI saat ini.

Leave a Reply