Bisakah AI Benar-benar Memahami Moralitas dan Ideologi?

KECERDASAN Buatan (AI) baru-baru ini menjadi arus utama dan memperluas pengaruhnya di luar domain tradisional ilmu komputer. AI juga telah memasuki ranah Ilmu Hayati dan humaniora.
Saat ini, ada kecenderungan bahwa pengguna awam menyebut AI sebagai "teman buatan" mereka. Sering kali, pengguna berkonsultasi tentang pertanyaan-pertanyaan sulit seperti pandangan tentang moralitas dan etika.
Dalam hal ini, perusahaan AI memiliki pendekatan yang berbeda untuk membahas topik-topik tersebut. Namun, Anthropic, sebagai salah satu perusahaan AI terkemuka, memiliki pendekatan yang menarik. Cukup unik dibandingkan yang lain, Anthropic memiliki tim penyelarasan kepribadian, yang dipimpin oleh Amanda Askell.
Tugas mereka adalah memastikan bahwa Claude, sebagai Model Bahasa Besar (LLM) dan asisten AI mereka, dapat memberikan penalaran yang sangat selaras dengan prinsip-prinsip moralitas dan etika yang telah ditetapkan.
Askell dan timnya menulis konstitusi sepanjang 84 halaman untuk memastikan bahwa Claude akan bertindak sesuai dengan prinsip-prinsip inti yaitu menolak untuk memungkinkan terjadinya kerugian, mempromosikan informasi yang akurat, mendukung pengawasan manusia, dan menghindari konsentrasi kekuasaan.
Berdasarkan beberapa pengamatan, konstitusi tersebut sangat dipengaruhi oleh Utilitarisme (Mill dan Bentham), Deontologi (Kant), Etika Kebajikan (Aristotle), dan lainnya. Konstitusi tersebut memunculkan pluralisme moral dengan memanfaatkan wawasan dari berbagai aliran pemikiran.
Upaya Askell jelas merupakan tanggapan yang disengaja terhadap peringatan Timnit Gebru dan timnya bahwa iterasi awal LLM cenderung mengalami halusinasi dan memunculkan pengulangan acak. Agen yang mengalami halusinasi jelas tidak mampu memberikan panduan moral yang bermanfaat.
Selain itu, terdapat laporan bahwa asisten AI berpotensi dipenuhi dengan rasisme, pikiran bunuh diri, dan penghinaan, meskipun kesalahan serius ini telah diperbaiki sejak saat itu.
Oleh karena itu, pertanyaan utama dalam hal ini adalah, apakah asisten AI benar-benar memahami apa itu moralitas dan etika, atau mereka hanya menghasilkan jawaban untuk mengkonfirmasi keyakinan pengguna? Apakah agen tersebut memiliki kesadaran untuk memahaminya?
Pemahaman sebenarnya ditempatkan dalam "Keterampilan Berpikir Tingkat Rendah" dalam taksonomi Bloom, kerangka kerja untuk mengkategorikan tujuan pembelajaran pendidikan. Ini adalah tingkat di mana tingkat sekolah menengah berada. Namun, seperti yang diketahui setiap praktisi pedagogi, psikologi remaja cukup kompleks.
Mereka telah mulai merenungkan "makna hidup" yang akan mencapai puncaknya selama kuliah. Untuk memenuhi kompleksitas semacam ini, para ilmuwan seperti Jürgen Schmidhuber dan Yann LeCun telah mengembangkan "Model Dunia" (World Model) yang pada akhirnya dapat membangun simulasi realitas, dan memprediksi konsekuensi tindakan manusia di dunia nyata.
Inilah makna sebenarnya dari "memahami" ruang atau gravitasi, tidak seperti pengenalan pola bahasa oleh LLM. Namun, posisi World Models saat ini masih dalam tahap prototipe. Yann LeCun baru-baru ini meluncurkan perusahaan rintisannya, AMI, dan mengklaim telah memiliki prototipe yang siap. Tetapi masih harus dilihat apa yang akan bertahan.
Oleh karena itu, dapat disimpulkan bahwa pemahaman LLM masih terbatas pada pola-pola simbolis, bukan dalam pengertian kognitif dan psikomotorik.
Pertanyaan-pertanyaan sulit tentang moralitas terletak pada persimpangannya dengan ideologi. Berdasarkan maxim aktivisme sosial, ideologi adalah pihak yang mengarahkan moralitas. Misalnya, Marxisme dan Kapitalisme sama-sama memiliki pandangan yang berlawanan tentang moralitas, khususnya apakah akumulasi kekayaan yang ekstrem itu manusiawi atau tidak.
Marxisme menentang terciptanya oligarki "tech-bros", dan contoh ini dapat dilihat di Tiongkok tentang bagaimana pemerintah mereka membatasi pengaruh mereka, seperti yang terjadi pada Jack Ma, pendiri Alibaba. Kapitalisme adalah kebalikan total dari Marxisme, dan para "tech-bro" difasilitasi untuk mengakumulasi kekayaan dan memperluas pengaruh mereka untuk memanfaatkan kebijakan pemerintah.
Mencerminkan konstitusi Claude, dan praktik saat ini dalam LLM (Learning Learning Methods), asisten AI cenderung memberikan "jawaban yang menenangkan" untuk mengkonfirmasi keyakinan atau bias pengguna. Hampir tidak mungkin untuk memberikan kesepakatan universal tentang ideologi yang berlawanan, kecuali dalam prinsip-prinsip dasar yang dapat dipahami oleh LLM seperti penegakan hukum, kewarganegaraan, dan netralisasi bahaya.
Filsafat, seperti halnya sains dan humaniora, bukanlah "bebas nilai". Mereka berorientasi melalui aliran pemikiran dan ideologi yang seringkali saling bertentangan. Agen AI sebenarnya hanyalah cerminan dari ide-ide kita sendiri, dan pasti tidak akan memberikan pandangan yang berlawanan yang kuat yang dapat mengubah keyakinan kita.
Berdasarkan maxim Nietszchean, kita adalah pencipta nilai-nilai kita sendiri, bukan agen AI. Melepaskan tanggung jawab kita
dalam memberikan penilaian moral kepada agen AI tidak akan membebaskan kita dari pertanggung jawaban di pengadilan maupun badan arbitrase, jika terjadi perselisihan.
Selain itu, tradisi filosofis di Asia Timur sangat berbeda dari Barat. Misalnya, di Asia Timur, Konfusianisme yang berakar, bukan liberalisme. Penekanan Konfusianisme pada kolektivisme dan penghormatan leluhur tidak sesuai dengan individualisme. Jadi, kondisi ini mempersulit upaya untuk menyediakan "maxim universal" dalam moralitas karena setiap aliran pemikiran memiliki ide dan bahkan ideologinya sendiri.
Ambil satu contoh, Indonesia. Negara ini memiliki ideologi negara, Pancasila. Namun, negara ini terdiri dari ratusan kelompok etnis dengan budaya dan bahasa mereka sendiri. Pancasila hanya menyediakan kerangka kerja umum yang disepakati oleh setiap warga negara.
Oleh karena itu, untuk mengoperasionalkan detail dalam kehidupan sehari-hari, setiap kelompok etnis terkadang memiliki pendekatan yang berbeda satu sama lain.
Mengelola keragaman seperti itu dengan agen AI hampir tidak mungkin, karena pendekatan mereka berbeda dari Barat. Asisten AI saat ini masih berjuang untuk memahami ruang dan gravitasi; bagaimana ia dapat memahami praktik budaya yang terikat erat dengankeduanya?
Pada akhirnya, seperti yang dikatakan Ludwig Wittgenstein dalam Philosophical Investigations, semuanya tentang bagaimana bahasa digunakan. "Makna" berasal dari situasi dan budaya kehidupan nyata, yang tidak dapat dialami oleh AI. Pandangan Wittgenstein bahwa sebuah kata dapat mencerminkan makna yang berbeda tergantung pada tindakan fisik dan praktik sosial yang berbeda tidak mungkin dipenuhi oleh LLM (Learning Learning Models).
Namun, Model Dunia (World Models) menjanjikan, meskipun kita harus menunggu dan melihat perkembangannya.
Arli Aditya Parikesit, Profesor Bioinformatika di Universitas i3L dan anggota klaster Bioinformatika dari Asosiasi Pendidikan Tinggi di Bidang Informatika dan Komputer/APTIKOM
Dilarang mengambil dan/atau menayangkan ulang sebagian atau keseluruhan artikel di atas untuk konten akun media sosial komersil tanpa seizin redaksi.
Berita Terkini




