Kecerdasan buatan (Artificial Intelligence/AI) yang semakin berkembang telah memberikan banyak kemudahan dalam berbagai sektor dalam bidang hukum dan peradilan, termasuk dalam penyusunan dokumen pengadilan, seperti dakwaan dari jaksa, legal opinion yang diberikan pengacara, akta yang dibuat notaris. Namun, kemajuan ini juga membawa risiko serius, terutama ketika AI digunakan secara tidak tepat sehingga menghasilkan dokumen palsu, menyesatkan, atau bias. Fenomena ini semakin relevan untuk diangkat karena pada tahun 2023, terjadi kasus hukum dimana sebuah firma hukum di Amerika Serikat diketahui mengajukan memori banding (uraian tertulis berisi alasan-alasan keberatan dari pihak yang tidak setuju dengan putusan pengadilan) yang berisi enam putusan fiktif yang secara keliru dihasilkan oleh ChatGPT. Kasus tersebut bukan hanya mendapat kritik dari publik, tetapi juga menunjukkan bahwa penggunaan AI tanpa pemahaman dan pertanggungjawaban dapat berujung pada konsekuensi hukum yang berkelanjutan.
Selain itu, laporan OECD Tahun 2023 yang mengingatkan bahwa penggunaan AI dalam peradilan dapat menimbulkan ketidaktransparan dan juga bias apabila tidak diawasi dan diverifikasi lebih lanjut. Fakta-fakta ini memperjelas urgensi untuk menelaah lebih lanjut penyalahgunaan AI dalam dokumen pengadilan sebagai isu hukum modern yang perlu segera ditindaklanjuti agar sistem hukum tetap human-centered dan tidak tergantung pada kesalahan algoritma AI yang nantinya akan merugikan both parties (masyarakat maupun praktisi/akademisi hukum).
Halusinasi AI?
Permasalahan utama dalam penyalahgunaan AI pada dokumen pengadilan adalah kecenderungan model AI menghasilkan informasi yang tampak meyakinkan namun tidak akurat bahkan tidak sesuai dengan apa yang seharusnya ada dalam dokumen pengadilan tersebut, fenomena yang dikenal sebagai AI hallucination, atau halusinasi AI. IBM (International Business Machines Corporation) mendefinisikan hal ini sebagai berikut “Halusinasi AI adalah fenomena di mana, dalam model bahasa besar (LLM), seringkali chatbot AI generatif mempersepsikan pola atau objek yang tidak ada atau tidak terlihat oleh manusia, sehingga menghasilkan sesuatu yang tidak masuk akal atau sama sekali tidak akurat.”
Ketika seorang pengacara atau pihak litigasi mengandalkan hasil AI tanpa melakukan pengecekan manual maupun melakukan pemahaman lebih lanjut, risiko munculnya putusan palsu, argumentasi tidak berdasar, atau cantuman hukum yang tidak valid menjadi sangat tinggi. Fenomena ini pernah dibahas dalam jurnal Artificial Intelligence at the Bench, oleh Socol de la Osa, D. U., & Remolina N (2024) yang menekankan bahwa halusinasi AI dapat menjadi ancaman langsung untuk integritas dari sebuah putusan seorang praktisi hukum karena putusan yang lalai/salah dapat merugikan pihak yang terlibat.
Kode etik profesi hukum dan penggunaan AI
Selain menghasilkan informasi yang salah, penyalahgunaan AI dalam dokumen pengadilan juga dapat melanggar kode etik profesi hukum yang bertujuan untuk menjunjung tinggi martabat profesi, melindungi kepentingan publik, dan memastikan pelayanan yang berkualitas dan berintegritas. Banyak yurisdiksi, termasuk Indonesia, menegaskan bahwa para praktisi hukum bertanggung jawab penuh atas setiap dokumen yang diajukan ke pengadilan. American Bar Association (ABA) atau Asosiasi Pengacara Amerika yang memiliki peran sebagai asosiasi pengacara sukarela terbesar di dunia untuk profesional hukum dan mahasiswa di Amerika Serikat juga mengeluarkan pedoman etik baru pada 2023 yang menyatakan bahwa
“Individu dan organisasi yang berkaitan harus mempertanggungjawabkan konsekuensi yang disebabkan oleh penggunaan AI, layanan, sistem, dan kemampuan AI mereka, termasuk setiap kerugian atau kerusakan yang dapat diakui secara hukum disebabkan oleh tindakan atau penggunaan sistem atau kemampuan AI , kecuali jika mereka telah mengambil cara yang masuk akal untuk mengurangi kerugian atau kerusakan tersebut.”
Maka disimpulkan jika seseorang atau sebuah organisasi mengandalkan AI secara berlebihan tanpa verifikasi dan pemahaman lebih lanjut, mereka dapat dianggap lalai atau bahkan melanggar standar kode etik dalam profesi hukum. Contoh kasus seperti yang terjadi di New York, di pengacara di suatu firma hukum dijatuhi sanksi karena memasukkan putusan palsu dari AI, menunjukkan bahwa pengadilan tidak akan mentolerir penggunaan teknologi yang merusak integritas proses hukum. Dengan demikian, penyalahgunaan AI bukan hanya masalah teknis, tetapi juga masalah etika dan profesionalisme.
Membangun kepercayaan masyarakat
Masalah lainnya adalah risiko bias yang masuk secara mudah dan leluasa ke dalam dokumen hukum. AI yang sudah dilatih menggunakan data historis, termasuk putusan dan teks hukum lama yang mungkin memuat bias gender, ras, atau kelas tertentu. Jika AI menghasilkan rekomendasi atau ringkasan hukum yang bias, dan pengguna tidak menyadarinya, maka hasil tersebut dapat memperkuat ketidakadilan struktural dalam sistem peradilan. Survey publik lembaga pengabdian masyarakat Universitas Sains dan Teknologi Komputer, mengungkapkan bahwa 55% responden percaya bahwa AI dapat meningkatkan objektivitas putusan hukum, 45% tetap khawatir tentang potensi bias algoritma.
Hal ini menjadi tantangan besar mengingat dokumen pengadilan memiliki dampak langsung terhadap hak dan nasib seseorang. Tanpa regulasi yang jelas, verifikasi berlanjut, dan pemahaman mendalam dari para penggunanya, penyalahgunaan AI memiliki potensi besar merusak kualitas putusan pengadilan dan kepercayaan publik terhadap sistem peradilan serta pada para praktisi maupun akademisi hukum.
Lebih dari itu, risiko bias ini dapat menciptakan preseden (keputusan hakim sebelumnya yang terikat pada hakim selanjutnya dalam menyelesaikan kasus serupa) digital yang dihasilkan AI terus digunakan/ direplikasi dan dijadikan dasar untuk menyusun putusan berikutnya.
Antisipasi di Indonesia
Di indonesia kasus ini pernah terjadi, seperti kasus pemalsuan putusan terdakwa Hengky Gunawan yang menyeret hakim agung Achmad Yamanie menguatkan peristiwa itu. Modusnya nyaris sama, mengubah lama hukuman yang dijatuhkan. Hengky yang seharusnya dihukum 15 tahun, berubah menjadi 12 tahun penjara.” Meskipun memang kasus pemalsuan putusan ini tidak menggunakan AI namun tidak menutup kemungkinan bahwa di era modern, semakin banyak putusan-putusan yang bisa dipalsukan lewat AI. Jikalau penggunaan AI dalam ranah hukum kedepannya tidak diawasi maka akan menjadi resiko besar yang dimana buruknya pandangan masyarakat pada hukum maupun penegak hukum.
Dalam artikel “Kompleksitas Penerapan Kecerdasan Buatan (AI) dalam Pembuktian di Pengadilan Pidana” diungkapkan bahwa salah satu tantangan utama dalam penggunaan AI pada sistem peradilan pidana adalah masalah akuntabilitas dan transparansi. Meskipun demikian, jika dilaksanakan, implementasi AI dalam pengambilan keputusan harus dilakukan dengan hati-hati untuk menghindari bias dan diskriminasi, serta memastikan sistem dirancang dan diuji secara menyeluruh (Juwitha Putri Simanjuntak dan Hery Firmansyah, 2024).
Antisipasi yang dapat dilakukan untuk mencegah terjadinya kasus ini di Indonesia adalah dengan mengkaji atau merumuskan kebijakan yang lebih spesifik tentang AI termasuk dalam etika profesi, seperti AI yang menjadi alat bantu, bukan menjadi pengganti sepenuhnya.
Berdasarkan analisis kasus dan kajian teoritis sebelumnya, dapat disimpulkan bahwa penyalahgunaan Kecerdasan Buatan, atau AI, dalam pembuatan dokumen pengadilan merupakan ancaman serius terhadap kualitas, integritas, dan akuntabilitas profesi hukum. Keberadaan putusan palsu, sitasi fiktif, serta argumentasi hukum yang dihasilkan melalui halusinasi AI menunjukkan bahwa teknologi ini, jika digunakan tanpa verifikasi dan pengawasan yang memadai, berpotensi menimbulkan distorsi hukum yang merugikan para pihak serta melemahkan legitimasi proses peradilan. Selain itu, ketidakmampuan AI untuk memahami konteks normatif dan nilai-nilai keadilan menyebabkan risiko bias yang dapat memperkuat ketidakadilan struktural dalam sistem hukum. Kondisi ini menunjukkan bahwa teknologi AI tidak hanya menimbulkan masalah teknis, tetapi juga berdampak langsung pada etika profesi, tata kelola peradilan, dan kepercayaan publik.
Dengan mempertimbangkan kompleksitas masalah tersebut, diperlukan respons yang sistematis dan komprehensif. Pertama, pembentukan regulasi nasional yang spesifik dan terukur mengenai penggunaan AI dalam praktik hukum menjadi urgensi yang tidak dapat ditunda. Regulasi ini harus mencakup standar verifikasi dokumen, kewajiban pengungkapan penggunaan AI, perlindungan data, serta mekanisme pertanggungjawaban profesional jika terjadi kesalahan atau penyimpangan. Norma yang jelas akan menciptakan kepastian hukum sekaligus mencegah praktik yang berpotensi merugikan integritas proses peradilan. Kedua, institusi pendidikan hukum perlu mengintegrasikan literasi teknologi dan etika AI ke dalam kurikulum inti. Pemahaman mendalam mengenai karakteristik, keterbatasan, dan implikasi hukum dari penggunaan AI penting untuk membekali calon praktisi agar tidak bergantung secara membabi buta pada teknologi. Berikutnya, lembaga peradilan serta firma hukum perlu menerapkan kebijakan internal yang ketat terkait penggunaan AI. Setiap keluaran AI wajib melalui proses verifikasi manual oleh praktisi berwenang sebelum digunakan dalam dokumen pengadilan.
Dengan demikian, dapat saya simpulkan bahwa AI hanya dapat menjadi alat bantu teknis, bukan sebagai pengganti penalaran hukum manusia. Secara keseluruhan, langkah-langkah tersebut diperlukan agar pemanfaatan AI dalam bidang hukum dapat dilakukan secara bertanggung jawab, akuntabel, dan sejalan dengan prinsip-prinsip keadilan.
Penulis : Jessica Evelyn Paulina
Editor : Fadhil “Dilly” Luqmaan








