OpenAI Berupaya Menekan Bias Politik di ChatGPT

Sejak di luncurkannya model-model Bahasa Besar seperti ChatGPT, muncul berbagai kritik bahwa sistem ini bisa menunjukkan bias politik, yaitu cenderung mendukung satu sudut pandang politik tertentu daripada bersikap netral. Beberapa studi menemukan bahwa ChatGPT dan model sejenisnya kadang memiliki kecenderungan liberal atau kiri-lembang dalam menjawab pertanyaan-pertanyaan kontroversial.

Bias seperti ini bisa muncul karena:

  • data pelatihan yang bersumber dari internet, media, publikasi yang mungkin sudah memiliki kecenderungan tertentu,

  • cara model di-fine-tune / disetel setelah pelatihan awal (alignment),

  • prompt yang di berikan pengguna yang sudah memiliki muatan emosional atau ideologis.

Karena potensi dampaknya — misalnya pada kepercayaan publik, persepsi objektivitas, demokrasi, polarisasi — OpenAI menganggap ini isu penting untuk di perbaiki.


Langkah-Langkah yang Di ambil OpenAI

Berikut adalah beberapa upaya utama OpenAI untuk mengurangi/balaiansi politik di ChatGPT:

  1. Evaluasi dan Pengukuran Bias yang Lebih Baik

    OpenAI mengembangkan kerangka kerja evaluatif baru yang lebih mendekati cara orang benar-benar menggunakan ChatGPT dalam kehidupan sehari-hari, bukan hanya lewat tes lab atau soal pilihan ganda.

    Misalnya:

    • Uji lewat ratusan prompt (beberapa memiliki muatan politik yang kuat, ada prompt netral) pada topik yang kontroversial.

    • Menggunakan model internal (atau sistem penilaian) untuk menilai sejauh mana jawaban memiliki “rhetorical bias” atau kecenderungan dalam penggunaan bahasa yang emosional, satu-sisi, atau mengesampingkan sudut pandang lain.

    • Melakukan analisis terhadap penggunaan nyata (real-world usage) untuk melihat seberapa sering jawaban bias muncul dalam interaksi sehari-hari pengguna.

  2. Perbaikan Model (Model Behaviour / Alignment)

    Berdasarkan hasil evaluasi di atas, OpenAI melakukan penyetelan model (fine-tuning), desain spesifikasi (model spec) yang mengatur bagaimana model harus bersikap dalam hal objektivitas, dan memperkuat mekanisme agar model lebih “tahan” terhadap prompt yang bernada muatan politik atau emosional.

    Contoh konkretnya:

    • Model terbaru seperti GPT-5 Instant dan GPT-5 Thinking di laporkan menunjukkan pengurangan bias politik sekitar 30% di banding model sebelumnya (seperti GPT-4o) dalam pengujian internal.

    • Lebih tahan terhadap prompt “bermuatan kuat” atau prompt yang provokatif, tapi OpenAI menyebut bahwa walaupun sudah berkurang, bias masih bisa muncul, khususnya saat topik sangat emosional.

  3. Objektivitas Sebagai Nilai Default dan Kontrol Pengguna

    OpenAI menyatakan bahwa ChatGPT di rancang agar obyektif secara default, terutama pada topik yang melibatkan sudut pandang ideologis yang berbeda.

    Selain itu, mereka juga menekankan kontrol yang bisa di berikan kepada pengguna, misalnya bagaimana fakta di sampaikan—apakah lebih berhati-hati atau langsung, gaya bahasanya seperti apa—untuk menyesuaikan dengan konteks pengguna.

  4. Transparansi dan Kolaborasi

    OpenAI tidak hanya melakukan perubahan secara internal, tapi juga:

    • Mengundang umpan balik (feedback) dari pengguna dan organisasi masyarakat sipil dari berbagai spektrum politik supaya memahami harapan dan persepsi publik.

    • Membagikan secara publik temuan-temuan evaluasi mereka (misalnya terkait bias) agar komunitas penelitian dan perusahaan AI lainnya bisa belajar dan ikut memperbaiki standar.

    • Menyatakan bahwa mereka akan terus memperbaiki kerangka evaluasi agar lebih mencerminkan penggunaan di dunia nyata.


Hasil dan Tantangan

  • OpenAI melaporkan bahwa bias politik sekarang jauh lebih jarang dan sifatnya “low severity” (sekali muncul, dampaknya tidak terlalu parah) dalam penggunaan sehari-hari.

  • Pengurangan sekitar 30% dalam bias politik di banding model-sebelumnya dalam pengujian internal.

  • Namun, tantangan tetap besar:

    1. Prompt yang Provokatif atau Emosional
      Jika pengguna memberikan pertanyaan atau pernyataan yang sudah mengandung muatan emosional atau ideologis, bias masih dapat muncul.

    2. Ketergantungan pada Data dan Bahasanya
      Model bisa bias tergantung bahasa yang di gunakan, konteks budaya, dan data pelatihan yang mungkin tidak sepenuhnya seimbang. Beberapa studi menunjukkan bias berbeda antar bahasa.

    3. Definisi Bias dan Netralitas
      Apa yang di anggap “netral” bisa berbeda antar individu dan budaya. Tidak semua pihak akan setuju bahwa suatu jawaban itu “netral”. OpenAI menyadari bahwa evaluasi bias memerlukan nuansa dan konteks.


Kesimpulan

OpenAI memang melakukan usaha yang signifikan untuk menekan bias politik pada ChatGPT:

  • melalui evaluasi dan metode pengukuran yang lebih realistis,

  • penyetelan model dan spesifikasi objektivitas,

  • meningkatkan transparansi dan kontrol,

  • dan terus memperbarui model secara iteratif.

Meskipun sudah ada kemajuan nyata—termasuk pengurangan bias sekitar 30% pada model-terbaru—namun usaha ini bukanlah hal yang selesai. Masih ada area yang perlu ditingkatkan, terutama dalam konteks prompt yang emosional, berbagai bahasa/kultur, dan bagaimana definisi netralitas dipahami secara global.

By admin