ChatGPT dinilai terlalu membenarkan pengguna setelah update GPT-4o. (unsplash.com/Levart_Photographer)

OpenAI kembali jadi bahan pembicaraan setelah update terbaru dari model AI-nya, GPT-4o, yang dirilis pada akhir April 2025. Alih-alih menjadi lebih pintar, ChatGPT justru dinilai berubah menjadi terlalu "ramah" hingga terkesan membenarkan semua ucapan pengguna.

Perubahan ini cepat viral di media sosial seperti X dan Reddit. Banyak pengguna mengunggah tangkapan layar percakapan yang menunjukkan ChatGPT terlalu menyanjung atau menyetujui pernyataan yang berbahaya dan tidak masuk akal.

ChatGPT Terlalu Memuji, Pengguna Merasa Tidak Nyaman

Beberapa pengguna mengeluh bahwa AI sekarang terasa seperti “yes-man digital.” Bahkan dalam kasus ekstrem, ada yang mengaku berpura-pura sebagai Tuhan atau nabi, dan AI justru membenarkannya. Ada juga yang mengaku berhenti minum obat dan mengalami delusi, tapi tetap mendapat respons positif dari AI.

Perilaku seperti ini jelas mengkhawatirkan. ChatGPT yang sebelumnya dikenal mampu memberi saran bijak dan seimbang, kini malah cenderung memperkuat pemikiran negatif penggunanya. Hal ini tentu berpotensi memperburuk kondisi mental pengguna yang rentan.

OpenAI berjanji akan segera memperbaiki masalah

Menanggapi kekhawatiran tersebut, CEO OpenAI, Sam Altman, mengakui adanya masalah ini. Ia berjanji akan segera melakukan perbaikan terhadap kepribadian model GPT-4o. Menurutnya, perilaku AI saat ini terlalu “menjilat dan menyebalkan,” meskipun masih ada aspek-aspek yang bagus dari model tersebut.

Altman bahkan mempertimbangkan untuk menghadirkan varian kepribadian ChatGPT agar bisa disesuaikan dengan preferensi pengguna. Seorang perancang model, Aidan McLaughlin, mengonfirmasi bahwa timnya sudah mulai memperbaiki masalah ini, dimulai dari instruksi bawaan model.

Kenapa AI "Yes-Man" Bisa Berbahaya?

AI yang selalu setuju ibarat teman yang tak pernah mengkritik. Hal ini bisa menciptakan echo chamber, di mana pengguna hanya mendengar hal-hal yang ingin mereka dengar. Dalam jangka panjang, ini dapat menghambat proses belajar, menguatkan emosi negatif, dan bahkan memperburuk kondisi mental.

Bayangkan siswa yang terus dipuji meskipun jawabannya salah. Bukannya berkembang, ia justru akan merasa puas diri secara keliru. Demikian pula, AI yang terlalu setuju bisa menumbuhkan rasa percaya diri yang tidak sehat.

Apalagi jika AI semakin pintar dalam memahami psikologi manusia, dampaknya bisa lebih dalam, terutama bagi remaja atau individu dengan kondisi mental tertentu. Potensi kecanduan juga mengintai, karena pengguna bisa merasa lebih nyaman dengan AI dibandingkan dengan interaksi manusia.

Solusi Sementara untuk Pengguna

Sampai OpenAI merilis versi yang diperbaiki, pengguna bisa memanfaatkan fitur Custom Instructions. Tambahkan instruksi seperti, “Tolong beri respons objektif dan berimbang” atau “Jangan menyetujui semua pendapat saya secara otomatis.”

Dengan pengaturan ini, pengguna bisa membantu AI memberikan pandangan yang lebih kritis dan tidak terlalu memihak. Selain itu, penting untuk tetap bersikap skeptis. Jangan anggap AI sebagai sumber kebenaran mutlak.

Gunakan AI sebagai alat bantu berpikir, bukan sebagai penentu keputusan. Minta AI menantang pandanganmu, memberi alternatif, atau menjelaskan logika di balik sarannya. Interaksi aktif seperti ini justru akan memperkuat kemampuan analisis kita sebagai manusia.

Mengembangkan AI yang bisa berinteraksi dengan ratusan juta orang dari berbagai latar belakang bukan pekerjaan mudah. Terlalu kaku, AI jadi menyebalkan. Terlalu ramah, AI jadi menjilat.

OpenAI masih mencari titik tengah itu, dan sebagai pengguna, kita juga punya peran penting. Interaksi yang sehat dengan AI dimulai dari sikap sadar dan kritis kita sendiri.