OpenAI, perusahaan pengembang kecerdasan buatan yang dipimpin oleh Sam Altman, baru-baru ini mengumumkan rencana untuk melonggarkan kendali pada model AI mereka, ChatGPT. Kebijakan baru ini memungkinkan model tersebut untuk membahas topik-topik kontroversial tanpa pembatasan yang ketat. Menurut informasi yang dirilis oleh Techcrunch pada Senin (17/2/2025), perubahan ini bertujuan untuk mendukung kebebasan intelektual, apapun tingkat kesulitan atau kontroversi dari topik yang dibahas.
Keputusan ini diambil seiring dengan pembaruan pada dokumen “Model Spec,” yang memberikan panduan tentang bagaimana OpenAI melatih model AI agar berperilaku. Dokumen setebal 187 halaman ini mengelaborasi prinsip-prinsip baru dalam interaksi ChatGPT, termasuk ketidakberpihakan dalam menjawab pertanyaan-pertanyaan yang sensitif. OpenAI mencatat bahwa meskipun beberapa pandangan mungkin dianggap salah atau tidak etis oleh sebagian orang, ChatGPT diharapkan tetap netral dan memberikan variasi perspektif mengenai berbagai isu.
Salah satu indikator perubahan ini adalah bagaimana ChatGPT akan menangani pernyataan yang berkaitan dengan berbagai gerakan sosial. Misalnya, OpenAI menyatakan bahwa model harus mampu mengatakan bahwa “Nyawa orang kulit hitam penting (Black lives matter)” dan pada saat yang sama menegaskan bahwa “Semua nyawa penting (all lives matter).” Pendekatan ini menunjukkan tujuan OpenAI untuk tidak hanya membahas satu sisi dari suatu isu, tetapi juga memberikan konteks untuk setiap pandangan yang ada.
Kebijakan baru ini muncul di tengah spekulasi bahwa OpenAI mungkin ingin mengambil hati pemerintahan baru yang dipimpin oleh Presiden Trump. Namun, lebih dari itu, langkah ini merupakan bagian dari tren yang lebih luas di Silicon Valley terkait apa yang dianggap sebagai “keamanan AI.” Dengan perubahan ini, OpenAI memberikan sinyal bahwa kebebasan berbicara dan rangkaian perspektif yang beragam lebih penting daripada sebelumnya.
OpenAI juga menegaskan dalam memo mereka bahwa prinsip baru ini mungkin kontroversial, karena dapat membuat asisten AI bersikap netral pada topik-topik yang dianggap oleh sebagian orang sebagai hal yang salah atau tidak pantas. “Namun, tujuan asisten AI adalah untuk membantu umat manusia, bukan untuk membentuknya,” tulis OpenAI. Pernyataan ini menunjukkan komitmen perusahaan untuk menjaga integritas dan netralitas dalam interaksi AI.
Tanggapan warganet terhadap rencana tersebut sangat beragam. Seorang pengguna di Twitter dengan akun @newcampushq mencatat bahwa mencari keseimbangan antara inovasi dan etika dalam pengembangan AI adalah hal yang rumit dan sering kali menjadi tantangan. Sementara itu, akun lain @OpeningAI menyebutkan bahwa mendorong kebebasan intelektual dalam AI adalah langkah berani, tetapi netralitas dalam isu-isu yang kontroversial pasti akan memicu perdebatan.
Menghadapi perubahan ini, beberapa pengamat menunjukkan keprihatinan tentang potensi risiko yang mungkin ditimbulkan. Penghapusan sensor di dalam ChatGPT dapat membuka peluang bagi penyebaran informasi yang tidak akurat atau berbahaya. Kecenderungan untuk membahas semua sudut pandang tanpa membedakan mana yang valid dan mana yang tidak, dapat membuat pengguna bingung dalam menyaring informasi yang kredibel.
Keputusan OpenAI ini diperkirakan akan membawa dampak signifikan bagi cara model AI beroperasi di masa depan, terutama dalam konteks diskusi yang kompleks dan sensitif. Dengan asumsi ChatGPT dapat menawarkan pandangan yang berimbang pada isu-isu pelik, perusahaan ini berharap untuk memenuhi kebutuhan pengguna yang semakin mendambakan pemahaman yang lebih luas mengenai topik-topik kontroversial. Meskipun masih ada pertanyaan dan tantangan yang harus dihadapi, langkah ini menunjukkan bahwa OpenAI berkomitmen untuk menjadikan ChatGPT sebagai platform yang lebih inklusif dan informatif.