ChatGPT Berhasil Lulus Ketika Dipakai di Uji Kompetensi Medis dan Ujian Akhir S2

ChatGPT tengah ramai diperbincangkan di jagat maya karena dapat menyimulasikan percakapan layaknya sedang berbincang dengan manusia. Penggunaan chatbot berteknologi kecerdasan buatan (AI) ini telah mengundang pertentangan di dunia pendidikan sebab dikhawatirkan akan menimbulkan sikap tidak jujur pada pelajar.

Baru-baru ini, penelitian mengungkapkan bila ChatGPT memperoleh skor yang cukup bagus ketika dites mengerjakan ujian akhir program Magister Bisnis Administrasi (MBA), uji kompetensi medis, dan ujian profesi pengacara sesuai standar di Amerika Serikat.

Percobaan pertama dilaksanakan oleh Christian Terwiesch, profesor sekolah bisnis Wharton yang bergengsi di AS. Ia menguji model bahasa GPT-3 yang digunakan OpenAI untuk mengembangkan ChatGPT. Setelah dilatih mengerjakan ujian akhir MBA di kampusnya, Terwiesch menyimpulkan GPT-3 bisa mendapat skor B sampai B-.

“[GPT-3] menjawab dengan benar pertanyaan seputar konsep dasar manajemen operasional dan pertanyaan analisis proses,” terangnya. Dengan kata lain, chatbot itu mampu memberikan penjelasan yang sangat baik saat memilih jawaban. Namun, Terwiesch menyebut teknologinya belum sempurna lantaran sering salah menghitung saat menjawab soal matematika. Alat ini juga tak mampu memberikan analisis proses yang lebih rumit.

Studi ini menginspirasi beberapa percobaan lainnya yang menguji kemampuan menulis ChatGPT, serta potensinya meringankan pekerjaan manusia di bidang keahlian tertentu.

Seperti di dunia kedokteran, misalnya. Sejumlah peneliti menantang ChatGPT untuk mengerjakan United States Medical Licensing Exam (USMLE), ujian penentuan bagi calon dokter di AS untuk memperoleh izin praktik. Mereka menyimpullkan skor ChatGPT mendekati atau berada pada ambang kelulusan untuk tiga jenis ujian yang telah disediakan. Teknologinya dapat memberikan penjelasan yang konsisten.

Mereka lalu menyimpulkan model bahasa besar seperti ChatGPT dapat membantu kalangan dokter menghasilkan surat permohonan atau laporan medis yang mudah dimengerti oleh pasien.

Percobaan selanjutnya terjadi di sekolah hukum. Model GPT-3.5 memperoleh nilai pilihan ganda dengan akurasi 50 persen dalam Multistate Bar Examination (MBE). Guna menjadi seorang pengacara, mahasiswa hukum harus lulus Bar Exam yang terdiri dari tiga bagian. MBE adalah tahapan ujian pertama.

Para peneliti memperkirakan GPT-3.5 akan menjawab soal pilihan ganda dengan akurasi 25 persen, namun temuannya jauh di luar bayangan mereka. Model ini mencapai tingkat kelulusan rata-rata Torts and Evidence, dua dari tujuh bidang studi hukum. Dengan demikian, mereka mengusulkan kemungkinan model bahasa seperti ChatGPT “lulus ujian MBE dari ujian profesi pengacara dalam waktu dekat.”

Walau ChatGPT masih dalam versi beta, dan mustahil melampaui pendidikan tinggi, banyak orang telah berupaya untuk mencegah penyalahgunaan chatbot di lembaga pendidikan. Mahasiswa 22 tahun Edward Tian tengah mengembangkan aplikasi yang dapat mendeteksi tulisan hasil ChatGPT. “Setiap orang berhak merasakan manfaat AI, tapi perlu ada alat untuk mencegah terjadinya penyalahgunaan teknologi ini,” terangnya kepada Motherboard.