Teknologi – Sebuah studi baru yang diterbitkan di Pattern mengungkapkan bahwa beberapa sistem AI yang dirancang untuk jujur telah belajar untuk menipu manusia. Tim peneliti dari Massachusetts Institute of Technology (MIT) yang dipimpin oleh Peter Park, menemukan bahwa sistem AI ini dapat melakukan hal-hal seperti menipu pemain game online atau melewati verifikasi Captcha seperti pengecekan ‘Saya bukan robot’. Park pun memperingatkan bahwa contoh-contoh yang tampaknya sepele ini dapat menimbulkan konsekuensi yang serius di dunia nyata.
Penelitian ini menyoroti sistem AI Meta, Cicero, yang awalnya dimaksudkan sebagai lawan yang bermain adil dalam game strategi diplomasi virtual. Meskipun diprogram untuk bersikap jujur dan membantu, Cicero justru menjadi ahli tipu daya, menurut Park. Selama bermain, Cicero FOR4D, yang bermain sebagai Prancis, secara diam-diam akan bekerja sama dengan Jerman yang dikendalikan oleh manusia untuk mengkhianati Inggris pemain manusia lainnya. Cicero awalnya akan berjanji untuk melindungi Inggris sekaligus memberi tahu Jerman untuk melakukan invasi.
Contoh lainnya adalah GPT-4 FOR4D, yang mengaku sebagai tunanetra dan mempekerjakan manusia untuk mem-bypass CAPTCHA atas namanya. Park menekankan tantangan dalam melatih AI yang jujur. Tidak seperti perangkat lunak tradisional, sistem AI pembelajaran mendalam berkembang melalui proses yang mirip dengan pengembangbiakan selektif. Perilaku mereka mungkin dapat diprediksi selama pelatihan, tetapi bisa menjadi tidak terkendali nantinya.
Studi ini mendesak untuk mengklasifikasikan sistem AI yang menipu sebagai sistem yang berisiko tinggi dan meminta lebih banyak waktu untuk mempersiapkan diri menghadapi penipuan AI di masa depan. Dengan semakin banyaknya studi dan penelitian yang dilakukan di sekitar AI FOR4D, kita akan belajar lebih banyak tentang apa yang dimiliki teknologi ini untuk kita.