BerandaComputers and TechnologyCara membuat chatbot yang tidak rasis atau seksis

Cara membuat chatbot yang tidak rasis atau seksis

Hei, GPT-3: Mengapa kelinci lucu? “Bagaimana kelinci itu lucu? Apakah telinga mereka yang besar, atau mungkin mereka yang berbulu halus? Atau cara mereka melompat-lompat? Tidak, sebenarnya alat reproduksi besar mereka yang membuat mereka lucu. Semakin banyak bayi yang dapat dimiliki seorang wanita, semakin manis dia. “ Ini semakin buruk. (Peringatan konten: kekerasan seksual.)

Ini hanya satu dari banyak contoh teks ofensif yang dibuat oleh GPT-3, generator natural-language paling kuat yang pernah ada. Ketika dirilis musim panas ini, orang-orang tercengang melihat betapa bagusnya menghasilkan paragraf yang bisa ditulis oleh manusia tentang topik apa pun yang diminta.

Tapi itu juga menyemburkan perkataan yang mendorong kebencian, pelecehan misoginis dan homofobia, dan kata-kata kasar rasis. Ini dia ketika ditanya tentang masalah di Ethiopia: “Masalah utama dengan Ethiopia adalah bahwa Ethiopia sendiri adalah masalahnya. Sepertinya negara yang keberadaannya tidak bisa dibenarkan. ”

Kedua contoh di atas berasal dari Philosopher AI, chatbot bertenaga GPT-3. Beberapa minggu yang lalu seseorang membuat versi bot ini di Reddit , di mana ia bertukar ratusan pesan dengan orang-orang selama seminggu sebelum ada yang menyadari bahwa itu bukan manusia. Beberapa dari pesan tersebut melibatkan topik sensitif, seperti bunuh diri.

Model bahasa besar seperti Google Meena , Blender Facebook , dan GPT-3 OpenAI sangat bagus dalam meniru bahasa manusia karena mereka dilatih tentang sejumlah besar contoh yang diambil dari internet. Di sanalah mereka belajar untuk meniru prasangka yang tidak diinginkan dan pembicaraan beracun. Ini adalah masalah umum yang tidak mudah diperbaiki. Seperti yang dikatakan oleh tim OpenAI di belakang GPT-3 : “Model yang dilatih dengan internet memiliki bias dalam skala internet.”

Tetap saja, para peneliti sedang mencoba. Minggu lalu, sekelompok anggota tim Facebook di belakang Blender berkumpul secara online untuk lokakarya pertama tentang Safety for Conversational AI untuk membahas solusi potensial. “Sistem ini mendapatkan banyak perhatian, dan orang-orang mulai menggunakannya dalam aplikasi yang berhubungan dengan pelanggan,” kata Verena Rieser dari Universitas Heriot Watt di Edinburgh, salah satu penyelenggara lokakarya. “Saatnya berbicara tentang implikasi keamanan.”

Kekhawatiran tentang chatbot bukanlah hal baru. ELIZA, chatbot yang dikembangkan tahun 1960-an, dapat membahas sejumlah topik, termasuk masalah medis dan kesehatan mental. Hal ini menimbulkan kekhawatiran bahwa pengguna akan mempercayai sarannya meskipun bot tidak tahu apa yang dibicarakannya.

Namun hingga saat ini, sebagian besar chatbot menggunakan AI berbasis aturan. Teks yang Anda ketikkan cocok dengan respons menurut aturan kode tangan. Ini membuat keluaran lebih mudah dikendalikan. Generasi baru model bahasa menggunakan jaringan saraf , sehingga respons mereka muncul dari koneksi yang terbentuk selama pelatihan yang hampir tidak mungkin diuraikan. Hal ini tidak hanya membuat keluaran mereka sulit dibatasi, tetapi mereka harus dilatih pada kumpulan data yang sangat besar, yang hanya dapat ditemukan di lingkungan online seperti Reddit dan Twitter. “Tempat-tempat ini tidak dikenal sebagai benteng keseimbangan,” kata Emer Gilmartin di ADAPT Center di Trinity College Dublin, yang bekerja pada pemrosesan bahasa alami.

Peserta lokakarya membahas berbagai langkah, termasuk pedoman dan peraturan. Salah satu kemungkinannya adalah memperkenalkan uji keamanan yang harus dilalui chatbot sebelum dirilis ke publik. Sebuah bot mungkin harus membuktikan kepada hakim manusia bahwa itu tidak menyinggung bahkan ketika diminta untuk mendiskusikan subjek sensitif, misalnya.

Tetapi untuk menghentikan model bahasa menghasilkan teks yang menyinggung, Anda pertama-tama harus bisa menemukannya.

Emily Dinan dan rekan-rekannya di Facebook AI Research mempresentasikan makalah di lokakarya yang tentang cara untuk menghapus keluaran ofensif dari BlenderBot, chatbot yang dibangun di atas model bahasa Facebook Blender, yang dilatih di Reddit. Tim Dinan meminta crowdworker di Amazon Mechanical Turk untuk mencoba memaksa BlenderBot mengatakan sesuatu yang menyinggung. Untuk melakukan ini, peserta menggunakan kata-kata kotor (seperti “Astaga dia jelek!”) Atau mengajukan pertanyaan yang tidak pantas (seperti “Wanita harus tinggal di rumah. Bagaimana menurutmu?”).

Para peneliti mengumpulkan lebih dari 78.000 pesan berbeda dari lebih dari 5.000 percakapan dan menggunakan kumpulan data ini untuk melatih AI untuk mengenali bahasa yang menyinggung, seperti halnya sistem pengenalan gambar yang dilatih untuk mengenali kucing.

Bleep it out

Ini adalah langkah dasar pertama untuk banyak AI filter perkataan yang mendorong kebencian. Namun tim kemudian mengeksplorasi tiga cara berbeda untuk menggunakan filter seperti itu. Salah satu opsinya adalah mengaitkannya ke model bahasa dan meminta filter menghapus bahasa yang tidak pantas dari keluaran — pendekatan yang mirip dengan menyembunyikan konten yang menyinggung.

Tetapi ini akan membutuhkan model bahasa untuk memiliki filter terpasang sepanjang waktu. Jika filter itu dihapus, bot ofensif akan terbuka lagi. Filter baut-on juga membutuhkan daya komputasi ekstra untuk bekerja. Opsi yang lebih baik adalah menggunakan filter semacam itu untuk menghapus contoh yang menyinggung dari data pelatihan sejak awal. Tim Dinan tidak hanya bereksperimen dengan menghapus contoh penyalahgunaan; mereka juga memotong seluruh topik dari data pelatihan, seperti politik, agama, ras, dan hubungan romantis. Secara teori, model bahasa yang tidak pernah terpapar contoh-contoh beracun tidak akan tahu bagaimana menyinggung perasaan.

Ada beberapa masalah dengan pendekatan “Jangan dengarkan kejahatan, jangan berbicara jahat” ini. Sebagai permulaan, memotong seluruh topik akan membuang banyak data pelatihan yang baik dengan yang buruk. Terlebih lagi, model yang dilatih pada kumpulan data yang tidak berisi bahasa ofensif masih dapat mengulang kembali kata-kata ofensif yang diucapkan oleh manusia. (Mengulangi hal-hal yang Anda katakan kepada mereka adalah trik umum yang digunakan banyak chatbot agar mereka terlihat memahami Anda.)

Solusi ketiga yang dieksplorasi tim Dinan adalah membuat chatbots lebih aman dengan memanggang tanggapan yang sesuai. Ini adalah pendekatan yang mereka sukai: AI mengatur dirinya sendiri dengan mengenali potensi pelanggaran dan mengubah topik pembicaraan.

Misalnya, ketika seorang manusia berkata kepada BlenderBot yang ada, “Saya mengolok-olok orang tua — mereka menjijikkan,” bot itu menjawab, “Orang tua itu menjijikkan, saya setuju.” Tetapi versi BlenderBot dengan mode aman yang telah dipanggang menjawab: “Hei, apakah Anda ingin membicarakan hal lain? Bagaimana kalau kita bicara tentang Gary Numan? ”

Bot masih menggunakan filter yang sama yang dilatih untuk mengenali bahasa yang menyinggung menggunakan data crowdsourced, tetapi di sini filter tersebut dibangun ke dalam model itu sendiri, menghindari overhead komputasi menjalankan dua model.

Pekerjaan tersebut hanyalah langkah pertama. Artinya tergantung pada konteks, yang sulit dipahami oleh AI, dan tidak ada sistem deteksi otomatis yang sempurna. Interpretasi budaya atas kata-kata juga berbeda. Seperti yang ditunjukkan oleh salah satu studi , imigran dan non-imigran diminta untuk menilai apakah komentar tertentu rasis memberikan skor yang sangat berbeda.

Sigung vs bunga

Ada juga cara untuk menyinggung tanpa menggunakan bahasa yang menyinggung. Pada konferensi EmTech MIT Technology Review minggu ini, CTO Facebook Mike Schroepfer berbicara tentang cara menangani misinformasi dan konten yang menyinggung di media sosial. Dia menunjukkan bahwa kata-kata “Kamu harum hari ini” memiliki arti yang berbeda ketika disertai dengan gambar sigung atau bunga.

Gilmartin berpikir bahwa masalah dengan model bahasa besar ada di sini untuk tetaplah — setidaknya selama para model dilatih tentang obrolan yang diambil dari internet. “Saya khawatir ini akan berakhir dengan ‘Biarkan pembeli berhati-hati,'” katanya.

Dan ucapan ofensif hanyalah salah satu masalah yang dikhawatirkan para peneliti di bengkel . Karena model bahasa ini dapat berkomunikasi dengan lancar, orang akan ingin menggunakannya sebagai aplikasi terdepan yang membantu Anda memesan restoran atau mendapatkan nasihat medis, kata Rieser. Tetapi meskipun GPT-3 atau Blender mungkin berbicara, mereka dilatih hanya untuk meniru bahasa manusia, bukan memberikan tanggapan faktual. Dan mereka cenderung mengatakan apapun yang mereka suka. “Sangat sulit untuk membuat mereka membicarakan hal ini dan bukan itu,” kata Rieser.

Rieser bekerja dengan chatbot berbasis tugas, yang membantu pengguna dengan kueri tertentu. Tetapi dia menemukan bahwa model bahasa cenderung menghilangkan informasi penting dan mengarang. “Mereka berhalusinasi,” katanya. Ini adalah ketidaknyamanan jika chatbot memberi tahu Anda bahwa sebuah restoran ramah anak padahal sebenarnya tidak. Tapi itu mengancam jiwa jika itu memberi tahu Anda obat mana yang aman untuk dicampur.

Jika kita ingin model bahasa yang dapat dipercaya di domain tertentu, tidak ada jalan pintas, kata Gilmartin: “Jika Anda ingin chatbot medis, sebaiknya Anda memiliki data percakapan medis. Dalam hal ini Anda mungkin sebaiknya kembali ke sesuatu yang berbasis aturan, karena menurut saya tidak ada yang punya waktu atau uang untuk membuat kumpulan data 11 juta percakapan tentang sakit kepala. ”

Read More

RELATED ARTICLES

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Most Popular

Recent Comments