Watermarking, membedakan antara tulisan di ChatGPT dan orang untuk mencegah plagiarisme - informasi
Teknologi

Watermarking, membedakan antara tulisan di ChatGPT dan orang untuk mencegah plagiarisme

Jakarta, CNNIndonesia

ChatGPTkecerdasan buatan yang memiliki “keahlian” dalam penulisan esai tingkat akademis, menimbulkan kekhawatiran tentang kasus kecurangan dengan alias plagiat. Bagaimana Anda membedakan AI dan hasil buatan manusia?

Tidak dapat disangkal bahwa ChatGPT adalah revolusioner, setidaknya dalam hal popularitasnya dan kecepatan adopsi kemampuan manusia yang belum pernah terjadi sebelumnya, serta dukungan situs gratis. Prediksi bahwa ChatGPT bisa menjadi pembunuh Google mengemuka.

Salah satu kelebihannya dalam menghasilkan esai tingkat akademis adalah mengaburkan batas antara ciptaan manusia dan AI. Akademisi dan jurnalis juga menyadari bahwa ‘pekerjaan’ ChatGPT tidak dapat dibedakan dari pekerjaan manusia yang sebenarnya.

IKLAN

GULIR UNTUK MELANJUTKAN KONTEN

Bahayanya adalah ChatGPT membanjirnya hasil plagiarisme atau kecurangan, terutama di bidang akademik. Bisa dibayangkan profesor baru akan datang hanya dengan berbekal kemampuan mengetik pertanyaan ke kolom platform OpenAI.

Misalkan lebih lanjut, efek dari teknologi ini adalah orang tidak dapat lagi mempercayai kata-kata tertulis karena mereka ragu apakah itu dibuat oleh mesin atau oleh manusia nyata.

Potensi ini harus diantisipasi.

Tanda air

Scott Aaronson, profesor komputer di University of Texas, mengungkapkan dalam posting blog bahwa OpenAI, pembuat ChatGPT, mensimulasikan penerapan stylema (semacam sidik jari tersembunyi dalam bahasa) dalam bentuk tanda air di iklan ChatGPT proses.

“Proyek utama saya sejauh ini adalah alat untuk mengkarakterisasi keluaran model teks seperti GPT secara statistik. Singkatnya, saat GPT menghasilkan teks panjang, kami ingin ada sinyal rahasia dan tidak mencolok dalam pilihan kata yang dapat Anda gunakan untuk nanti buktikan ya, itu berasal dari GPT.

“Kami ingin membuatnya lebih sulit untuk mengambil keluaran GPT dan menyebarkannya seolah-olah berasal dari manusia. Hal ini dapat membantu mencegah plagiarisme akademis, produksi propaganda secara massal, atau meniru gaya penulisan seseorang.”

Aaronson juga mengatakan dia ingin orang berhenti menganggap tulisan GPT adalah buatan manusia. “Ini dapat membantu mencegah plagiarisme akademik, propaganda massa, atau meniru gaya tulisan seseorang untuk menjadikannya tindak pidana,” tulisnya.

OpenAI, katanya, sudah memiliki prototipe yang menurutnya “tampak berfungsi dengan baik.”

“Secara empiris, beberapa ratus token sepertinya cukup untuk mendapatkan sinyal yang masuk akal bahwa teks ini memang dari GPT. Pada prinsipnya, Anda bahkan dapat mengambil teks yang panjang dan mengisolasi bagian mana yang berasal dari GPT dan mana yang bukan.”

Artinya, beberapa paragraf cukup untuk mengetahui apakah kontennya adalah ChatGPT atau bukan.

“Saya dapat membayangkan para penulis – Shakespeare, Wodehouse, David Foster Wallace – yang memiliki gaya yang begitu khas bahkan jika mereka mencoba berpura-pura menjadi orang lain, mereka tidak dapat melakukannya. Siapa pun akan menyadari bahwa itu adalah mereka.”

“[AI] itu akan dibangun dari bawah ke atas sehingga semua keluaran memiliki tanda yang tak terhapuskan, baik itu kriptografi atau gaya, yang menunjukkan asalnya. AI tidak bisa dengan mudah bersembunyi dan berpura-pura menjadi manusia atau apa pun,” katanya.

Lalu teknis pelaksanaannya bagaimana? Dikutip dari Jembatan algoritmiksetidaknya ada beberapa kemungkinan pengaturan fungsi ini.

Pertama, pengguna tidak memiliki cara untuk melihat tanda air kecuali OpenAI membagikan kuncinya.

Kedua, Aaronson mengakui bahwa tanda air bisa diakali dengan pendekatan sepele. Misalnya, dengan menghapus/menyisipkan kata atau mengatur ulang paragraf, atau memparafrasakan keluaran ChatGPT dengan AI lain.

Ketiga, hanya OpenAI yang mengetahui kuncinya. Mereka dapat membaginya dengan siapa pun yang mereka inginkan, sehingga pihak ketiga juga dapat menilai asal-usul teks tertentu.

Keempat, tanda air tidak berfungsi dengan model sumber terbuka karena siapa pun dapat masuk ke dalam kode dan menghapus fungsinya.

Seri token

Selama AI dimungkinkan, karena setiap input dan output GPT adalah rangkaian token yang dapat berupa kata, tanda baca, bagian kata, dan lainnya. Total mencapai 100 ribu token.

Intinya, GPT secara konstan menghasilkan distribusi probabilitas token. Distribusi yang dihasilkan bergantung pada kumpulan token yang ada sebelum token.

Setelah jaringan saraf menghasilkan distribusi, server OpenAI benar-benar memilih token berdasarkan distribusi tersebut atau distribusi yang dimodifikasi dalam parameter yang disebut ‘suhu’.

Selama suhunya tidak nol, biasanya akan ada semacam ketidakteraturan (keserampangan) dalam opsi token berikutnya. Oleh karena itu, pengguna dapat mengulangi perintah yang sama berulang kali, tetapi setiap kali mendapatkan jawaban yang berbeda.

“Itu tidak akan membuat perbedaan yang terlihat bagi pengguna akhir, dengan asumsi mereka tidak dapat membedakan keacakan semu dari angka yang benar-benar acak,” tulisnya.

[Gambas:Video CNN]

Source: news.google.com

Related Articles

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *

Back to top button