Lonjakan buku panduan yang dibuat oleh kecerdasan buatan (AI) yang tersedia untuk dibeli di Amazon telah menarik perhatian para ahli yang mengibarkan bendera merah atas potensi dampak yang mengerikan. Dengan penawaran yang mencakup buku masak hingga panduan perjalanan, penulis manusia menyuarakan seruan keras kepada para pembaca, menggarisbawahi potensi bahaya dari ketergantungan yang tak tergoyahkan pada AI.
Masyarakat Mikologi New York telah mengambil bagian dalamX (sebelumnya dikenal sebagai Twitter) untuk mengeluarkan peringatan keras tentang bahaya yang terkait dengan buku-buku pencarian makan yang meragukan yang dicurigai sebagai hasil dari alat AI generatif, seperti ChatGPT.
Presiden New York Mycological Society Sigrid Jakob menunjukkan bahwa, "Ada ratusan jamur beracun di Amerika Utara dan beberapa di antaranya mematikan. Mereka dapat terlihat mirip dengan spesies yang dapat dimakan. Deskripsi yang buruk dalam sebuah buku dapat menyesatkan seseorang untuk memakan jamur beracun."
Penelusuran di Amazon mengungkap sejumlah judul yang meragukan, termasuk contoh seperti "Panduan Lapangan Buku Jamur Terbaik dari Barat Daya" dan "Buku Masakan Jamur Liar Untuk Pemula" - keduanya telah dihapus.
Judul-judul khusus ini, yang kemungkinan besar ditulis oleh orang yang tidak ada, menggarisbawahimunculnya konten yang dihasilkan AI . Publikasi yang disebut ini mengikuti pola yang sudah dikenal, dimulai dengan anekdot fiksi singkat tentang penggemar amatir yang terdaftar sebagai tidak otentik.
Pemeriksaan mendalam terhadap konten itu sendiri mengungkapkan labirin ketidakakuratan dan komposisi tekstual yang meniru pola khas yang biasanya dikaitkan dengan teks yang dihasilkan oleh AI, dan bukan berasal dari keahlian mikologi yang asli.
Namun, yang membingungkan adalah bahwa buku-buku ini diposisikan untuk individu yang baru terjun ke dunia perburuan dengan pengalaman terbatas, membuat mereka tidak dapat membedakanpenasihat berbasis AI yang tidak dapat diandalkan dari sumber informasi yang dapat diandalkan dan nyata.
Sigrid menambahkan bahwa, "Buku yang ditulis oleh manusia bisa memakan waktu bertahun-tahun untuk diteliti dan ditulis."
Seberapa Mematikankah Itu?
Pentingnya menerapkan kehati-hatian dalam ketergantungan kita pada AI tidak dapat dilebih-lebihkan, mengingat kemampuannya untuk menyebarkan informasi yang salah atau bahkan nasihat yang berbahaya jika tidak ada pengawasan yang cermat.Temuan terbaru menggarisbawahi tren yang membingungkan: Orang-orang lebih cenderung menerima disinformasi yang disebarkan oleh AI dibandingkan dengan informasi yang berasal dari sumber manusia.
Fenomena ini tidak hanya terjadi pada panduan mencari makan yang meragukan. Sebuah contoh muncul baru-baru ini, yang melibatkan aplikasi AI yang memberikan rekomendasi resep berbahaya kepada pengguna.
Di Selandia Baru, jaringan supermarket Pak 'n' Save meluncurkan "Savey Meal-Bot", sebuah aplikasi perencanaan makanan bertenaga AI yang dirancang untuk menyarankan resep yang selaras dengan bahan makanan yang dimasukkan oleh pengguna. Namun, sebagai lelucon, pengguna memasukkan bahan-bahan rumah tangga yang berbahaya ke dalam aplikasi tersebut, hanya untuk mendapatkan rekomendasi untuk membuat ramuan beracun seperti "Aromatic Water Mix" dan "Methanol Bliss";
Meskipun aplikasi ini telah mengalami modifikasi untuk menghalangi saran yang tidak aman, aplikasi ini menggarisbawahi bahaya inheren yang muncul ketika AI dimanfaatkan tanpa penerapan yang bertanggung jawab.
Meskipun demikian, kerentanan terhadap disinformasi yang dihasilkan oleh AI seharusnya tidak membuat kita lengah. Model bahasa seperti model bahasa besar (LLM) direkayasa untuk merumuskan konten berdasarkan hasil yang paling mungkin dan koheren, sebuah prestasi yang dicapai melalui pelatihan ekstensif pada kumpulan data yang luas.
Kehebatan ini dapat membuat manusia memberikan kredibilitas pada AI, karena hasilnya sangat mirip dengan hasil yang kita anggap baik. Meskipun algoritme yang inovatif tentu saja dapat meningkatkan kemampuan manusia di berbagai bidang, namun menyerahkan penilaian kita semata-mata kepada mesin membuktikan bahwa hal ini merupakan hal yang berbahaya bagi masyarakat luas.
Hidup di era teknologi yang terus berkembang saat ini, kita harus tetap sadar akan potensi jebakan yang muncul saat kita mempercayakan AI dengan peran sebagai pengambil keputusan.