Sumber Artikel
Bersiaplah: kemunculan AI superintelligent sudah dekat.
Aposting blog ditulis bersama oleh CEO OpenAI, Sam Altman, Presiden OpenAI Greg Brockman, dan Kepala Ilmuwan OpenAI Ilya Sutskever memperingatkan bahwa pengembangan kecerdasan buatan membutuhkan regulasi yang berat untuk mencegah skenario yang berpotensi bencana.
"Sekarang adalah saat yang tepat untuk mulai memikirkan tentang tata kelola superintelijen," kata Altman, mengakui bahwa sistem AI masa depan dapat secara signifikan melampaui AGI dalam hal kemampuan. “Mengingat gambaran seperti yang kita lihat sekarang, dapat dibayangkan bahwa dalam sepuluh tahun ke depan, sistem AI akan melampaui tingkat keahlian ahli di sebagian besar domain, dan melakukan aktivitas produktif sebanyak salah satu perusahaan terbesar saat ini.”
Menggemakan kekhawatiran yang diangkat Altman dalam bukunyakesaksian baru-baru ini di hadapan Kongres, ketiganya menguraikan tiga pilar yang mereka anggap penting untuk perencanaan strategis masa depan.
“Titik awal”
Pertama, OpenAI percaya harus ada keseimbangan antara kontrol dan inovasi, dan mendorong kesepakatan sosial “yang memungkinkan kami menjaga keamanan dan membantu kelancaran integrasi sistem ini dengan masyarakat.”
Selanjutnya, mereka memperjuangkan gagasan tentang "otoritas internasional" bertugas dengan inspeksi sistem, penegakan audit, pengujian kepatuhan standar keselamatan, dan penerapan dan pembatasan keamanan. Menggambar paralel dengan Badan Energi Atom Internasional, mereka menyarankan seperti apa badan pengawas AI di seluruh dunia.
Terakhir, mereka menekankan perlunya "kemampuan teknis" untuk mempertahankan kendali atas superintelligence dan menjaganya agar tetap "aman" Apa yang diperlukannya tetap samar, bahkan untuk OpenAI, tetapi postingan tersebut memperingatkan terhadap tindakan pengaturan yang memberatkan seperti lisensi dan audit untuk teknologi yang berada di bawah standar superintelligence.
Intinya, idenya adalah untuk menjaga superintelligence selaras dengan niat pelatihnya, mencegah "skenario foom"—ledakan kemampuan AI yang cepat dan tak terkendali yang melampaui kendali manusia.
OpenAI juga memperingatkan potensi dampak bencana yang dapat ditimbulkan oleh pengembangan model AI yang tidak terkendali pada masyarakat di masa depan. Pakar lain di lapangan telah menyampaikan kekhawatiran serupa, dariayah baptis AI kepada para pendiri perusahaan AIseperti Stabilitas AI dan bahkanpekerja OpenAI sebelumnya terlibat dengan pelatihan GPT LLM di masa lalu. Seruan mendesak untuk pendekatan proaktif terhadap tata kelola dan regulasi AI ini telah menarik perhatian regulator di seluruh dunia.
Tantangan Superintelligence yang “Aman”.
OpenAI percaya bahwa setelah poin-poin ini diperhatikan, potensi AI dapat dieksploitasi secara lebih bebas untuk kebaikan: “Teknologi ini dapat meningkatkan masyarakat kita, dan kemampuan kreatif setiap orang untuk menggunakan alat baru ini pasti akan membuat kita takjub,” kata mereka.
Para penulis juga menjelaskan bahwa ruang saat ini tumbuh dengan kecepatan yang dipercepat, dan itu tidak akan berubah. “Menghentikannya akan membutuhkan sesuatu seperti rezim pengawasan global, dan bahkan itu tidak dijamin berhasil,” tulis blog tersebut.
Terlepas dari tantangan ini, kepemimpinan OpenAI tetap berkomitmen untuk mengeksplorasi pertanyaan, "Bagaimana kami dapat memastikan bahwa kemampuan teknis untuk menjaga keamanan super tercapai?" Dunia tidak memiliki jawaban saat ini, tetapi pasti membutuhkan satu jawaban yang tidak dapat disediakan oleh ChatGPT.