Sumber Artikel
Keduanya, crypto dan AI, telah melihat kemajuan luar biasa dalam beberapa tahun terakhir.
Crypto merayakan kesuksesan sepertiDeFi , dan baru-baru iniDesci .
AI merayakan kesuksesan sepertiAlphaFold2 , dan baru-baru iniChatGPT.
Kembali pada tahun 2018, Peter Thiellancip untuk ketegangan antara kekuatan desentralisasi crypto dan kekuatan sentralisasi AI, menciptakan istilah "Crypto adalah libertarian, AI adalah Komunis." Di sini saya ingin menyatakan bahwa kita dapat mempelajari sesuatu dengan menggabungkan keduanya.
Mengapa? Karena keterampilan dan pendekatan yang diasah oleh komunitas keamanan dan kripto memiliki potensi untuk membuka kunci aplikasi AI yang berguna dan memitigasi risiko AI.
Apakah kita semua akan mati?
Eliezer Yudkowsky, seorang tokoh terkemuka dalam keamanan AI, baru-baru ini membuat penampilan yang mengejutkanPodcast Tanpa Bank , podcast Web3 yang jelas.
Itu mengejutkan karena dua alasan:
Pertama, Eliezer berpikir kita berada di jalur cepat untuk mengembangkan Kecerdasan Umum Buatan (AGI) yang dapat melakukan hampir semua tugas manusia, dan AGI semacam itu kemungkinan besar akan membunuh kita semua.
Kedua, ketika ditanya apakah ada yang dapat dilakukan untuk meningkatkan kemungkinan kecil kita dapat bertahan, dia mendorong orang-orang yang berorientasi pada keamanan dan kriptografi dengan pola pikir keamanan yang kuat untuk membantu penyelarasan AI.
Mari kita bongkar itu. Pertama, kita akan membahas mengapa kita harus khawatir tentang AGI, sebelum memperbesar janji-janji yang dimiliki crypto (di sini terutama kriptografi) dan komunitas keamanan untuk mengurangi beberapa bahaya AGI.
Keamanan AI: lebih sulit dari yang Anda kira?
Seperti yang dapat dibuktikan oleh siapa pun yang melihat sekilas berita baru-baru ini, tidak ada minggu berlalu tanpa kemajuan dalam AI yang meningkat secara dramatis. Jika Anda melewatkannya, berikut adalah tiga perkembangan penting:
Pertama, ada dorongan untuk lebih memusatkan AI, misalnya oleh Microsoft yang berinvestasi di OpenAI, Google berinvestasi di pesaing OpenAI, Anthropic, dan DeepMind dan Google Brain bergabung menjadi satu organisasi.
Kedua, ada dorongan untuk AI yang lebih umum. Makalah terbaru “GPT4: Percikan Kecerdasan Umum Buatan ” menunjukkan bagaimana GPT-4 telah mendemonstrasikan contoh pertama teori pikiran, ukuran yang biasanya digunakan untuk menilai kecerdasan manusia.
Ketiga, ada dorongan untuk lebih banyak agensi dalam sistem AI, dengan AutoGPT menjadi lebih agen dengan mendorong dirinya sendiri untuk mencapai tugas yang lebih kompleks.
Kembali pada bulan Desember,Metakulus , sebuah platform peramalan, memperkirakan kedatangan AGI kira-kira pada tahun 2039. Sekarang, di bulan Mei, tanggalnya adalah 2031 – dengan kata lain, penurunan garis waktu delapan tahun dalam lima bulan kemajuan AI.
Jika kita menganggap perkembangan ini sebagai tanda bahwa kita sedang menuju Kecerdasan Umum Buatan, pertanyaan selanjutnya adalah mengapa keamanan AGI dianggap begitu sulit?
Diperdebatkan, kita dapat memecah masalah keamanan AGI menjadi tiga sub masalah:
Penyelarasan: Bagaimana kita menyelaraskan AI dengan nilai-nilai kemanusiaan?
Penyelarasan AI adalah pertanyaan sederhana tentang bagaimana kita menyelaraskan AI dengan nilai-nilai kita. Tetapi mudah untuk melupakan bahwa kita bahkan tidak setuju dengan nilai-nilai kita. Sejak awal peradaban, para filsuf dan manusia biasa telah berdebat tentang etika, dengan poin-poin yang meyakinkan di semua sisi. Itulah mengapa peradaban kita saat ini tiba, sebagian besar, pada pluralisme nilai (gagasan tentang manusia dengan nilai-nilai yang saling bertentangan hidup berdampingan secara damai). Itu berhasil untuk keragaman nilai manusia tetapi merupakan hal yang sulit untuk diterapkan menjadi satu agen kecerdasan artifisial.
Mari kita bayangkan sesaat yang manis bahwa kita tahu, secara kasar, nilai moral apa yang harus dilengkapi dengan AGI. Selanjutnya, kita perlu mengomunikasikan nilai-nilai kemanusiaan ini ke entitas berbasis silikon yang tidak berbagi evolusi, arsitektur pikiran, atau konteks manusia. Ketika manusia berkoordinasi dengan manusia lain, kita dapat mengandalkan banyak pengetahuan latar belakang implisit bersama karena kita berbagi biologi spesies kita, sejarah evolusi, dan seringkali bahkan beberapa konteks budaya. Dengan AI, kami tidak dapat mengandalkan konteks umum seperti itu.
Masalah lainnya adalah, untuk mengejar tujuan apa pun, umumnya berguna untuk hidup dan memperoleh lebih banyak sumber daya. Artinya, AI yang ditetapkan untuk mengejar tujuan tertentu dapat menolak untuk dimatikan dan mencari lebih banyak sumber daya. Mengingat kemungkinan yang tak terhitung jumlahnya di mana AI dapat mencapai tujuan yang mencakup cedera manusia, pengabaian, penipuan, dan banyak lagi, dan mengingat betapa sulitnya untuk memprediksi dan menentukan semua kendala tersebut sebelumnya dengan cara yang dapat diandalkan, pekerjaan penyelarasan teknis menjadi sesuatu yang menakutkan. .
Komputer keamanan
Bahkan jika manusia menyetujui seperangkat nilai, dan memikirkan cara menyelaraskan AGI secara teknis dengan mereka, kami masih tidak dapat mengharapkannya untuk bertindak andal tanpa bukti bahwa perangkat lunak dan perangkat keras yang mendasarinya sendiri dapat diandalkan. Mengingat keuntungan yang cukup besar yang disampaikan AGI kepada pembuatnya, peretas jahat dapat menyabotase atau memprogram ulang AGI.
Lebih jauh lagi, bug yang tidak disengaja dapat mengganggu eksekusi tujuan AGI atau AGI sendiri dapat mengeksploitasi kerentanan dalam kodenya sendiri, misalnya dengan memprogram ulang dirinya sendiri dengan cara yang berbahaya.
Sayangnya, kami telah membangun seluruh ekosistem bernilai triliunan dolar saat ini di atas fondasi dunia maya yang tidak aman. Sebagian besar infrastruktur fisik kita didasarkan pada sistem yang dapat diretas, seperti jaringan listrik, teknologi senjata nuklir kita. Di masa depan, bahkan mobil self-driving yang tidak aman dan drone otonom dapat diretas untuk berubah menjadi bot pembunuh. Serangan siber yang meningkat seperti Sputnick atau Solarwinds sangat parah, tetapi mungkin tidak berbahaya jika dibandingkan dengan potensi serangan yang dimungkinkan oleh AG di masa mendatang. Kurangnya tanggapan kami yang berarti terhadap serangan ini menunjukkan bahwa kami tidak memenuhi tugas keamanan aman AGI yang mungkin memerlukan pembangunan kembali sebagian besar infrastruktur kami yang tidak aman.
"Dengan memanfaatkan teknologi dan keterampilan dalam komunitas keamanan dan kriptografi, kita mungkin dapat mengejar skenario superintelijen multipolar."
Koordinasi
Membuat kemajuan dalam penyelarasan dan keamanan AGI dapat memakan waktu, sehingga penting bagi para aktor yang membangun AGI untuk berkoordinasi sepanjang jalan. Sayangnya, memberi insentif kepada aktor AI utama (ini mungkin kerjasama atau negara bangsa) untuk bekerja sama dan menghindari dinamika perlombaan senjata untuk mencapai AGI terlebih dahulu tidaklah semudah itu. Malapetaka hanya membutuhkan satu aktor untuk membelot dari kesepakatan, yang berarti bahwa meskipun semua orang bekerja sama, jika satu orang maju, mereka mendapatkan keuntungan yang menentukan. Keunggulan penggerak pertama ini bertahan sampai AGI dibangun dan diberi kekuatan yang dapat disampaikan oleh penyebaran kesatuan sistem AGI kepada pemiliknya, dan merupakan godaan yang sulit bagi pemiliknya untuk melupakannya.
AI Multipolar Aman
Mungkin sejauh ini Anda telah mengangguk: Ya, tentu, keamanan AI sangat sulit. Tapi apa hubungannya crypto dengan itu?
Mengingat pesatnya kemajuan AI, dan kesulitan dalam membuatnya aman, kekhawatiran tradisional adalah bahwa kita berpacu menuju skenario tunggal AGI, di mana AGI menggantikan peradaban manusia sebagai keseluruhan kerangka relevansi untuk kecerdasan dan mendominasi dunia, berpotensi membunuh umat manusia di sepanjang jalan.
Dengan memanfaatkan teknologi dan keterampilan dalam komunitas keamanan dan kriptografi, kita mungkin dapat mengubah arah untuk mengejar skenario superintelligence multipolar, di mana jaringan manusia dan AI bekerja sama dengan aman untuk menyusun pengetahuan lokal mereka ke dalam superintelligence kolektif peradaban.
Ini adalah klaim yang besar dan abstrak, jadi mari kita bongkar bagaimana tepatnya komunitas crypto dan keamanan dapat membantu menjinakkan risiko AI dan melepaskan keindahan AI dengan membuka kunci aplikasi baru.
Bagaimana keamanan dan kriptografi menjinakkan risiko AI?
Tim merah
Paul Christiano, peneliti keamanan AI terkemuka,menyarankan itu AI sangat membutuhkan lebih banyak tim merah, biasanya istilah yang digunakan dalam keamanan komputer untuk merujuk pada simulasi serangan dunia maya. Tim merah dalam konteks AI, misalnya, dapat digunakan untuk mencari masukan yang menyebabkan perilaku katastropik dalam sistem pembelajaran mesin.
Tim merah juga merupakan sesuatu yang dialami oleh komunitas crypto. Baik Bitcoin dan Ethereum berkembang di lingkungan yang berada di bawah serangan permusuhan terus menerus, karena proyek yang tidak aman menimbulkan setara dengan “bug bounty” cryptocurrency bernilai jutaan dolar.
Sistem antipeluru dihilangkan, hanya menyisakan lebih banyak sistem antipeluru dalam ekosistem. Proyek Crypto menjalani tingkat pengujian permusuhan yang dapat menjadi inspirasi yang baik untuk sistem yang mampu menahan serangan dunia maya yang akan menghancurkan perangkat lunak konvensional.
Anti kolusi
Masalah kedua dalam AI adalah bahwa beberapa AI yang muncul pada akhirnya dapat berkolusi untuk menggulingkan umat manusia. Contohnya, "Keamanan AI melalui Debat , ” strategi penyelarasan yang populer, bergantung pada dua AI yang memperdebatkan topik satu sama lain, dengan hakim manusia dalam putaran memutuskan siapa yang menang. Namun, satu hal yang mungkin tidak dapat dikesampingkan oleh penilaian manusia adalah bahwa kedua AI berkolusi melawannya, dengan tidak ada yang mempromosikan hasil yang sebenarnya.
Sekali lagi, crypto memiliki pengalaman menghindari masalah kolusi, sepertiSerangan Sybil , yang menggunakan satu node untuk mengoperasikan banyak identitas palsu aktif untuk secara diam-diam mendapatkan pengaruh mayoritas di jaringan. Untuk menghindari hal ini, sejumlah besar pekerjaan pada desain mekanisme muncul dalam crypto, dan beberapa mungkin juga memiliki pelajaran yang berguna untuk kolusi AI.
Cek dan saldo
Pendekatan keamanan lain yang menjanjikan yang saat ini dieksplorasi oleh pesaing OpenAI Anthropic adalah “AI konstitusional ,” di mana satu AI mengawasi AI lain menggunakan aturan dan prinsip yang diberikan oleh manusia. Ini terinspirasi oleh desain Konstitusi AS, yang menetapkan kepentingan yang saling bertentangan dan sarana terbatas dalam sistem checks and balances.
Sekali lagi, komunitas keamanan dan kriptografi sangat berpengalaman dengan pengaturan pemeriksaan dan keseimbangan seperti konstitusi. Misalnya, prinsip keamanan, POLA – Prinsip Otoritas Terkecil – menuntut agar suatu entitas hanya memiliki akses ke informasi dan sumber daya dalam jumlah paling sedikit yang diperlukan untuk melakukan tugasnya. Prinsip yang berguna untuk dipertimbangkan saat membangun sistem AI yang lebih canggih juga.
Itu hanyalah tiga dari banyak contoh, memberikan gambaran tentang bagaimana jenis pola pikir keamanan yang menonjol dalam komunitas keamanan dan crypto dapat membantu tantangan penyelarasan AI.
Bagaimana crypto dan keamanan dapat melepaskan keindahan AI?
Selain masalah keamanan AI yang dapat Anda coba, mari kita lihat beberapa kasus di mana inovasi keamanan kripto tidak hanya membantu menjinakkan AI, tetapi juga melepaskan keindahannya, misalnya dengan mengaktifkan aplikasi baru yang bermanfaat.
AI yang menjaga privasi
Ada beberapa area yang tidak dapat disentuh oleh AI tradisional, khususnya penyelesaian masalah yang memerlukan data sensitif seperti informasi kesehatan individu atau data keuangan yang memiliki batasan privasi yang kuat.
Untung,seperti yang ditunjukkan oleh peneliti kriptografi Georgios Kaissis, itu adalah area di mana pendekatan kriptografi dan tambahan, seperti pembelajaran federasi, privasi diferensial, enkripsi homomorfik, dan lainnya, bersinar. Pendekatan komputasi yang muncul ini dapat menangani kumpulan data sensitif yang besar dengan tetap menjaga privasi, dan dengan demikian memiliki keunggulan komparatif dibandingkan AI terpusat.
Memanfaatkan kearifan lokal
Bidang lain yang diperjuangkan oleh AI tradisional adalah sumber pengetahuan lokal yang sering kali diperlukan untuk menyelesaikan kasus edge dalam pembelajaran mesin (ML) yang tidak dapat dipahami oleh big data.
Ekosistem crypto dapat membantu penyediaan data lokal dengan membangun pasar tempat pengembang dapat menggunakan insentif untuk menarik data lokal yang lebih baik untuk algoritme mereka. Misalnya, salah satu pendiri Coinbase, Fred Ehrsammenyarankan menggabungkan ML pribadi yang memungkinkan pelatihan data sensitif dengan insentif berbasis blockchain yang menarik data yang lebih baik ke dalam data berbasis blockchain dan pasar ML. Meskipun mungkin tidak layak atau aman untuk membuka sumber pelatihan model ML yang sebenarnya, pasar data dapat membayar kreator untuk bagian yang adil dari kontribusi data mereka.
AI terenkripsi
Melihat lebih jangka panjang, bahkan dimungkinkan untuk memanfaatkan pendekatan kriptografi untuk membangun sistem AI yang lebih aman dan kuat.
Misalnya, peneliti kriptografi Andrew Traskmenyarankan menggunakan enkripsi homomorfik untuk sepenuhnya mengenkripsi jaringan saraf. Jika memungkinkan, ini berarti intelijen jaringan akan terlindungi dari pencurian, memungkinkan aktor untuk bekerja sama dalam masalah tertentu menggunakan model dan data mereka, tanpa mengungkapkan inputnya.
Lebih penting lagi, jika AI dienkripsi secara homomorfis, maka dunia luar dianggap olehnya untuk dienkripsi. Manusia yang mengontrol kunci rahasia dapat membuka prediksi individu yang dibuat oleh AI, daripada membiarkan AI keluar ke alam liar itu sendiri.
Sekali lagi, ini hanyalah tiga contoh dari potensi banyak, di mana crypto dapat membuka kasus penggunaan baru untuk AI.
"Contoh-contoh meme yang mengendalikan meme dan lembaga yang mengendalikan lembaga juga menunjukkan bahwa sistem AI dapat mengendalikan sistem AI."
Menyatukan potongan-potongan itu
AI terpusat mengalami satu titik kegagalan. Itu tidak hanya akan memampatkan pluralisme nilai manusia yang kompleks menjadi satu fungsi objektif. Itu juga rentan terhadap kesalahan, korupsi internal dan serangan eksternal. Sistem multipolar yang aman, seperti yang dibangun oleh komunitas keamanan dan kriptografi, di sisi lain, memiliki banyak harapan; mereka mendukung pluralisme nilai, dapat memberikan kerja sama merah, check and balances, dan antirapuh.
Ada juga banyak kerugian dari sistem kriptografi. Misalnya, kriptografi memerlukan kemajuan dalam penyimpanan data terdesentralisasi, enkripsi fungsional, pengujian permusuhan, dan kemacetan komputasi yang membuat pendekatan ini masih sangat lambat dan mahal. Selain itu, sistem desentralisasi juga kurang stabil dibandingkan sistem terpusat, dan rentan terhadap aktor nakal yang selalu memiliki insentif untuk berkolusi atau menggulingkan sistem untuk mendominasinya.
Namun demikian, mengingat kecepatan AI yang cepat, dan relatif kurangnya orang-orang yang berpikiran keamanan dan kriptografi di AI, mungkin tidak terlalu dini untuk mempertimbangkan apakah Anda dapat berkontribusi secara berarti pada AI, membawa beberapa manfaat yang dibahas di sini ke meja.
Janji AI multipolar yang aman adalahdisimpulkan dengan baikoleh Eric Drexler, pelopor teknologi, pada tahun 1986: "Contoh meme yang mengendalikan meme dan lembaga yang mengendalikan lembaga juga menunjukkan bahwa sistem AI dapat mengendalikan sistem AI."