ServerFi:游戏与玩家之间的新型共生关系
耶鲁大学的这篇论文提出了两种全新的代币经济模型并进行了一系列模拟,为GameFi提供了一些可持续性发展的新思路。
JinseFinancePengarang: Alec Chen
Sumber: Modal Volt
Gagasan tentang "blockchain modular" menjadi narasi yang menentukan kategori seputar skalabilitas dan infrastruktur blockchain.
Teorinya sederhana: dengan memecah komponen inti dari blockchain lapisan 1, kita dapat mencapai peningkatan 100x pada satu lapisan, menghasilkan sistem yang lebih terukur, dapat disusun, dan terdesentralisasi. Sebelum kita membahas blockchain modular secara rinci, kita harus memahami arsitektur blockchain yang ada dan keterbatasan yang dihadapi oleh aplikasi blockchain saat ini.
Sumber: Yayasan Ethereum
Mari kita tinjau secara singkat dasar-dasar blockchain. Blok dalam blockchain terdiri dari dua komponen: header blok dan data transaksi yang terkait dengannya. Blok divalidasi oleh "node penuh", yang mengurai dan menghitung seluruh data blok untuk memastikan bahwa transaksi valid dan pengguna tidak mengirim lebih banyak koin daripada saldo akun mereka.
Mari kita uraikan secara singkat "lapisan" fungsional yang membentuk blockchain.
lapisan eksekutif
Transaksi dan perubahan status awalnya ditangani di sini. Pengguna biasanya juga berinteraksi dengan blockchain melalui lapisan ini, termasuk menandatangani transaksi, menerapkan kontrak cerdas, dan mentransfer aset.
lapisan solusi
Lapisan resolusi adalah tempat pelaksanaan rollup diverifikasi dan sengketa diselesaikan. Lapisan ini tidak ada di rantai keseluruhan dan merupakan bagian opsional dari tumpukan modular. Serupa dengan sistem pengadilan A.S., lapisan resolusi dapat dianggap sebagai Mahkamah Agung A.S., yang menyediakan arbitrasi final untuk perselisihan.
lapisan konsensus
Lapisan konsensus dari blockchain menyediakan pemesanan dan finalitas melalui jaringan node penuh yang mengunduh dan mengeksekusi konten blok dan mencapai konsensus tentang validitas transisi negara.
Lapisan Ketersediaan Data
Data yang diperlukan untuk memverifikasi bahwa transisi status valid harus dipublikasikan dan disimpan di lapisan ini. Jika terjadi serangan di mana pembuat blok jahat menahan data transaksi, ini harus mudah diverifikasi. Lapisan ketersediaan data adalah hambatan utama dalam trilemma skalabilitas blockchain, dan kami akan mengeksplorasi alasannya nanti.
Misalnya, Ethereum adalah blockchain monolitik, yang berarti lapisan dasar menangani semua komponen yang disebutkan di atas.
Sumber: ResearchGate
Blockchain saat ini menghadapi masalah yang dikenal sebagai “trilemma skalabilitas blockchain.” Mirip dengan teorema Brewer untuk sistem terdistribusi, arsitektur blockchain sering mengkompromikan desentralisasi, keamanan, atau skalabilitas untuk memberikan jaminan yang kuat untuk dua lainnya.
Keamanan mengacu pada kemampuan jaringan untuk berfungsi ketika sedang diserang. Prinsip ini adalah inti dari blockchain dan tidak boleh dikompromikan, jadi trade-off sebenarnya biasanya antara skalabilitas dan desentralisasi.
Mari kita definisikan desentralisasi dalam konteks sistem blockchain: agar blockchain dapat didesentralisasi, persyaratan perangkat keras tidak dapat menjadi kendala dalam partisipasi, dan persyaratan sumber daya dari jaringan yang memvalidasi harus rendah.
Skalabilitas adalah throughput blockchain dibagi dengan biaya verifikasinya: yaitu, kemampuan blockchain untuk menangani peningkatan volume transaksi sambil mempertahankan persyaratan sumber daya verifikasi yang rendah. Ada dua cara utama untuk meningkatkan throughput. Pertama, ukuran blok dapat ditingkatkan, sehingga meningkatkan kapasitas transaksi yang dapat dimasukkan ke dalam suatu blok. Sayangnya, ukuran blok yang lebih besar mengarah pada sentralisasi jaringan karena persyaratan perangkat keras untuk menjalankan node penuh meningkat sebagai respons terhadap permintaan keluaran komputasi yang lebih tinggi. Blockchain monolitik, khususnya, mengalami masalah ini karena peningkatan throughput yang terkait dengan peningkatan biaya validasi rantai, sehingga mengurangi desentralisasi. Kedua, Anda dapat memindahkan eksekusi off-chain, mengalihkan beban komputasi dari node di jaringan utama, sambil memanfaatkan bukti yang memungkinkan verifikasi komputasi on-chain.
Melalui arsitektur modular, blockchain memiliki potensi untuk mulai memecahkan trilemma skalabilitas blockchain melalui prinsip pemisahan perhatian. Melalui lapisan eksekusi modular dan ketersediaan data, blockchain dapat menskalakan throughput sambil mempertahankan properti yang membuat jaringan tidak dapat dipercaya dan terdesentralisasi dengan memutus korelasi antara biaya komputasi dan verifikasi. Mari jelajahi bagaimana hal ini dapat dicapai dengan memperkenalkan Fault Proofs, Optimistic Rollups, dan hubungannya dengan masalah ketersediaan data.
V Tuhan menyatakan dalam artikel "Endgame" bahwa kemungkinan kompromi antara sentralisasi dan desentralisasi adalah bahwa untuk tujuan skalabilitas, masa depan produksi blok terkonsentrasi pada kumpulan dan produsen yang berdedikasi, sementara hal penting , validasi blok (agar produsen tetap jujur) disimpan terdesentralisasi. Ini dapat dicapai dengan membagi node blockchain menjadi node penuh dan klien ringan. Ada dua masalah yang terkait dengan model ini: validasi blok (verifikasi bahwa perhitungan sudah benar) dan ketersediaan blok (verifikasi bahwa semua data telah dipublikasikan). Mari kita jelajahi dulu aplikasinya untuk memblokir validasi.
Node penuh mengunduh, menghitung, dan memverifikasi setiap transaksi dalam satu blok, sementara klien ringan hanya mengunduh header blok dan menganggap transaksi itu valid. Klien ringan kemudian mengandalkan bukti kesalahan yang dihasilkan oleh node penuh untuk validasi transaksi. Hal ini pada gilirannya memungkinkan klien ringan untuk secara mandiri mengidentifikasi transaksi yang tidak valid, memungkinkan mereka beroperasi dengan jaminan keamanan yang hampir sama dengan node penuh. Secara default, klien ringan berasumsi bahwa transisi status valid, dan dapat menantang validitas status dengan menerima bukti ketidakabsahan. Ketika status node ditentang oleh bukti kesalahan, node lengkap mengeksekusi ulang transaksi terkait untuk mencapai konsensus, sehingga mengurangi kepentingan node yang tidak jujur.
Sumber: https://ethereum.org/en/developers/docs/scaling/optimistic-rollups/
Klien ringan dan model bukti kesalahan aman di bawah asumsi minoritas yang jujur bahwa setidaknya ada satu simpul penuh yang jujur dan rantai yang mengirimkan bukti kesalahan dalam keadaan lengkap. Model ini sangat cocok untuk blockchain sharded (seperti arsitektur Ethereum yang digabungkan), karena validator dapat memilih untuk menjalankan node penuh pada satu shard dan klien ringan pada shard lainnya, sambil mempertahankan N pada semua shard. 1 dari 3 jaminan keamanan.
Optimistic Rollup memanfaatkan model ini untuk dengan aman mengabstraksi lapisan eksekusi blockchain menjadi sequencer, komputer kuat yang menggabungkan dan mengeksekusi banyak transaksi dan secara berkala mengirimkan data terkompresi kembali ke rantai induk. Memindahkan komputasi ini ke luar rantai (relatif terhadap rantai induk) dapat meningkatkan throughput transaksi dengan faktor 10-100. Bagaimana kita bisa mempercayai pembuat urutan off-chain ini bermaksud baik? Kami memperkenalkan obligasi dan token yang harus dimiliki operator untuk menjalankan sequencer. Karena sequencer mengirimkan data transaksi kembali ke rantai induk, kita dapat menggunakan validator (node yang memeriksa ketidaksesuaian status antara rantai induk dan rollup-nya) untuk mengeluarkan bukti kesalahan dan selanjutnya memotong taruhan untuk sequencer berbahaya. Karena Optimistic Rollup menggunakan bukti kesalahan, aman dengan asumsi bahwa ada validator yang andal di jaringan. Penggunaan bukti palsu ini adalah tempat Optimistic Rollup masuk - dengan asumsi transisi status valid hingga terbukti valid selama sengketa ditangani oleh lapisan resolusi.
Inilah cara kami menskalakan sambil meminimalkan kepercayaan: memungkinkan komputasi terpusat sambil menjaga verifikasi komputasi terdesentralisasi.
Bukti palsu adalah alat yang efektif untuk mengatasi validasi blok terdesentralisasi, sementara node penuh bergantung pada ketersediaan blok untuk menghasilkan bukti palsu. Pembuat blok jahat dapat memilih untuk menerbitkan hanya header blok, mempertahankan beberapa atau semua data yang sesuai, sehingga mencegah node penuh memverifikasi dan mengidentifikasi transaksi yang tidak valid, sehingga menghasilkan bukti palsu. Jenis serangan ini sepele untuk node penuh karena mereka dapat dengan mudah mengunduh seluruh blok dan meninggalkan rantai yang tidak valid ketika mereka melihat ketidakkonsistenan atau menyimpan data. Namun, klien ringan akan terus melacak header blok dari rantai yang berpotensi tidak valid, bercabang dari node penuh. (Ingat, klien ringan tidak mengunduh seluruh blok dan menganggap transisi status valid secara default.)
Ini adalah inti dari masalah ketersediaan data yang berkaitan dengan bukti kesalahan: klien ringan harus memastikan bahwa semua data transaksional diterbitkan dalam satu blok sebelum validasi, sehingga node penuh dan klien ringan harus secara otomatis menyetujui header blok.
Sepertinya kita kembali ke titik awal. Bagaimana klien ringan memastikan bahwa itu tidak melanggar niat asli klien ringan, dan melepaskan semua data transaksi di blok tanpa memerlukan perangkat keras terpusat dan tanpa mengunduh seluruh blok?
Salah satu cara untuk mencapai ini adalah melalui primitif matematika yang disebut pengkodean penghapusan. Dengan menduplikasi byte dalam satu blok, kode penghapusan dapat merekonstruksi seluruh blok bahkan jika persentase tertentu dari data hilang. Teknik ini digunakan untuk melakukan pengambilan sampel ketersediaan data, memungkinkan klien ringan untuk secara probabilistik menentukan bahwa keseluruhan blok telah diterbitkan dengan mengambil sampel sebagian kecil dari blok secara acak. Ini memungkinkan klien ringan untuk memastikan bahwa semua data transaksi disertakan dalam blok tertentu sebelum menerimanya sebagai valid dan mengikuti header blok yang sesuai. Namun, ada beberapa peringatan untuk teknik ini: pengambilan sampel ketersediaan data memiliki latensi tinggi, dan mirip dengan asumsi minoritas yang jujur, jaminan keamanan bergantung pada cukup banyak klien yang melakukan pengambilan sampel untuk dapat menentukan ketersediaan blok secara probabilistik.
Model Pengambilan Sampel Ketersediaan Data yang Disederhanakan
Solusi lain untuk validasi blok terdesentralisasi adalah bahwa data transaksi tidak diperlukan untuk transisi status. Sebaliknya, bukti validitas lebih pesimistis daripada bukti kepalsuan. Dengan menghilangkan proses sengketa, bukti validitas dapat menjamin atomisitas semua transisi negara, tetapi setiap transisi negara perlu dibuktikan. Ini dilakukan dengan memanfaatkan teknik tanpa pengetahuan baru SNARK dan STARK. Dibandingkan dengan bukti kesalahan, bukti validitas membutuhkan lebih banyak intensitas komputasi sebagai ganti jaminan negara yang lebih kuat, yang memengaruhi skalabilitas.
Bukti tanpa pengetahuan adalah bukti verifikasi negara menggunakan bukti validitas bukan bukti palsu. Mereka mengikuti model komputasi dan verifikasi yang mirip dengan Optimistic Rollup (walaupun skemanya adalah bukti validitas dan bukan bukti kesalahan), melalui model sequencer/validator, di mana sequencer menangani komputasi dan verifikator menghasilkan bukti yang sesuai. Misalnya, Starknet menggunakan sequencer terpusat selama peluncurannya, dan secara bertahap mendesentralisasikan sequencer dan validator terbuka pada peta jalan. Komputasi rollup tanpa pengetahuan (ZK rollup) itu sendiri tidak terkontrol karena eksekusi off-chain pada sequencer. Namun, karena bukti perhitungan ini harus diverifikasi secara on-chain, finalitas tetap menjadi hambatan untuk pembuatan bukti.
Perlu dicatat bahwa teknik verifikasi negara menggunakan klien ringan hanya berlaku untuk arsitektur bukti palsu. Karena transisi status dijamin valid melalui bukti validitas, data transaksi tidak lagi diperlukan node untuk memvalidasi blok. Namun, masalah ketersediaan data untuk bukti validitas tetap ada, dan lebih halus: meskipun status dijamin, data transaksi untuk bukti validitas tetap diperlukan agar node dapat memperbarui dan melayani transisi status ke pengguna akhir. Oleh karena itu, rollup yang menggunakan bukti validitas masih tunduk pada masalah ketersediaan data.
Ingat V argumen Tuhan: semua jalan mengarah ke produksi blok terpusat dan verifikasi blok terdesentralisasi. Meskipun kami dapat meningkatkan throughput rollup secara eksponensial melalui kemajuan dalam perangkat keras generator blok, hambatan skalabilitas sebenarnya adalah ketersediaan blok, bukan validasi blok. Hal ini mengarah pada wawasan penting: tidak peduli seberapa kuat lapisan eksekusi yang kita buat, atau model bukti apa yang kita gunakan, throughput kita pada akhirnya akan dibatasi oleh ketersediaan data.
Salah satu cara kami saat ini memastikan ketersediaan data adalah dengan menerbitkan data blockchain secara on-chain. Implementasi Rollup menggunakan mainnet Ethereum sebagai lapisan ketersediaan data dan secara teratur menerbitkan semua blok rollup di Ethereum. Masalah utama dengan solusi sementara ini adalah arsitektur Ethereum saat ini bergantung pada node penuh yang menjamin ketersediaan data dengan mengunduh seluruh blok, daripada klien ringan yang melakukan pengambilan sampel ketersediaan data. Saat kami meningkatkan ukuran blok untuk mendapatkan throughput tambahan, ini pasti mengarah pada peningkatan persyaratan perangkat keras untuk ketersediaan data validasi simpul penuh, jaringan terpusat.
Di masa depan, Ethereum berencana untuk beralih ke arsitektur sharding yang memanfaatkan pengambilan sampel ketersediaan data, yang terdiri dari node penuh dan klien ringan, sehingga memastikan keamanan jaringan. (Catatan: Pecahan Ethereum secara teknis menggunakan komitmen KZG daripada bukti kesalahan, tetapi masalah ketersediaan data terkait.) Namun, ini hanya menyelesaikan sebagian dari masalah: masalah mendasar lain yang dihadapi arsitektur Rollup adalah blok rollup digunakan sebagai calldata yang dibuang ke Jaringan utama Ethereum. Ini menimbulkan masalah lanjutan, karena calldata mahal untuk digunakan dalam skala besar, menghambat pengguna L2 dengan biaya 16 gas per byte terlepas dari ukuran batch transaksi rollup.
Validium adalah cara lain untuk meningkatkan skalabilitas dan throughput sambil mempertahankan jaminan ketersediaan data: data transaksi granular (relatif terhadap data mentah) dapat dikirim ke komite ketersediaan data, penjaga PoS, atau lapisan ketersediaan data. Dengan memindahkan ketersediaan data dari calldata Ethereum ke solusi off-chain, Validium melewati biaya gas byte tetap yang terkait dengan peningkatan penggunaan rollup.
Arsitektur Rollup juga menghadirkan wawasan unik bahwa blockchain itu sendiri tidak perlu menyediakan eksekusi atau perhitungan, tetapi hanya kemampuan untuk memesan blok dan menjamin ketersediaan data untuk blok tersebut. Ini adalah prinsip desain di balik Celestia, jaringan blockchain modular pertama. Celestia, sebelumnya dikenal sebagai LazyLedger, dimulai sebagai "lazy blockchain" yang meninggalkan eksekusi dan validasi ke lapisan modular lainnya dan hanya berfokus pada penyediaan lapisan ketersediaan data untuk pemesanan transaksi dan jaminan ketersediaan data melalui pengambilan sampel ketersediaan data. Produksi blok terpusat dan validator blok terdesentralisasi adalah premis inti dari desain Celestia: bahkan ponsel dapat berpartisipasi sebagai klien ringan, memastikan keamanan jaringan. Karena sifat pengambilan sampel ketersediaan data, memasukkan rollup ke Celestia sebagai lapisan ketersediaan data dapat mendukung ukuran blok yang lebih tinggi (alias throughput) karena jumlah node ringan Celestia bertambah sambil mempertahankan jaminan probabilistik yang sama.
Solusi lain sekarang termasuk StarkEx, zkPorter, dan Polygon Avail. StarkEx saat ini adalah satu-satunya Validium yang digunakan dalam produksi. Terlepas dari itu, sebagian besar validitas mengandung asumsi kepercayaan implisit pada sumber ketersediaan data, apakah ini dikelola melalui komite tepercaya, wali, atau lapisan ketersediaan data umum. Kepercayaan ini juga menunjukkan bahwa operator jahat dapat mencegah penarikan dana pengguna.
Arsitektur Selestium
Arsitektur blockchain modular adalah topik yang diperdebatkan dengan hangat di ruang crypto saat ini. Visi Celestium untuk arsitektur blockchain modular telah mengalami kemunduran besar karena masalah keamanan dan asumsi kepercayaan tambahan yang terkait dengan solusi fragmentasi dan lapisan ketersediaan data.
Sementara itu, kemajuan signifikan telah dibuat di semua aspek tumpukan blockchain: Fuel Labs sedang mengembangkan mesin virtual paralel di lapisan eksekusi, sementara tim Optimism sedang mengerjakan sharding, verifikasi insentif, dan sequencer terdesentralisasi. Solusi Hybrid Optimistic dan zero-knowledge juga sedang dikembangkan.
Roadmap pengembangan pasca-merger Ethereum mencakup rencana untuk menyatukan lapisan solusi dan ketersediaan data. Secara khusus, Danksharding adalah pengembangan yang menjanjikan dalam peta jalan Ethereum yang bertujuan untuk mengubah dan mengoptimalkan pecahan data Ethereum L1 dan memblokir ruang menjadi "mesin ketersediaan data", yang memungkinkan penggabungan L2 untuk mencapai transaksi dengan biaya rendah dan throughput tinggi.
Arsitektur bebas pendapat Celestia juga memungkinkan berbagai implementasi lapisan eksekusi untuk menggunakannya sebagai lapisan ketersediaan data, meletakkan dasar untuk mesin virtual non-EVM alternatif seperti WASM, Starknet, dan FuelVM. Ketersediaan data bersama untuk berbagai solusi eksekusi ini memungkinkan pengembang untuk membuat jembatan yang diminimalkan kepercayaan antara kluster Celestia, membuka kunci kompabilitas dan interoperabilitas lintas-rantai dan lintas-ekosistem, seperti di Ethereum dan mungkin di antara penggabungannya.
Volitions, dipelopori oleh Starkware, memperkenalkan solusi inovatif untuk dilema ketersediaan data on-chain dan off-chain: pengguna dan pengembang dapat memilih untuk menggunakan Validium untuk mengirim data transaksi off-chain, atau menyimpan data transaksi on-chain, masing-masing Memiliki memiliki kelebihan dan kekurangan yang unik.
Selain itu, penggunaan dan popularitas solusi Layer 2 membuka lapisan 2: penskalaan fraktal. Ekstensi fraktal memungkinkan rollup khusus aplikasi diterapkan pada lapisan 2 - pengembang sekarang dapat menerapkan aplikasi dengan kontrol penuh atas infrastrukturnya, mulai dari ketersediaan data hingga privasi. Menyebarkan pada lapisan 3 juga membuka interoperabilitas lapisan 2 untuk semua aplikasi lapisan 3, daripada rantai dasar yang mahal seperti rantai berdaulat khusus aplikasi seperti Cosmos.
Mirip dengan evolusi infrastruktur web dari server di tempat ke server cloud, web terdesentralisasi berkembang dari blockchain monolitik dan lapisan konsensus yang disisipkan menjadi rantai modular khusus aplikasi dari lapisan konsensus bersama. Terlepas dari solusi dan aplikasi mana yang akhirnya berhasil, satu hal yang jelas: di masa depan modular, pengguna akhir akan menjadi pemenangnya.
耶鲁大学的这篇论文提出了两种全新的代币经济模型并进行了一系列模拟,为GameFi提供了一些可持续性发展的新思路。
JinseFinance今天想聊聊我眼中的 Nostr,以及为什么它对于赛博空间来说是重要的。
JinseFinanceWinklevoss兄弟:是时候让加密大军向华盛顿发出信息了
JinseFinanceBTC,尘埃落定 如何布局比特生态优质地址? 金色财经,知行合一,坚守陪伴比特生态。
JinseFinanceICC Camp S1正式开启入营!首批已签约项目名单出炉,跟班导师及导师大名单全面公布,合作机构生态板图公开。
JinseFinanceICC于香港Web3.0创业者大会及Web3.0安全科技峰会中成功举办加速营(ICC Camp)启动仪式及Web3游戏专题活动。
JinseFinanceMasuki malam yang luar biasa penuh dengan wacana, jaringan, dan inspirasi bersama Coinlive di The Social Pre-Party pada tanggal 11 September!
CatherinePosting awal peretas, yang dipublikasikan di saluran pengumuman, mengklaim bahwa OpenSea telah "bermitra dengan YouTube untuk membawa komunitas mereka ke dalam NFT Space."
Cointelegraph