Menurut Cointelegraph, negara-negara industri Group of Seven (G7) akan menyepakati kode etik kecerdasan buatan (artificial intelligence/AI) untuk para pengembang pada 30 Oktober. Kode etik ini terdiri dari 11 poin yang bertujuan untuk mempromosikan 'AI yang aman, terjamin, dan dapat dipercaya di seluruh dunia' dan membantu 'memanfaatkan' manfaat AI sambil mengatasi dan memecahkan masalah yang ditimbulkannya. Rencana ini disusun oleh para pemimpin G7 pada bulan September dan menawarkan panduan sukarela bagi organisasi yang mengembangkan sistem AI canggih, termasuk model dasar dan sistem AI generatif, serta menyarankan agar perusahaan mempublikasikan laporan tentang kemampuan, keterbatasan, penggunaan, dan penyalahgunaan sistem yang sedang dibangun, dan merekomendasikan kontrol keamanan yang kuat untuk sistem ini. Negara-negara G7 meliputi Kanada, Prancis, Jerman, Italia, Jepang, Inggris, Amerika Serikat, dan Uni Eropa. G7 tahun ini berlangsung di Hiroshima, Jepang, dengan pertemuan yang diadakan antara para Menteri Digital dan Teknologi yang berpartisipasi pada tanggal 29 dan 30 April. Topik yang dibahas termasuk teknologi yang sedang berkembang, infrastruktur digital, dan AI, dengan item agenda yang secara khusus didedikasikan untuk AI yang bertanggung jawab dan tata kelola AI global. kode etik AI G7 muncul ketika pemerintah di seluruh dunia mencoba menavigasi kemunculan AI, menyeimbangkan kemampuannya yang bermanfaat dengan kekhawatirannya. Uni Eropa adalah salah satu badan pemerintahan pertama yang menetapkan pedoman dengan Undang-Undang AI Uni Eropa yang terkenal, yang draf pertamanya disahkan pada bulan Juni. Pada tanggal 26 Oktober, Perserikatan Bangsa-Bangsa membentuk komite penasihat beranggotakan 39 orang untuk menangani masalah-masalah yang berkaitan dengan regulasi global AI. Pemerintah Tiongkok juga meluncurkan peraturan AI-nya sendiri, yang mulai berlaku pada bulan Agustus. Dari dalam industri, OpenAI, pengembang chatbot AI ChatGPT yang populer, mengumumkan rencana untuk membuat tim 'kesiapsiagaan' untuk menilai berbagai risiko terkait AI.