Nguồn bài viết
Trong khithông tin sai lệch và mối đe dọa AI chiếm lấy con ngườiviệc làm tiếp tục thống trị cuộc trò chuyện về sự nguy hiểm của trí tuệ nhân tạo, một giáo sư của Đại học Boston đang gióng lên hồi chuông cảnh báo về một nhược điểm khác có thể xảy ra—tác động môi trường tiềm ẩn khá lớn của các công cụ AI tổng quát.
"Là một nhà nghiên cứu AI, tôi thường lo lắng về chi phí năng lượng khi xây dựng các mô hình trí tuệ nhân tạo," Kate Saenko, phó giáo sư khoa học máy tính tại Đại học Boston,đã viết trong một bài báo tạiCuộc trò chuyện . "AI càng mạnh thì càng tốn nhiều năng lượng."
Trong khi mức tiêu thụ năng lượng của các chuỗi khối như Bitcoin và Ethereum đã được nghiên cứu và tranh luận từ Twitter đến hội trường Quốc hội, tác động của sự phát triển nhanh chóng của AI trên hành tinh vẫn chưa nhận được sự chú ý tương tự.
Giáo sư Saenko đặt mục tiêu thay đổi điều đó, nhưng thừa nhận trong bài báo rằng có rất ít dữ liệu về lượng khí thải carbon của một truy vấn AI tổng quát duy nhất. Tuy nhiên, cô ấy nói rằng nghiên cứu đưa ra con số cao gấp bốn đến năm lần so với một truy vấn công cụ tìm kiếm đơn giản.
Theo một báo cáo năm 2019, Saenko cho biết một mô hình AI tổng quát có tên là Đại diện bộ mã hóa hai chiều từ Transformers (hoặc BERT) —với 110 triệu tham số — tiêu thụ năng lượng của chuyến bay khứ hồi xuyên lục địa cho một người sử dụng bộ xử lý đồ họa (hoặc GPU) để đào tạo mô hình.
Trong các mô hình AI, tham số là các biến được học từ dữ liệu hướng dẫn các dự đoán của mô hình. Nhiều tham số hơn trong hỗn hợp thường có nghĩa là độ phức tạp của mô hình lớn hơn, do đó đòi hỏi nhiều dữ liệu và sức mạnh tính toán hơn. Các thông số được điều chỉnh trong quá trình đào tạo để giảm thiểu lỗi.
Saenko lưu ý khi so sánh rằng mô hình GPT-3 của OpenAI — với 175 tỷ thông số — tiêu thụ một lượng năng lượng tương đương với 123 phương tiện chở khách chạy bằng xăng chạy trong một năm, hoặc khoảng 1.287 megawatt giờ điện. Nó cũng tạo ra 552 tấn carbon dioxide. Cô ấy nói thêm rằng con số này đến từ việc chuẩn bị sẵn sàng ra mắt mô hình trước khi bất kỳ người tiêu dùng nào bắt đầu sử dụng nó.
"Nếu chatbot trở nên phổ biến như các công cụ tìm kiếm, thì chi phí năng lượng cho việc triển khai AI có thể thực sự tăng lên," Saenko cho biết, trích dẫn việc Microsoft bổ sung ChatGPT vàoBing trình duyệt web vào đầu tháng này.
Vấn đề không giúp được gì là ngày càng có nhiều chatbot AI, nhưAI bối rối và OpenAI cực kỳ phổ biếnTrò chuyệnGPT , đang phát hành ứng dụng di động. Điều đó làm cho chúng thậm chí còn dễ sử dụng hơn và đưa chúng đến với nhiều đối tượng hơn.
Saenko nhấn mạnh một nghiên cứu của Google cho thấy rằng việc sử dụng kiến trúc mô hình và bộ xử lý hiệu quả hơn cũng như trung tâm dữ liệu xanh hơn có thể giảm đáng kể lượng khí thải carbon.
"Mặc dù một mô hình AI lớn duy nhất sẽ không hủy hoại môi trường," Saenko đã viết, “nếu một nghìn công ty phát triển các bot AI hơi khác nhau cho các mục đích khác nhau, mỗi bot được sử dụng bởi hàng triệu khách hàng, thì việc sử dụng năng lượng có thể trở thành một vấn đề.”
Cuối cùng, Saenko kết luận rằng cần có nhiều nghiên cứu hơn để làm cho AI tổng quát trở nên hiệu quả hơn—nhưng cô ấy rất lạc quan.
"Tin tốt là AI có thể chạy bằng năng lượng tái tạo," cô ấy viết. "Bằng cách đưa tính toán đến nơi có nhiều năng lượng xanh hơn hoặc lên lịch tính toán cho các thời điểm trong ngày khi có nhiều năng lượng tái tạo hơn, lượng khí thải có thể giảm từ 30 đến 40 lần so với sử dụng lưới điện chủ yếu là nhiên liệu hóa thạch." ;