Câu trả lời thường xuyên của DeepSeek là "Máy chủ đang bận, vui lòng thử lại sau" đang khiến người dùng trên toàn thế giới phát điên.
DeepSeek, vốn chưa được công chúng biết đến nhiều trước đây, đã trở nên nổi tiếng khi ra mắt mô hình ngôn ngữ V3 vào ngày 26 tháng 12 năm 2024, tương đương với GPT 4o. Vào ngày 20 tháng 1, DeepSeek đã phát hành mô hình ngôn ngữ R1, có thể so sánh với OpenAI o1. Sau đó, do chất lượng cao của các câu trả lời được tạo ra bởi chế độ "suy nghĩ sâu" và sự đổi mới của nó cho thấy những tín hiệu tích cực rằng chi phí ban đầu để đào tạo mô hình có thể giảm mạnh, công ty và ứng dụng của nó đã trở nên hoàn toàn phổ biến. Từ đó, DeepSeek R1 liên tục bị tắc nghẽn. Chức năng tìm kiếm trực tuyến của nó thỉnh thoảng bị tê liệt và chế độ suy nghĩ sâu thường xuyên nhắc nhở "máy chủ bận". Những hiện tượng như vậy đã gây ra rất nhiều rắc rối cho người dùng.
Hơn chục ngày trước, DeepSeek bắt đầu gặp sự cố máy chủ. Vào buổi trưa ngày 27 tháng 1, trang web chính thức của DeepSeek đã hiển thị "trang web/api deepseek không khả dụng" nhiều lần. Cùng ngày, DeepSeek đã trở thành ứng dụng được tải xuống nhiều nhất trên iPhone trong suốt cuối tuần, vượt qua ChatGPT trong danh sách tải xuống của Hoa Kỳ.
Vào ngày 5 tháng 2, 26 ngày sau khi DeepSeek ra mắt trên thiết bị di động, số lượng người dùng hoạt động hàng ngày của ứng dụng này đã vượt quá 40 triệu. Số lượng người dùng hoạt động hàng ngày trên thiết bị di động của ChatGPT là 54,95 triệu và DeepSeek chiếm 74,3% số lượng người dùng của ChatGPT. Gần như cùng lúc khi DeepSeek đang trên đà tăng trưởng mạnh, các khiếu nại về máy chủ bận rộn của công ty này liên tiếp xuất hiện. Người dùng trên toàn thế giới bắt đầu gặp phải sự bất tiện khi máy chủ bị sập sau khi đặt một vài câu hỏi. Nhiều phương pháp truy cập thay thế khác nhau cũng bắt đầu xuất hiện, chẳng hạn như trang web thay thế của DeepSeek. Các nhà cung cấp dịch vụ đám mây lớn, nhà sản xuất chip và công ty cơ sở hạ tầng đều trực tuyến và hướng dẫn triển khai cá nhân xuất hiện ở khắp mọi nơi. Nhưng sự điên rồ của mọi người vẫn chưa hề giảm bớt: hầu hết các nhà sản xuất lớn trên thế giới đều tuyên bố hỗ trợ triển khai DeepSeek, nhưng người dùng trên toàn thế giới vẫn phàn nàn về tính không ổn định của dịch vụ.
Chuyện gì thực sự đã xảy ra đằng sau chuyện này?
1.Những người đã quen với ChatGPT không thể chịu được việc DeepSeek không thể mở
Sự không hài lòng của mọi người với "Máy chủ DeepSeek đang bận" xuất phát từ thực tế là các ứng dụng AI hàng đầu từng dựa trên ChatGPT hiếm khi bị trễ.
Kể từ khi ra mắt dịch vụ OpenAI, ChatGPT đã gặp phải một số sự cố cấp độ P0 (cấp độ tai nạn nghiêm trọng nhất), nhưng nhìn chung, dịch vụ này tương đối đáng tin cậy, cân bằng được giữa tính đổi mới và tính ổn định, đồng thời dần trở thành một thành phần quan trọng tương tự như các dịch vụ đám mây truyền thống.
Thời gian ngừng thời gian giảm quy mô lớn của Chatgpt không quá thường xuyên
quá trình lý luận của TATGPT tương đối ổn định, bao gồm hai bước: mã hóa và giải mã. ence đáp ứng các yêu cầu được tạo ra.
Ví dụ, nếu bạn hỏi ChatGPT, "Hôm nay bạn cảm thấy thế nào?", ChatGPT sẽ mã hóa câu này, tạo biểu diễn sự chú ý cho từng lớp và dự đoán mã thông báo đầu ra đầu tiên "I" dựa trên biểu diễn sự chú ý của tất cả các mã thông báo trước đó. Sau đó, nó sẽ giải mã và nối "I" thành "Hôm nay bạn cảm thấy thế nào?", rồi nhận được "Hôm nay bạn cảm thấy thế nào? Tôi", nhận một biểu diễn sự chú ý mới, rồi dự đoán mã thông báo tiếp theo: "的", rồi làm theo bước đầu tiên và bước thứ hai trong một vòng lặp, và cuối cùng nhận được "Hôm nay bạn cảm thấy thế nào? Tôi đang vui vẻ".
Kubernetes, một công cụ để điều phối các container, là "chỉ huy hậu trường" của ChatGPT. Nó chịu trách nhiệm lên lịch và phân bổ tài nguyên máy chủ. Khi lượng người dùng vượt quá khả năng của mặt phẳng điều khiển Kubernetes, hệ thống ChatGPT sẽ bị tê liệt hoàn toàn.
Tổng số lần ChatGPT bị tê liệt không quá nhiều, nhưng điều này là do nó dựa vào các nguồn lực hỗ trợ mạnh mẽ và sức mạnh tính toán mạnh mẽ để duy trì hoạt động ổn định, đây là điều mà mọi người thường bỏ qua.
Nói chung, vì quy mô dữ liệu của quá trình xử lý suy luận thường nhỏ hơn nên yêu cầu về sức mạnh tính toán không cao bằng đào tạo. Những người trong ngành ước tính rằng trong quá trình suy luận mô hình lớn thông thường, các tham số mô hình chiếm phần lớn bộ nhớ đồ họa, chiếm hơn 80%. Thực tế là trong số nhiều mô hình được tích hợp vào ChatGPT, kích thước mô hình mặc định nhỏ hơn 671B của DeepSeek-R1. Ngoài ra, ChatGPT có sức mạnh tính toán GPU lớn hơn nhiều so với DeepSeek, do đó, nó tự nhiên cho thấy hiệu suất ổn định hơn DS-R1.
DeepSeek-V3 và R1 đều là mô hình 671B. Quá trình khởi động mô hình là quá trình suy luận. Dự trữ năng lực tính toán trong quá trình suy luận cần phải tương xứng với số lượng người dùng. Ví dụ, nếu có 100 triệu người dùng, cần phải trang bị card đồ họa cho 100 triệu người dùng. Điều này không chỉ rất lớn mà còn độc lập với dự trữ năng lực tính toán trong quá trình đào tạo và không liên quan. Theo thông tin từ mọi phía, rõ ràng là card đồ họa và khả năng tính toán của DS không đủ mạnh nên máy thường xuyên bị treo.
Sự tương phản này không hề quen thuộc với những người dùng đã quen với trải nghiệm mượt mà của ChatGPT, đặc biệt là khi họ ngày càng quan tâm đến R1.
2.Bế tắc, bế tắc và bế tắc
Hơn nữa, một so sánh cẩn thận cho thấy các tình huống mà OpenAI và DeepSeek gặp phải rất khác nhau.
Cái trước được Microsoft hỗ trợ. Là nền tảng độc quyền của OpenAI, dịch vụ đám mây Microsoft Azure được trang bị ChatGPT, trình tạo hình ảnh Dalle-E 2 và công cụ mã hóa tự động GitHub Copilot. Kể từ đó, sự kết hợp này đã trở thành mô hình kinh điển của đám mây + AI và nhanh chóng trở thành tiêu chuẩn của ngành. Mặc dù cái sau là một công ty khởi nghiệp, nhưng trong hầu hết các trường hợp, nó dựa vào các trung tâm dữ liệu tự xây dựng, tương tự như Google và không dựa vào các nhà cung cấp điện toán đám mây của bên thứ ba. Sau khi kiểm tra thông tin công khai, Silicon Star phát hiện DeepSeek chưa hợp tác với các nhà cung cấp dịch vụ đám mây và nhà sản xuất chip ở bất kỳ cấp độ nào (mặc dù các nhà cung cấp dịch vụ đám mây đã thông báo trong Lễ hội mùa xuân rằng họ sẽ chạy mô hình DeepSeek trên các nhà cung cấp này, nhưng họ không thực hiện bất kỳ sự hợp tác thực sự nào).
Hơn nữa, DeepSeek đã trải qua sự tăng trưởng người dùng chưa từng có, điều này có nghĩa là nó có ít thời gian để chuẩn bị cho những tình huống căng thẳng hơn ChatGPT.
Hiệu suất tốt của DeepSeek đến từ khả năng tối ưu hóa tổng thể ở cấp độ phần cứng và hệ thống. Công ty mẹ của DeepSeek, Huanfang Quant, đã chi 200 triệu đô la để xây dựng cụm siêu máy tính Firefly-1 từ năm 2019. Đến năm 2022, công ty đã âm thầm lưu trữ hàng chục nghìn card đồ họa A100. Để đạt được hiệu quả đào tạo song song cao hơn, DeepSeek đã phát triển khuôn khổ đào tạo HAI LLM của riêng mình. Ngành công nghiệp tin rằng cụm Firefly có thể sử dụng hàng nghìn đến hàng chục nghìn GPU hiệu suất cao (như NVIDIA A100/H100 hoặc chip nội địa) để cung cấp khả năng tính toán song song mạnh mẽ. Hiện tại, Firefly Cluster hỗ trợ đào tạo các mô hình như DeepSeek-R1 và DeepSeek-MoE. Các mô hình này thực hiện gần với mức GPT-4 trong các tác vụ phức tạp như toán học và mã.
Firefly Cluster đại diện cho quá trình khám phá các kiến trúc và phương pháp mới của DeepSeek, đồng thời khiến thế giới bên ngoài tin rằng thông qua công nghệ tiên tiến này, DS đã giảm được chi phí đào tạo và có thể đào tạo R1 với hiệu suất tương đương với các mô hình AI hàng đầu chỉ với một phần nhỏ sức mạnh tính toán của các mô hình tiên tiến nhất của phương Tây. SemiAnalysis tính toán rằng DeepSeek thực sự có một nguồn dự trữ sức mạnh tính toán khổng lồ: DeepSeek có tổng cộng 60.000 card GPU NVIDIA, bao gồm 10.000 card A100, 10.000 card H100, 10.000 card H800 "phiên bản đặc biệt" và 30.000 card H20 "phiên bản đặc biệt".
Điều này có vẻ có nghĩa là R1 có đủ nguồn cung cấp thẻ. Nhưng trên thực tế, với tư cách là một mô hình suy luận, R1 được so sánh với O3 của OpenAI. Loại mô hình suy luận này đòi hỏi phải triển khai nhiều sức mạnh tính toán hơn cho liên kết phản hồi. Tuy nhiên, không rõ liệu sức mạnh tính toán được DS tiết kiệm về mặt chi phí đào tạo hay sự gia tăng đột ngột về sức mạnh tính toán về mặt chi phí suy luận là cao hơn.
Cần đề cập rằng DeepSeek-V3 và DeepSeek-R1 đều là những mô hình ngôn ngữ lớn, nhưng chúng hoạt động khác nhau. DeepSeek-V3 là một mô hình hướng dẫn, tương tự như ChatGPT, nhận các từ nhắc và tạo văn bản tương ứng để trả lời. Nhưng DeepSeek-R1 là một mô hình suy luận. Khi người dùng hỏi R1 một câu hỏi, trước tiên nó sẽ thực hiện một lượng lớn quá trình suy luận và sau đó tạo ra câu trả lời cuối cùng. Điều đầu tiên xuất hiện trong token do R1 tạo ra là một số lượng lớn các quy trình chuỗi suy nghĩ. Trước khi tạo ra câu trả lời, mô hình sẽ giải thích vấn đề và phân tích nó. Tất cả các quy trình lý luận này sẽ được tạo ra nhanh chóng dưới dạng token.
Theo quan điểm của Wen Tingcan, phó chủ tịch của Yaotu Capital, dự trữ năng lực tính toán khổng lồ nói trên của DeepSeek là nói đến giai đoạn đào tạo. Nhóm năng lực tính toán có thể lập kế hoạch và dự đoán trong giai đoạn đào tạo, và không dễ để có năng lực tính toán không đủ. Tuy nhiên, năng lực tính toán suy luận không chắc chắn hơn vì nó chủ yếu phụ thuộc vào quy mô và cách sử dụng của người dùng, và tương đối linh hoạt. "Năng lực tính toán suy luận sẽ tăng theo một quy tắc nhất định, nhưng khi DeepSeek trở thành một sản phẩm phi thường, quy mô và cách sử dụng của người dùng đã bùng nổ trong một thời gian ngắn, điều này đã dẫn đến sự tăng trưởng bùng nổ về nhu cầu năng lực tính toán trong giai đoạn suy luận, do đó có tình trạng kẹt cứng."
Gui Zang, một nhà thiết kế sản phẩm mô hình tích cực và là nhà phát triển độc lập trên Jike, đồng ý rằng tình trạng kẹt cứng là lý do chính khiến DeepSeek bị kẹt cứng. Ông tin rằng là ứng dụng di động có lượng tải xuống cao nhất tại 140 thị trường trên toàn thế giới, DS không thể được duy trì bằng các thẻ hiện tại, ngay cả khi có thẻ mới, vì "cần có thời gian để xây dựng một đám mây với các thẻ mới."
"Chi phí chạy NVIDIA A100, H100 và các chip khác trong một giờ có giá thị trường hợp lý. Theo quan điểm về chi phí suy luận của việc xuất token, DeepSeek rẻ hơn 90% so với mô hình o1 tương tự của OpenAI, không khác nhiều so với tính toán của mọi người. Do đó, bản thân kiến trúc mô hình MOE không phải là vấn đề chính, mà số lượng GPU do DS sở hữu sẽ quyết định số lượng token tối đa mà chúng có thể tạo ra mỗi phút. Ngay cả khi có thể sử dụng nhiều GPU hơn cho các dịch vụ suy luận cho người dùng thay vì nghiên cứu trước khi đào tạo, thì giới hạn trên vẫn ở đó." Chen Yunfei, nhà phát triển ứng dụng AI gốc Kitten Fill Light, cũng có quan điểm tương tự.
Một số người trong ngành cũng nói với Silicon Star rằng nguyên nhân gốc rễ khiến DeepSeek chậm trễ là do đám mây riêng không được xây dựng tốt.
Các cuộc tấn công của hacker là một yếu tố thúc đẩy khác dẫn đến độ trễ của R1. Vào ngày 30 tháng 1, giới truyền thông đã biết được từ công ty an ninh mạng Qi'anxin rằng cường độ tấn công vào các dịch vụ trực tuyến của DeepSeek đột nhiên tăng cao, với các lệnh tấn công tăng gấp hàng trăm lần so với ngày 28 tháng 1. Qi'anxin Xlab quan sát thấy có ít nhất hai botnet tham gia vào cuộc tấn công.
Tuy nhiên, có một giải pháp rõ ràng cho tình trạng chậm trễ trong các dịch vụ của R1, đó là thuê bên thứ ba cung cấp dịch vụ. Đây cũng là cảnh tượng sôi động nhất mà chúng tôi chứng kiến trong dịp Tết Nguyên đán - nhiều nhà sản xuất đã triển khai dịch vụ để đáp ứng nhu cầu sử dụng DeepSeek của mọi người.
Vào ngày 31 tháng 1, NVIDIA thông báo rằng NVIDIA NIM hiện có thể sử dụng DeepSeek-R1. Trước đó, giá trị thị trường của NVIDIA đã bốc hơi gần 600 tỷ đô la chỉ sau một đêm do tác động của DeepSeek. Cùng ngày, người dùng Amazon Cloud AWS có thể triển khai mô hình cơ sở R1 mới nhất của DeepSeek trên nền tảng trí tuệ nhân tạo Amazon Bedrock và Amazon SageMaker AI. Sau đó, các ứng dụng AI mới bao gồm Perplexity và Cursor cũng được kết nối với DeepSeek theo từng đợt. Microsoft là công ty đầu tiên triển khai DeepSeek-R1 trên các dịch vụ đám mây Azure và Github, trước cả Amazon và Nvidia.
Bắt đầu từ ngày 1 tháng 2, ngày mùng 4 Tết Nguyên đán, Huawei Cloud, Alibaba Cloud, Volcano Engine của Bytedance và Tencent Cloud cũng tham gia. Họ thường cung cấp các dịch vụ triển khai mô hình đầy đủ và toàn diện của DeepSeek. Tiếp theo là các nhà sản xuất chip AI như BiRen Technology, Hanbo Semiconductor, Ascend và Muxi, những công ty tuyên bố đã điều chỉnh phiên bản gốc của DeepSeek hoặc phiên bản rút gọn hơn. Đối với các công ty phần mềm, UFIDA, Kingdee và các công ty khác đã tích hợp mô hình DeepSeek vào một số sản phẩm của họ để tăng cường sức mạnh sản phẩm. Cuối cùng, các nhà sản xuất thiết bị đầu cuối như Lenovo, Huawei và Honor đã tích hợp mô hình DeepSeek vào một số sản phẩm của họ để sử dụng làm trợ lý cá nhân đầu cuối và buồng lái ô tô thông minh.
Cho đến nay, DeepSeek đã thu hút được một vòng tròn bạn bè rộng lớn và toàn diện bằng cách dựa vào giá trị của chính mình, bao gồm các nhà sản xuất đám mây, nhà điều hành, công ty chứng khoán và các nền tảng Internet siêu máy tính quốc gia trong và ngoài nước. Vì DeepSeek-R1 là một mô hình mã nguồn mở hoàn toàn nên tất cả các nhà cung cấp dịch vụ truy cập vào mô hình này đều được hưởng lợi từ mô hình DS. Một mặt, điều này làm tăng đáng kể mức độ phổ biến của DS, nhưng đồng thời cũng gây ra tình trạng đóng băng thường xuyên hơn. Nhà cung cấp dịch vụ và bản thân DS ngày càng gặp rắc rối vì lượng người dùng tăng đột biến và không ai trong số họ tìm ra chìa khóa để giải quyết vấn đề sử dụng ổn định.
Cân nhắc rằng các phiên bản gốc của mô hình DeepSeek V3 và R1 đều có 671 tỷ tham số, chúng phù hợp để chạy trên đám mây. Bản thân các nhà cung cấp đám mây có đủ sức mạnh tính toán và khả năng suy luận. Họ đã tung ra các dịch vụ triển khai liên quan đến DeepSeek để hạ thấp ngưỡng sử dụng cho doanh nghiệp. Sau khi triển khai mô hình DeepSeek, họ cung cấp API mô hình DS cho thế giới bên ngoài. So với API do chính DS cung cấp, người ta tin rằng nó có thể cung cấp trải nghiệm người dùng tốt hơn so với DS chính thức.
Nhưng trên thực tế, các vấn đề về trải nghiệm của bản thân mô hình DeepSeek-R1 vẫn chưa được giải quyết trong nhiều dịch vụ khác nhau. Thế giới bên ngoài tin rằng các nhà cung cấp dịch vụ không thiếu thẻ, nhưng trên thực tế, R1 mà họ triển khai, tần suất phản hồi của các nhà phát triển về trải nghiệm không ổn định chính xác giống như R1. Điều này chủ yếu là do số lượng thẻ có thể phân bổ cho R1 để suy luận không quá nhiều.
“Mức độ phổ biến của R1 vẫn cao và các nhà cung cấp dịch vụ cần tính đến các mô hình khác có thể kết nối được. Các thẻ có thể cung cấp cho R1 rất hạn chế. R1 cũng rất phổ biến. Một khi ai đó tung ra R1 và cung cấp với mức giá tương đối thấp, họ sẽ bị choáng ngợp.” Nhà thiết kế sản phẩm mô hình và nhà phát triển độc lập Gui Zang đã giải thích lý do với Silicon Star.
Tối ưu hóa triển khai mô hình là một lĩnh vực rộng bao gồm nhiều liên kết, từ hoàn thành đào tạo đến triển khai phần cứng thực tế, liên quan đến công việc nhiều cấp, nhưng đối với sự cố độ trễ của DeepSeek, nguyên nhân có thể đơn giản hơn, chẳng hạn như mô hình quá lớn và chuẩn bị tối ưu hóa không đầy đủ trước khi đưa vào trực tuyến.
Trước khi một mô hình lớn phổ biến được đưa vào hoạt động trực tuyến, nó sẽ gặp phải nhiều thách thức liên quan đến công nghệ, kỹ thuật và kinh doanh, chẳng hạn như tính nhất quán giữa dữ liệu đào tạo và dữ liệu môi trường sản xuất, độ trễ dữ liệu và hiệu suất thời gian thực ảnh hưởng đến suy luận mô hình, hiệu quả suy luận trực tuyến và mức sử dụng tài nguyên quá cao, khả năng khái quát hóa mô hình không đủ và các khía cạnh kỹ thuật như tính ổn định của dịch vụ, API và tích hợp hệ thống, v.v.
Nhiều mô hình lớn phổ biến rất coi trọng việc tối ưu hóa suy luận trước khi đưa lên mạng. Điều này là do vấn đề về thời gian tính toán và bộ nhớ. Trước đây ám chỉ độ trễ suy luận quá dài, dẫn đến trải nghiệm người dùng kém, thậm chí không đáp ứng được yêu cầu về độ trễ, tức là hiện tượng kẹt. Sau này ám chỉ số lượng lớn các tham số mô hình, mức tiêu thụ bộ nhớ video và thậm chí một card GPU đơn lẻ không thể vừa, điều này cũng sẽ gây ra kẹt.
Wen Tingcan giải thích lý do với Silicon Star. Ông cho biết các nhà cung cấp dịch vụ gặp phải thách thức trong việc cung cấp dịch vụ R1. Bản chất là cấu trúc mô hình DS rất đặc biệt và mô hình quá lớn + kiến trúc MOE (cấu trúc hỗn hợp của các chuyên gia, một phương pháp tính toán hiệu quả). "Việc tối ưu hóa (của các nhà cung cấp dịch vụ) mất thời gian, nhưng sức nóng của thị trường có một khoảng thời gian, vì vậy tất cả họ đều trực tuyến trước rồi mới tối ưu hóa, thay vì tối ưu hóa hoàn toàn rồi mới trực tuyến."
Để R1 chạy ổn định, cốt lõi hiện nằm ở khả năng dự trữ và tối ưu hóa ở phía suy luận. Điều DeepSeek cần làm là tìm cách giảm chi phí suy luận, giảm đầu ra của thẻ và giảm số lượng mã thông báo đầu ra đơn lẻ.
Đồng thời, độ trễ cũng cho thấy dự trữ năng lực tính toán của bản thân DS có thể không lớn như SemiAnalysis đã nói. Công ty Huanfang Fund cần thẻ, nhóm đào tạo DeepSeek cũng cần thẻ. Không có nhiều thẻ có thể phân bổ cho người dùng. Theo tình hình phát triển hiện tại, DeepSeek có thể không có động lực để trả tiền thuê dịch vụ trong ngắn hạn và sau đó cung cấp cho người dùng trải nghiệm tốt hơn miễn phí. Họ có nhiều khả năng chờ đợi cho đến khi làn sóng đầu tiên của các mô hình kinh doanh C-end được sắp xếp trước khi xem xét vấn đề cho thuê dịch vụ. Điều này cũng có nghĩa là sự chậm trễ sẽ tiếp tục trong một thời gian khá dài.
“Có lẽ họ cần hai bước: 1) tạo cơ chế thanh toán để hạn chế việc sử dụng các mô hình người dùng miễn phí; 2) tìm nhà cung cấp dịch vụ đám mây để hợp tác và sử dụng tài nguyên GPU của người khác.” Giải pháp tạm thời do nhà phát triển Chen Yunfei đưa ra đã nhận được sự đồng thuận đáng kể trong ngành.
Nhưng hiện tại, DeepSeek dường như không quá lo lắng về vấn đề “máy chủ bận” của mình. Là một công ty theo đuổi AGI, DeepSeek có vẻ không muốn tập trung quá nhiều vào lượng truy cập của người dùng. Có thể người dùng sẽ phải làm quen với giao diện "Máy chủ bận" trong một thời gian trong tương lai.
Preview
Có được sự hiểu biết rộng hơn về ngành công nghiệp tiền điện tử thông qua các báo cáo thông tin và tham gia vào các cuộc thảo luận chuyên sâu với các tác giả và độc giả cùng chí hướng khác. Chúng tôi hoan nghênh bạn tham gia vào cộng đồng Coinlive đang phát triển của chúng tôi:https://t.me/CoinliveSG