DeepSeek giới thiệu AI trong suốt
Công ty AI có trụ sở tại Trung Quốc DeepSeek vừa công bố hệ thống AI mới nhất của mình, DeepSeek-R1-Lite-Preview, đánh dấu bước tiến đáng kể về khả năng suy luận và giải quyết vấn đề.
Hệ thống này được định vị là đối thủ cạnh tranh với o1 của OpenAI, tự tạo sự khác biệt bằng cách tăng cường tính minh bạch và cải thiện cách xử lý các truy vấn phức tạp.
Không giống như các mô hình truyền thống thường bỏ qua các sắc thái, DeepSeek-R1-Lite dành nhiều thời gian hơn để kiểm tra thực tế và xem xét kỹ lưỡng các câu hỏi, giúp giảm các lỗi thường gặp.
Tương tự nhưOpenAI Ngoài ra, DeepSeek-R1 lên kế hoạch phản hồi từng bước, dành tới hàng chục giây cho các truy vấn phức tạp để đảm bảo độ chính xác.
Các nhà bình luận đã chỉ ra sự trớ trêu trong tính minh bạch của DeepSeek, đặc biệt khi so sánh với các mô hình phương Tây vẫn chưa giải quyết được hoàn toàn những khoảng trống trong lý luận.
Phiên bản mới nhất của DeepSeek đã chứng minh được kết quả ấn tượng trong các chuẩn mực giải quyết vấn đề như Kỳ thi Toán học mời của Mỹ (AIME) và MATH, đánh giá trình độ toán học và logic.
Hiệu suất này định vị DeepSeek-R1 như một đối thủ đáng gờmOpenAI 's ChatGPT và mô hình o1 chuyên biệt của nó.
Với AI tạo ra tiến triển nhanh chóng, việc phát hành DeepSeek-R1-Lite-Preview và các bản cập nhật gần đây từ Le Chat của Mistral AI báo hiệu sự cạnh tranh ngày càng tăng trong lĩnh vực AI, thúc đẩy các công ty giải quyết điểm yếu và cung cấp các giải pháp mạnh mẽ và minh bạch hơn.
DeepSeek chiến thắng trong lý luận từng bước
DeepSeek nhấn mạnh khả năng của AI trong việc cung cấp khả năng suy luận từng bước theo thời gian thực, tăng cường tính minh bạch và cho phép người dùng hiểu rõ hơn về quá trình suy nghĩ của nó.
Ngoài tính năng này, công ty còn có kế hoạch phát hành mô hình mã nguồn mở và các công cụ dành cho nhà phát triển thông qua API trong tương lai gần.
Biểu đồ so sánh gần đây của chuyên gia AI Andrew Curran cho thấy DeepSeek-R1-Lite-Preview vượt trội hơn các đối thủ cạnh tranh như o1-preview của OpenAI và Claude 3.5 Sonnet ở các số liệu quan trọng như AIME (52,5) và Codeforces (1450), cũng như vượt trội trong các nhiệm vụ giải quyết vấn đề nâng cao như MATH-500 (91,6).
Tuy nhiên, nó vẫn tụt hậu ở những lĩnh vực như GPQA Diamond (58,5) và Zebra Logic (56,6), trong khi bản xem trước o1 của OpenAI hoạt động tốt hơn với số điểm lần lượt là 73,3 và 71,4.
Những con số này cho thấy rằng trong khi DeepSeektrí tuệ nhân tạo cho thấy triển vọng đáng kể trong một số lĩnh vực lý luận nâng cao, vẫn còn chỗ để cải thiện về kiến thức chung và lý luận logic.
Các mô hình AI từ các phòng thí nghiệm lớn đang cải thiện tối thiểu
AI của DeepSeek đã gây ra mối lo ngại do dễ bị bẻ khóa, cho phép người dùng kích hoạt mô hình theo cách vượt qua các biện pháp bảo vệ.
Ví dụ, mộtX (trước đây gọi là Twitter) người dùng đã nhắc nhở AI cung cấp công thức chế tạo ma túy đá chi tiết thành công.
Mặt khác, DeepSeek-R1 đặc biệt nhạy cảm với các câu hỏi về chính trị, đặc biệt là những câu hỏi liên quan đến giới lãnh đạo Trung Quốc, các sự kiện như Quảng trường Thiên An Môn hoặc các chủ đề địa chính trị gây tranh cãi như Đài Loan.
Hành vi này có thể bắt nguồn từáp lực quản lý ở Trung Quốc , nơi các mô hình AI được yêu cầu tuân thủ các "giá trị cốt lõi của chủ nghĩa xã hội" của chính phủ và chịu sự giám sát của cơ quan quản lý internet của quốc gia này.
Các báo cáo chỉ ra rằng các hệ thống AI ở Trung Quốc thường bị hạn chế sử dụng một số nguồn nhất định, dẫn đến các mô hình tránh phản hồi các chủ đề nhạy cảm về mặt chính trị để đảm bảo tuân thủ các yêu cầu của nhà nước.
Khi những thách thức về quy định này diễn ra, cộng đồng AI rộng lớn hơn đang đánh giá lại khái niệm lâu đời về "luật mở rộng quy mô".
Lý thuyết này cho rằng việc tăng dữ liệu và sức mạnh tính toán sẽ liên tục cải thiện hiệu suất của mô hình.
Tuy nhiên, các báo cáo gần đây cho thấy các mô hình từ các phòng thí nghiệm lớn như OpenAI,Google và Anthropic không còn cho thấy những tiến bộ nhanh chóng như trước nữa.
Sự thay đổi này đã thúc đẩy việc tìm kiếm các phương pháp, kiến trúc và kỹ thuật AI thay thế, bao gồm tính toán thời gian thử nghiệm - một cải tiến được thấy trong các mô hình như o1 và DeepSeek-R1.
Còn được gọi là tính toán suy luận, phương pháp này cung cấp cho các mô hình thời gian xử lý bổ sung trong quá trình hoàn thành tác vụ, mang lại một lộ trình tiềm năng để khắc phục những hạn chế của các phương pháp mở rộng truyền thống.
Khi được hỏi liệu nó có tốt hơn ChatGPT của OpenAI không, nó đã né tránh câu hỏi như hình dưới đây.
Lặn vào DeepSeek
DeepSeek, một công ty có kế hoạch mở mã nguồn mô hình DeepSeek-R1 và phát hành API, hoạt động trong một phân khúc hấp dẫn trong lĩnh vực AI.
Được hỗ trợ bởi High-Flyer Capital Management, mộtTiếng Trung Quốc Là một quỹ đầu cơ định lượng tận dụng AI để đưa ra quyết định giao dịch, cách tiếp cận của DeepSeek vừa đầy tham vọng vừa mang tính chiến lược.
Một trong những cải tiến ban đầu của nó, DeepSeek-V2 đa năng, có thể phân tích cả văn bản và hình ảnh, đã thúc đẩy các đối thủ cạnh tranh lớn như ByteDance, Baidu vàAlibaba để giảm phí sử dụng mô hình của họ và thậm chí cung cấp hoàn toàn miễn phí một số dịch vụ.
High-Flyer, được biết đến với khoản đầu tư lớn vào cơ sở hạ tầng AI, xây dựng cụm máy chủ riêng để đào tạo mô hình.
Phiên bản mới nhất được cho là sở hữu 10.000 GPU Nvidia A100, với chi phí gần 1 tỷ yên (khoảng 138 triệu đô la).
Được thành lập bởi Liang Wenfeng, một sinh viên tốt nghiệp ngành khoa học máy tính, High-Flyer Capital Management đặt mục tiêu mở rộng ranh giới của AI với DeepSeek, hướng đến phát triển các hệ thống "siêu thông minh" có thể định nghĩa lại tương lai của AI.