Nguồn: IT Home
Google đã đăng một bài viết trên blog vào ngày hôm qua (ngày 5 tháng 2), mời tất cả người dùng ứng dụng Gemini truy cập vào mô hình ứng dụng Flash Gemini 2.0 mới nhất và phát hành mô hình thử nghiệm suy luận Flash Thinking 2.0.
Flash 2.0: Bản cập nhật mới, hoàn toàn mở
Mô hình Flash 2.0 ban đầu được công bố tại hội nghị I/O năm 2024 và nhanh chóng trở thành lựa chọn phổ biến trong cộng đồng nhà phát triển do độ trễ thấp và hiệu suất cao. Mô hình này phù hợp với các tác vụ tần suất cao, quy mô lớn, có thể xử lý cửa sổ ngữ cảnh lên tới 1 triệu mã thông báo và thể hiện khả năng suy luận đa phương thức mạnh mẽ.
Mô hình Flash Gemini 2.0 có thể tương tác với các ứng dụng bao gồm YouTube, Google Search và Google Maps, giúp người dùng khám phá và mở rộng kiến thức trong nhiều tình huống ứng dụng.
Mô hình tư duy Flash Gemini 2.0
Dựa trên tốc độ và hiệu suất của Flash 2.0, mô hình tư duy Flash Gemini 2.0 được đào tạo để chia nhỏ lời nhắc thành một loạt các bước, nâng cao khả năng lý luận và cung cấp phản hồi tốt hơn.
2.0 Thử nghiệm tư duy Flash Mô hình cho thấy quá trình suy nghĩ của nó và người dùng có thể thấy lý do tại sao nó phản ứng theo một cách nhất định, các giả định của nó là gì và theo dõi logic lý luận của mô hình. Tính minh bạch này giúp người dùng hiểu sâu hơn về quá trình ra quyết định của mô hình.
![7346988 k5VDGyjdBPPqGTtLmYorHAwoAGtO7kCQJ4gk6jbh.jpeg](https://img.jinse.cn/7346988_watermarknone.png)
Gemini cũng đã ra mắt phiên bản 2.0 của Flash Thinking tương tác với các ứng dụng như YouTube, Tìm kiếm và Google Maps. Các ứng dụng được kết nối này đã biến Gemini thành một trợ lý AI độc đáo và trong tương lai, chúng tôi sẽ khám phá cách kết hợp các khả năng lý luận mới với các ứng dụng của người dùng để giúp người dùng hoàn thành nhiều tác vụ hơn.
Phiên bản thử nghiệm 2.0 Pro: hiệu suất lập trình tối ưu và xử lý từ ngữ phức tạp
Google cũng đã ra mắt phiên bản thử nghiệm Gemini 2.0 Pro. Người phát ngôn tuyên bố rằng mô hình này giỏi lập trình và có thể trả lời các từ ngữ phức tạp. Mô hình có cửa sổ ngữ cảnh gồm 2 triệu mã thông báo, có thể phân tích và hiểu đầy đủ lượng thông tin khổng lồ và hỗ trợ các công cụ gọi như tìm kiếm Google và thực thi mã.
Các nhà phát triển hiện có thể trải nghiệm mô hình thử nghiệm này trong Google AI Studio và Vertex AI, còn người dùng Gemini nâng cao cũng có thể truy cập mô hình này trên máy tính để bàn và thiết bị di động. IT Home đính kèm bản so sánh hiệu suất có liên quan như sau:
![7346989 gAPKhGMRAxfYeG68PsyEPpclfGJ945G5C5slIuvL.jpeg](https://img.jinse.cn/7346989_watermarknone.png)
2.0 Flash-Lite: mô hình tiết kiệm chi phí nhất
Google AI Studio cũng đã ra mắt mô hình Gemini 2.0 Flash-Lite, được tuyên bố chính thức là mô hình tiết kiệm chi phí nhất cho đến nay. Được thiết kế để cung cấp chất lượng cao hơn 1.5 Flash trong khi vẫn giữ chi phí thấp và khả năng phản hồi nhanh.
Mô hình này cũng hỗ trợ cửa sổ ngữ cảnh gồm 1 triệu mã thông báo và đầu vào đa phương thức, do đó, ví dụ, nó có thể tạo một dòng mô tả duy nhất cho 40.000 bức ảnh riêng biệt với giá chưa đến 1 đô la khi đăng ký trả phí vào Google AI Studio.