Sau khi AI trở thành một công cụ tiêu chuẩn trong doanh nghiệp, một hiện tượng trước đây từng được xem là “vấn đề cảm nhận” đang nhanh chóng nổi lên: LLM (mô hình ngôn ngữ lớn) đang “trở nên ngu hơn”. Người dùng Wisely Chen trên mạng chỉ ra rằng cái gọi là “LLM giảm trí” không phải là tin đồn nơi phố phường, mà là hiện tượng có thể được theo dõi liên tục bằng dữ liệu, và đang tạo ra tác động thực chất lên quy trình làm việc của doanh nghiệp.
Ông lấy trải nghiệm của bản thân làm ví dụ: vào ngày 15 tháng 4, các dịch vụ thuộc dòng Claude của Anthropic đã bị hạ cấp toàn diện, bao gồm claude.ai, API và Claude Code đều hiển thị “Degraded Performance”. Đây không phải chỉ là chậm hơn hay lỗi ngẫu nhiên, mà là chất lượng phản hồi suy sụp rõ rệt, thậm chí xuất hiện tình trạng không thể sử dụng bình thường, khiến cả ba nhiệm vụ phát triển trong ngày của ông đều bị trễ hết.
Những tình huống như vậy có thể chỉ là giảm hiệu suất đối với nhà phát triển cá nhân, nhưng đối với đội ngũ IT doanh nghiệp thì tác động được khuếch đại lên gấp bội. Khi một nhóm có nhiều kỹ sư cùng lúc phụ thuộc vào công cụ AI để coding, viết tài liệu và tự động hóa quy trình, thì một lần hạ cấp mô hình đồng nghĩa với việc năng suất tổng thể trong cùng một thời điểm bị sụt giảm tập thể, từ đó chuyển thành tổn thất đáng kể về thời gian và chi phí.
AI có vẻ như trở nên ngu hơn? Dữ liệu xác thực rằng “đã giảm cấp từ lâu”
Wisely Chen cho biết, những nhận định như “GPT ngu hơn”, “Claude không như trước” đã được lan truyền trong cộng đồng từ lâu, nhưng trong thời gian dài lại thiếu dữ liệu khách quan để làm bằng chứng. Mãi đến gần đây, khi xuất hiện các nền tảng theo dõi chất lượng mô hình một cách liên tục, hiện tượng này mới lần đầu được định lượng.
Trong đó, StupidMeter thực hiện các bài kiểm tra tự động trong 24 giờ đối với các mô hình chủ đạo bao gồm OpenAI, Anthropic, Google,… theo dõi các chỉ số như độ chính xác, năng lực suy luận và độ ổn định. Khác với benchmark truyền thống mang tính một lần, các hệ thống này giống hơn với cách doanh nghiệp giám sát API hoặc khả năng sẵn sàng dịch vụ, quan sát sự dao động về hiệu suất của mô hình trong môi trường sử dụng thực tế.
Kết quả dữ liệu khá trực quan: hiện tại đa số mô hình chủ đạo đều đang ở trạng thái cảnh báo hoặc bị hạ cấp, chỉ có một số ít mô hình duy trì trạng thái bình thường. Điều này có nghĩa là chất lượng mô hình không ổn định, không phải là vấn đề của một sản phẩm đơn lẻ, mà là hiện tượng phổ biến trên toàn ngành.
LLM âm thầm giảm trí, ảnh hưởng đến độ ổn định của doanh nghiệp trong quy trình AI
Đối với doanh nghiệp, những thay đổi như vậy đồng nghĩa với việc AI đã chuyển từ “công cụ giúp tăng hiệu suất” sang “một biến số ảnh hưởng đến độ ổn định”. Nếu quy trình làm việc hằng ngày của doanh nghiệp từ viết chương trình, làm code review, cho đến tạo ra tài liệu và báo cáo phân tích đều đã phụ thuộc rất cao vào LLM. Chỉ cần một ngày nào đó, mô hình bị suy giảm năng lực suy luận hoặc chất lượng trả lời không còn đảm bảo, thì các vấn đề này sẽ không xảy ra cục bộ như bug của phần mềm truyền thống, mà sẽ thẩm thấu đồng thời vào mọi khâu sử dụng AI.
Quan trọng hơn, sự dao động như vậy thường khó dự đoán và cũng khó phát hiện kịp thời. Hầu hết doanh nghiệp không có cơ chế theo dõi liên tục chất lượng mô hình; thông thường chỉ khi kết quả đầu ra bất thường hoặc hiệu suất của đội ngũ giảm xuống, họ mới nhận ra rằng vấn đề đến từ chính mô hình. Trong bối cảnh đó, “giảm trí” không còn chỉ là cảm nhận chủ quan của người dùng, mà là một rủi ro mang tính hệ thống có thể tác động trực tiếp đến nhịp vận hành của doanh nghiệp.
Khi AI trở thành điện nước, độ ổn định trở thành chỉ số then chốt mới
Wisely Chen ví vai trò của LLM như “điện nước của doanh nghiệp hiện đại”. Khi AI đã đi sâu vào vận hành hằng ngày và trở thành một năng lực nền tảng không thể thiếu, tầm quan trọng của độ ổn định cũng vì thế tăng lên.
Trước đây, khi đánh giá công cụ AI, doanh nghiệp thường tập trung vào năng lực mô hình, giá cả và tính năng. Nhưng khi hiện tượng “giảm trí” xuất hiện, một chỉ số quan trọng hơn khác cũng đang nổi lên: đó chính là độ ổn định. Khi chất lượng mô hình có thể thay đổi mà không được thông báo, doanh nghiệp không chỉ “dùng AI” nữa mà phải gánh chịu một dạng rủi ro hạ tầng nền tảng mới. Ủa tuyệt vọng hơn là: nếu chỉ nhìn vào các mô hình ngôn ngữ lớn ở tuyến đầu, thì về cơ bản, miễn là bài toán về năng lực tính toán (compute) chưa được giải quyết, chúng vẫn có thể tiếp tục xảy ra.
Bài viết này Dữ liệu tiết lộ “Claude giảm trí” không phải tin đồn nơi phố phường, AI mô hình không ổn định trở thành rủi ro đối với doanh nghiệp Xuất hiện sớm nhất ở Chuỗi tin ABMedia.
Bài viết liên quan
Robot Lightning của Honor giành chiến thắng tại Giải nửa marathon robot hình người Bắc Kinh 2026 với thành tích 50:26
Cổ phiếu Meta Tăng 1,73% khi Công Ty Lên Kế Hoạch Sa Thải 8.000 Nhân Sự Bắt Đầu Từ Ngày 20/5
Báo cáo thường niên của Google cho biết Gemini thực hiện chặn theo mili giây, chặn 99% quảng cáo lừa đảo
Đồng sáng lập Ethereum Lubin: AI sẽ là bước ngoặt then chốt cho crypto, nhưng độc quyền của các gã khổng lồ công nghệ tạo ra rủi ro mang tính hệ thống
Elon Musk Thúc Đẩy Các Khoản Chi Trả “Thu Nhập Cao Phổ Quát” như Giải Pháp Tối Ưu Cho Tình Trạng Thất Nghiệp Do AI