ICL

Tính giá ICL Group Ltd (ADRs)

Đã đóng
ICL
₫120.095,71
+₫461,02(+0,38%)

*Dữ liệu cập nhật lần cuối: 2026-04-24 06:54 (UTC+8)

Tính đến 2026-04-24 06:54, ICL Group Ltd (ADRs) (ICL) đang giao dịch ở ₫120.095,71, với tổng vốn hóa thị trường là ₫154,40T, tỷ lệ P/E là 32,60 và tỷ suất cổ tức là 1,94%. Giá cổ phiếu hôm nay biến động trong khoảng ₫119.404,18 và ₫121.478,77. Giá hiện tại cao hơn 0,57% so với mức thấp nhất trong ngày và thấp hơn 1,13% so với mức cao nhất trong ngày, với khối lượng giao dịch là 692,16K. Trong 52 tuần qua, ICL đã giao dịch trong khoảng từ ₫117.099,08 đến ₫127.011,01 và giá hiện tại cách mức cao nhất trong 52 tuần -5,44%.

Các chỉ số chính của ICL

Đóng cửa hôm qua₫119.865,20
Vốn hóa thị trường₫154,40T
Khối lượng692,16K
Tỷ lệ P/E32,60
Lợi suất cổ tức (TTM)1,94%
Số lượng cổ tức₫1.071,87
EPS pha loãng (TTM)0,17
Thu nhập ròng (FY)₫5,20T
Doanh thu (FY)₫164,88T
Ngày báo cáo thu nhập2026-05-18
Ước tính EPS0,10
Ước tính doanh thu₫44,33T
Số cổ phiếu đang lưu hành1,28B
Beta (1 năm)0.938
Ngày giao dịch không hưởng quyền2026-03-10
Ngày thanh toán cổ tức2026-03-25

Giới thiệu về ICL

ICL Group Ltd, cùng với các công ty con của mình, hoạt động như một công ty khoáng chất và hóa chất chuyên biệt trên toàn thế giới. Công ty hoạt động trong bốn lĩnh vực: Sản phẩm Công nghiệp, Potash, Giải pháp Phốt phát và Giải pháp Nông nghiệp Đổi mới (IAS). Lĩnh vực Sản phẩm Công nghiệp sản xuất bromine từ dung dịch là sản phẩm phụ của quá trình sản xuất potash, cũng như các hợp chất dựa trên bromine; sản xuất các loại potash, muối, magiê clorua và các sản phẩm magnesia; và sản xuất, tiếp thị các chất chống cháy dựa trên photpho và các sản phẩm dựa trên photpho khác. Lĩnh vực Potash khai thác potash từ Biển Chết; khai thác và sản xuất potash và muối; sản xuất Polysulphate; sản xuất, tiếp thị và bán magiê và hợp kim magiê, cũng như các sản phẩm phụ liên quan, bao gồm clo và sylvinite; và bán muối. Lĩnh vực Giải pháp Phốt phát sử dụng các sản phẩm hàng hóa phốt phát để sản xuất các sản phẩm đặc biệt; sản xuất và tiếp thị phân bón dựa trên phốt phát, cũng như axit sunfuric, axit phosphoric xanh và phân bón phốt phát; và sản xuất axit phosphoric nhiệt cho các thị trường công nghiệp khác nhau, như chăm sóc răng miệng, sản phẩm làm sạch, sơn và lớp phủ, xử lý nước, sửa đổi nhựa đường, xây dựng và xử lý kim loại. Công ty cũng phát triển và sản xuất các thành phần thực phẩm chức năng và phụ gia phốt phát để sử dụng trong thị trường thịt chế biến, gia cầm, hải sản, sữa, đồ uống và bánh nướng; và sản xuất protein sữa và whey cho ngành công nghiệp thành phần thực phẩm. Lĩnh vực IAS phát triển, sản xuất, tiếp thị và bán phân bón chủ yếu dựa trên nitơ, potash và phốt phát, bao gồm phân bón đặc biệt hòa tan trong nước, dạng lỏng, hòa tan và phân bón kiểm soát phóng thích. Công ty bán các sản phẩm của mình thông qua các công ty tiếp thị, đại lý và nhà phân phối. Công ty trước đây được biết đến với tên gọi Israel Chemicals Ltd. và đã đổi tên thành ICL Group Ltd vào tháng 5 năm 2020. Công ty được thành lập vào năm 1968 và có trụ sở chính tại Tel Aviv, Israel.
Lĩnh vựcVật liệu cơ bản
Ngành nghềNguyên liệu nông nghiệp
CEOElad Aharonson
Trụ sở chínhTel Aviv,None,IL
Trang web chính thứchttps://www.icl-group.com

Tìm hiểu thêm về ICL Group Ltd (ADRs) (ICL)

Bài viết Gate Learn

Phần cổ phiếu Gate TradFi vừa giới thiệu 44 cặp giao dịch CFD và tổ chức cuộc thi giao dịch token mới, với tổng giải thưởng lên đến 100.000 USDT.

Gate TradFi sẽ tổ chức Cuộc thi giao dịch token mới Hàng hóa × Cổ phiếu từ 12:00 ngày 25 tháng 3 đến 12:00 ngày 8 tháng 4 (UTC+8).

2026-03-25

Đội ngũ Gate ra mắt Khu vực Hàng hóa TradFi × Cổ phiếu, tạo cơ hội giao dịch các loại tài sản cứng toàn cầu và nhận phần chia 100.000 USDT.

Gate TradFi vừa ra mắt các token mới. Hiện tại, Cuộc thi giao dịch token mới thuộc Khu vực Hàng hóa × Cổ phiếu đang được tổ chức, mang đến cơ hội nhận phần thưởng lớn với tổng giá trị 100.000 USDT cho các nhà đầu tư.

2026-03-25

Những thách thức hàng đầu về quyền riêng tư của Web3 và cách vượt qua chúng

Bất chấp tiềm năng đột phá của web3 và những thành tựu đạt được cho đến nay, bảo mật và quyền riêng tư vẫn là hai thách thức chính mà nó phải vượt qua để thành công hoàn toàn. Mặc dù công việc đầy hứa hẹn đang được tiến hành nhằm mục đích này, nhưng các nguyên lý cơ bản của web3 — phân cấp, không tin cậy và quyền tự chủ của người dùng — không phù hợp với bối cảnh bảo mật/quyền riêng tư hiện tại. Cần có các phương pháp mới để giải quyết các thách thức về quyền riêng tư của web3. Rất may, hệ sinh thái web3 tự mở khóa các công cụ cần thiết để biến các hệ thống bảo mật mạnh mẽ nhưng lấy người dùng làm trung tâm thành hiện thực.

2023-12-26

Câu hỏi thường gặp về ICL Group Ltd (ADRs) (ICL)

Giá cổ phiếu ICL Group Ltd (ADRs) (ICL) hôm nay là bao nhiêu?

x
ICL Group Ltd (ADRs) (ICL) hiện đang giao dịch ở mức ₫120.095,71, với biến động 24h qua là +0,38%. Phạm vi giao dịch 52 tuần là từ ₫117.099,08 đến ₫127.011,01.

Mức giá cao nhất và thấp nhất trong 52 tuần của ICL Group Ltd (ADRs) (ICL) là bao nhiêu?

x

Tỷ lệ giá trên thu nhập (P/E) của ICL Group Ltd (ADRs) (ICL) là bao nhiêu? Nó chỉ ra điều gì?

x

Vốn hóa thị trường của ICL Group Ltd (ADRs) (ICL) là bao nhiêu?

x

Lợi nhuận trên mỗi cổ phiếu (EPS) hàng quý gần đây nhất của ICL Group Ltd (ADRs) (ICL) là bao nhiêu?

x

Bạn nên mua hay bán ICL Group Ltd (ADRs) (ICL) vào thời điểm này?

x

Những yếu tố nào có thể ảnh hưởng đến giá cổ phiếu ICL Group Ltd (ADRs) (ICL)?

x

Làm thế nào để mua cổ phiếu ICL Group Ltd (ADRs) (ICL)?

x

Cảnh báo rủi ro

Thị trường chứng khoán tiềm ẩn rủi ro cao và biến động giá mạnh. Giá trị khoản đầu tư của bạn có thể tăng hoặc giảm, và bạn có thể không thu hồi được toàn bộ số tiền đã đầu tư. Hiệu suất hoạt động trong quá khứ không phải là chỉ báo đáng tin cậy cho kết quả tương lai. Trước khi đưa ra bất kỳ quyết định đầu tư nào, bạn nên đánh giá cẩn thận kinh nghiệm đầu tư, tình hình tài chính, mục tiêu đầu tư và khả năng chấp nhận rủi ro của mình, đồng thời tự mình nghiên cứu. Nếu cần thiết, hãy tham khảo ý kiến của một cố vấn tài chính độc lập.

Tuyên bố từ chối trách nhiệm

Nội dung trên trang này chỉ được cung cấp cho mục đích thông tin và không cấu thành tư vấn đầu tư, tư vấn tài chính hoặc khuyến nghị giao dịch. Gate sẽ không chịu trách nhiệm đối với bất kỳ tổn thất hoặc thiệt hại nào phát sinh từ các quyết định tài chính đó. Hơn nữa, xin lưu ý rằng Gate có thể không cung cấp đầy đủ dịch vụ tại một số thị trường và khu vực pháp lý nhất định, bao gồm nhưng không giới hạn ở Hoa Kỳ, Canada, Iran và Cuba. Để biết thêm thông tin về các Khu vực bị hạn chế, vui lòng tham khảo Thỏa thuận người dùng.

Thị trường giao dịch khác

Tin tức mới nhất về ICL Group Ltd (ADRs) (ICL)

2025-06-17 05:43

ICL xác nhận rằng cá nhân có liên quan đến Triều Tiên đã đóng góp vào kho mã Cosmos, mã của họ đã được xóa bỏ và không còn rủi ro nào.

Tin tức Gate News cho biết, Interchain Labs (ICL) đã xác nhận rằng một cá nhân sau này được xác nhận có liên quan đến Triều Tiên đã làm việc cho các nhân viên bảo trì trước đó trong khoảng thời gian từ năm 2022 đến năm 2024 và đã đóng góp cho kho mã Cosmos. Nhà phát triển cốt lõi của Cosmos này đã hợp tác với Liên minh An ninh (Security Alliance) và Asymmetric Research để phát hành một báo cáo an ninh, xác nhận rằng cá nhân này có quyền truy cập hạn chế vào hai kho mã: cosmos/IAVL và cosmos/cosmos-sdk. Cuộc kiểm tra đã phát hiện rằng, sau khi SDK v2 bị hủy bỏ, hầu hết mã mà anh ta đóng góp đã bị loại bỏ hoặc bị xóa khỏi lộ trình, và kiểm toán độc lập không phát hiện bất kỳ rủi ro hoặc lỗ hổng còn lại nào. Tuy nhiên, để nâng cao tính minh bạch, ICL sẽ cung cấp tiền thưởng gấp đôi trên trang Cosmos HackerOne vào tháng tới, thưởng cho những ai phát hiện ra bất kỳ lỗ hổng nào đủ điều kiện liên quan đến tài khoản GitHub "cool-develope" của người tham gia đó. Cụ thể, cá nhân này đã làm việc cho nhà cung cấp bảo trì ngăn xếp cốt lõi cũ từ giữa năm 2022 đến tháng 11 năm 2024, trước khi ICL hình thành và mô hình bảo trì của bên thứ ba Cosmos kết thúc. Trong một tuyên bố, ICL cho biết sau khi tiếp quản tất cả các phát triển ngăn xếp cốt lõi, nhóm đã triển khai các giao thức bảo mật và thuê mới để xác định vấn đề và chặn các đóng góp tiếp theo của nó. Người này sau đó đã nộp đơn cho vị trí này một lần nữa, nhưng đã bị gắn cờ và bị từ chối. ICL cho biết, kể từ tháng 2, họ đã thực hiện nâng cấp bảo mật toàn diện cho tất cả các kho lưu trữ cốt lõi của Cosmos, bao gồm việc thu hồi quyền truy cập cũ, cấp lại quyền cho tất cả các đóng góp viên, thay đổi chứng chỉ và tăng cường kiểm soát kiểm toán. Nguồn tin: The Block

Bài viết hot về ICL Group Ltd (ADRs) (ICL)

GateUser-bd883c58

GateUser-bd883c58

47 phút trước.
Báo này (chinatimes.net.cn) phóng viên Hạ Y Hoa Lý Vị Lai Bắc Kinh đưa tin Khủng hoảng lưu thông qua eo biển Hormuz không chỉ khiến giá dầu quốc tế tăng mạnh mà còn gây biến động lớn đối với giá các sản phẩm hóa chất rất ít người biết đến. Từ đầu năm đến nay, giá brom đã ổn định và tăng dần, sau tháng 3, xu hướng giá brom như tên lửa bay cao. Dữ liệu của Công ty Thương nghiệp cho thấy, ngày 8 tháng 3, giá brom vẫn là 39.700 nhân dân tệ/tấn, đến ngày 22 tháng 3, đã tăng vọt lên 51.000 nhân dân tệ/tấn, ngày 3 tháng 4, giá brom đã thay đổi thành 70.200 nhân dân tệ/tấn. Thị trường vốn tự nhiên không bỏ lỡ đợt tăng giá này, các cổ phiếu liên quan đến brom liên tục tăng mạnh, tính đến ngày 3 tháng 4, kết thúc phiên, cổ phiếu của Công ty Su Li (603585.SH) đã tăng 3 lần trong 6 ngày, các cổ phiếu của Shandong Haihua (000822.SZ), Lu Bei Hóa Học (600727.SH) và các cổ phiếu khác đều có mức tăng đáng kể. Phóng viên chú ý thấy, brom là sản phẩm hóa học ít phổ biến, công suất sản xuất nhỏ, không phải là ngành kinh doanh chính của các công ty niêm yết, liệu giá brom tăng có thể thúc đẩy tăng trưởng lợi nhuận của các công ty liên quan hay không? Nhân viên văn phòng của Công ty Cổ phần Binh Hóa (601678.SH) cho biết với phóng viên của Báo Hoa Hạ, công ty có công suất brom hơn 5.000 tấn, tỷ trọng doanh thu thấp, nhưng khi giá đơn tăng đột biến vẫn sẽ ảnh hưởng nhất định đến lợi nhuận của công ty. Ngoài ra, một nhân viên của công ty niêm yết khác cũng nói, đối với các công ty nhỏ, tăng vài chục triệu lợi nhuận là tốt rồi, nhưng đối với các công ty lớn, tác dụng nâng cao hiệu quả kinh doanh hạn chế. **Nguồn cung quốc tế bị gián đoạn** Từ tháng 1 đến tháng 3 năm 2026, các doanh nghiệp sản xuất brom nước muối trong nước tạm ngừng hoạt động hoặc giảm sản lượng, các doanh nghiệp brom biển bị ảnh hưởng bởi nhiệt độ thấp, công suất hoạt động ở mức thấp, kho dự trữ của các doanh nghiệp sản xuất không lớn, các nhà giữ hàng bán giá thấp, thị trường giá ổn định và tăng nhẹ. Dữ liệu của Công ty Thương nghiệp cho thấy, ngày 3 tháng 1 năm 2026, giá brom là 35.000 nhân dân tệ/tấn, đến ngày 20 tháng 1, giá đã lên 38.600 nhân dân tệ/tấn, ngày 6 tháng 2, giá brom tăng lên 41.600 nhân dân tệ/tấn, sau đó giá brom có xu hướng ổn định, ngày 23 tháng 2 vẫn là 41.600 nhân dân tệ/tấn, và ngày 4 tháng 3 giảm xuống còn 39.700 nhân dân tệ/tấn. Sau đó, giá brom liên tục tăng đến ngày 3 tháng 4 đạt 70.200 nhân dân tệ/tấn. Chuyên gia phân tích brom của Zhaocai Information, Triệu Thiện Thiện, cho biết, từ tháng 3 trở đi, giá thị trường brom chủ yếu do cung cầu thúc đẩy, các doanh nghiệp sản xuất brom trong nước dần tăng sản lượng, do tình hình địa chính trị Trung Đông, nguồn cung brom từ nước ngoài giảm, chu kỳ vận chuyển kéo dài, nguồn hàng nhập khẩu không thể cung cấp kịp thời, tổng cung trong nước giảm, các nhà bán hàng giữ giá, tâm lý chờ đợi tăng giá vẫn còn nặng nề, thị trường giá tăng mạnh. Công ty Chứng khoán Yinhe chỉ ra, tình hình xung đột địa chính trị Trung Đông leo thang, một mặt không loại trừ khả năng một số nhà máy brom của Israel tạm thời giảm hoặc ngừng sản xuất, dẫn đến thiếu hụt nguồn cung brom; mặt khác, chi phí logistics xuất khẩu brom của Israel và Jordan sẽ tăng rõ rệt, chu kỳ vận chuyển brom cũng có nhiều bất định, trung tâm giá brom dự kiến sẽ tăng theo. Theo thông tin, Israel và Jordan là hai nhà sản xuất brom lớn nhất thế giới. Dữ liệu của Longzhong Information, công suất brom của Israel và Jordan chiếm lần lượt 33% và 19% tổng sản lượng toàn cầu. Trung Quốc là quốc gia tiêu thụ brom lớn nhất thế giới, nhưng phụ thuộc lớn vào nhập khẩu brom, Israel và Jordan là hai nhà nhập khẩu chính của Trung Quốc. Theo số liệu của Tổng cục Hải quan, năm 2025, Trung Quốc nhập khẩu brom từ Israel 35.000 tấn và Jordan 14.000 tấn, tổng cộng chiếm khoảng 64,7% tổng lượng nhập khẩu. Triệu Thiện Thiện giải thích với phóng viên, ngành brom toàn cầu có độ tập trung cao, trong đó Israel, Jordan và Mỹ chiếm hơn 60% công suất toàn cầu, Trung Quốc có khoảng 150.000 tấn. Nhờ lợi thế nguồn nước muối dồi dào quanh biển Chết, brom trong nước biển Chết có hàm lượng cao, chiếm khoảng 40% tổng công suất toàn cầu. Phóng viên biết rằng, giá brom tăng trong tháng 1 và 2 năm 2026 cũng liên quan đến công suất ngoài nước. Theo các báo cáo, nhà sản xuất lớn nhất thế giới, Hóa chất ICL của Israel, đã giảm xuất khẩu brom kể từ năm 2025, chuyển sang tăng sản lượng các sản phẩm brom hóa dưới. Một quốc gia nhập khẩu brom lớn khác của Trung Quốc gặp phải thiên tai bất ngờ. Ngày 21 tháng 1, miền nam Jordan xảy ra mưa lớn gây lũ lụt, làm gián đoạn nguồn cung của JBC, nhà máy brom lớn thứ hai thế giới, với sản lượng 100.000 tấn/năm, chiếm khoảng 13-14% tổng công suất toàn cầu. **Công suất sẽ dần phục hồi** Phóng viên nhận thấy, mặc dù giá tăng mạnh, nhưng tổng công suất brom vẫn nhỏ, doanh thu trong các công ty niêm yết chiếm tỷ lệ thấp. Báo cáo nửa năm 2025 của Asia Potash cho biết, công ty liên doanh của họ, Công ty Brom Á Châu, có công suất brom 25.000 tấn/năm, dự kiến mở rộng lên 50.000 tấn/năm vào năm 2025, nhưng doanh thu từ kali clorua đạt 3,464 tỷ nhân dân tệ, chiếm 97,65%; doanh thu từ nước muối là 47,22 triệu nhân dân tệ, chiếm 1,33%; các khoản khác là 36,31 triệu nhân dân tệ, chiếm 1,02%. Shandong Haihua, nhà dẫn đầu trong khai thác brom từ nước muối ngầm trong nước, có công suất khoảng 10.000 tấn, năm 2025 doanh thu đạt 4,745 tỷ nhân dân tệ, doanh thu brom chỉ 200 triệu nhân dân tệ, chiếm 4,23%; Lu Bei Hóa Học có công suất brom khoảng 5.000 tấn, năm 2025 sản lượng brom là 3.245 tấn, bán ra 3.117 tấn. Tổng doanh thu năm 2025 của công ty là 5,089 tỷ nhân dân tệ, doanh thu brom là 73,81 triệu nhân dân tệ, nhưng tỷ suất lợi nhuận gộp khá cao, đạt 52,91%. Nhân viên văn phòng của Lu Bei Hóa Học cho biết, tỷ suất lợi nhuận gộp cao một phần do chi phí sản xuất thấp, phần khác do giá bán cao; giá cao còn do nhu cầu phía dưới ổn định, cung không thể nhanh chóng theo kịp. “Brom chủ yếu dùng trong chất chống cháy brom, dược phẩm và các lĩnh vực khác, nhu cầu ổn định.” Người này còn nói thêm, sản xuất brom chủ yếu dựa vào khai thác brom từ nước biển, nước muối ngầm, quặng khoáng, trong đó khai thác từ nước biển chỉ khả thi ở các vùng ven biển như Bột Hải, còn phía nam ít điều kiện hơn. Việc khai thác nước muối ngầm bị kiểm soát chặt chẽ bởi nhà nước, không thể khai thác vô hạn. Về việc giá brom tăng gần đây, nhân viên này thừa nhận, từ tháng 3 trở đi, do xung đột Trung Đông, logistics bị hạn chế, nhập khẩu gặp khó khăn, dẫn đến nguồn cung trong nước tạm thời căng thẳng. Nhưng cũng có yếu tố mùa vụ, “mùa đông, nồng độ brom trong nước biển thấp, nhiều nơi tạm ngừng sản xuất, sản lượng nhỏ, giá thường tăng vào thời điểm này hàng năm, sau ngày 1/5, sản lượng sẽ dần phục hồi, giá có thể giảm dần.” Triệu Thiện Thiện cũng đưa ra quan điểm tương tự. “Khi nhiệt độ tăng, sản lượng brom trong nước biển sẽ tăng, thúc đẩy tỷ lệ hoạt động của ngành, nguồn cung brom trong nước sẽ dần tăng lên, các doanh nghiệp tạm ngừng sản xuất do kiểm tra môi trường có thể bắt đầu hoạt động trở lại trong tháng 4, cần chú ý theo dõi tình hình sản xuất phục hồi.” Ngoài ra, Triệu Thiện Thiện cho rằng, tháng 4 cần tiếp tục theo dõi tâm lý tiếp nhận hàng của các khách hàng phía dưới, giá cao cấp còn phải mất thời gian truyền xuống, nếu truyền dẫn tốt, sẽ là tín hiệu tích cực cho thị trường; nếu không, giá thị trường có thể điều chỉnh về mức cao. Thời điểm cụ thể của điểm ngoặt còn phải tiếp tục theo dõi. Về ảnh hưởng của giá brom đến các ngành phía dưới, Triệu Thiện Thiện nói, giá brom tăng gây áp lực lớn lên chi phí sản xuất của các doanh nghiệp phía dưới, một số sản phẩm theo giá brom tăng, nhưng việc truyền dẫn giá cao xuống phía dưới gặp khó khăn, người mua thận trọng chờ đợi, tùy theo tình hình đơn hàng và nhu cầu sản xuất.
0
0
0
0
DeepFlowTech

DeepFlowTech

3 tiếng trước
Tác giả: Malika Aubakirova、Matt Bornstein Biên dịch: Deep潮 TechFlow Deep潮 Đọc thử: Các mô hình ngôn ngữ lớn sau khi huấn luyện xong đều bị "đóng băng", sau khi triển khai chỉ có thể duy trì hoạt động dựa vào cửa sổ ngữ cảnh, RAG và các bản vá ngoài khác, về bản chất giống như bệnh nhân mất trí nhớ trong "Memento" — có thể truy xuất thông tin, nhưng không thể thực sự học hỏi cái mới. Hai đối tác của a16z đã hệ thống hóa hướng nghiên cứu tiên phong về "học liên tục", từ ngữ cảnh, mô-đun đến cập nhật trọng số, phân tích các con đường công nghệ có thể định nghĩa lại giới hạn khả năng của AI này. Trong bộ phim "Memento" của Christopher Nolan, nhân vật chính Leonard Shelby sống trong hiện tại vỡ vụn. Chấn thương sọ não khiến anh mắc chứng mất trí nhớ tiền đình, không thể hình thành ký ức mới. Mỗi vài phút, thế giới của anh lại được đặt lại, bị mắc kẹt trong "hiện tại" vĩnh cửu, không nhớ những gì vừa xảy ra, cũng không biết chuyện gì sẽ xảy ra tiếp theo. Để tồn tại, anh xăm chữ lên người, dùng máy ảnh Polaroid, dựa vào những công cụ bên ngoài này để thay thế chức năng ký ức mà não không thể thực hiện. Các mô hình ngôn ngữ lớn cũng sống trong hiện tại vĩnh cửu tương tự. Sau khi huấn luyện, lượng kiến thức khổng lồ bị đóng băng trong các tham số, mô hình không thể hình thành ký ức mới, không thể cập nhật tham số dựa trên trải nghiệm mới. Để bù đắp cho thiếu sót này, chúng ta đã xây dựng một loạt các khung sườn: lịch sử trò chuyện như ghi chú ngắn hạn, hệ thống truy xuất như sổ ghi chú bên ngoài, prompt như hình xăm trên người. Nhưng bản thân mô hình, từ trước đến nay, chưa từng thực sự nội tại hóa những thông tin mới này. Ngày càng nhiều nhà nghiên cứu cho rằng, điều này là chưa đủ. Học theo ngữ cảnh (ICL) có thể giải quyết vấn đề, miễn là câu trả lời (hoặc mảnh ghép của câu trả lời) đã tồn tại ở đâu đó trong thế giới. Nhưng đối với những vấn đề cần khám phá thực sự (như chứng minh toán học mới), các kịch bản đối kháng (như tấn công an ninh), hoặc những kiến thức quá ẩn sâu, không thể diễn đạt bằng ngôn ngữ, có lý do chính đáng để tin rằng: mô hình cần một phương thức, sau khi triển khai, viết trực tiếp kiến thức và kinh nghiệm mới vào các tham số của nó. Học theo ngữ cảnh là tạm thời. Học thực sự cần nén lại. Trước khi cho phép mô hình liên tục nén, có thể chúng ta đều đang mắc kẹt trong hiện tại vĩnh cửu của "Memento". Ngược lại, nếu chúng ta có thể huấn luyện mô hình học cách xây dựng kiến trúc ký ức của chính nó, thay vì dựa vào các công cụ bên ngoài tùy biến, có thể sẽ mở ra một chiều kích mở rộng quy mô hoàn toàn mới. Lĩnh vực nghiên cứu này gọi là học liên tục (continual learning). Khái niệm này không mới (xem bài báo của McCloskey và Cohen năm 1989), nhưng chúng tôi cho rằng nó là một trong những hướng nghiên cứu quan trọng nhất hiện nay trong AI. Trong hai đến ba năm qua, sự bùng nổ về khả năng của mô hình đã làm rõ hơn khoảng cách giữa "đã biết" và "có thể biết". Bài viết này nhằm chia sẻ những gì chúng tôi học được từ các nhà nghiên cứu hàng đầu trong lĩnh vực này, giúp làm rõ các con đường khác nhau của học liên tục, và thúc đẩy chủ đề này phát triển trong hệ sinh thái khởi nghiệp. Lưu ý: Bài viết này hình thành nhờ các cuộc trao đổi sâu sắc với một nhóm các nhà nghiên cứu, tiến sĩ và doanh nhân xuất sắc, những người đã hào phóng chia sẻ công trình và quan điểm của họ trong lĩnh vực học liên tục. Từ nền tảng lý thuyết đến thực tế kỹ thuật sau khi triển khai, những hiểu biết của họ khiến bài viết này chắc chắn hơn nhiều so với việc chúng tôi tự viết. Xin cảm ơn các bạn đã dành thời gian và chia sẻ ý tưởng! Trước hết nói về ngữ cảnh Trước khi biện hộ cho việc học cấp tham số (tức là cập nhật trọng số mô hình), cần thừa nhận một sự thật: học theo ngữ cảnh thực sự có tác dụng. Và có một lý luận mạnh mẽ cho rằng nó sẽ tiếp tục thắng thế. Bản chất của Transformer là dựa trên chuỗi để dự đoán token tiếp theo theo điều kiện. Cung cấp đúng chuỗi, bạn sẽ nhận được các hành vi phong phú đáng ngạc nhiên, mà không cần chạm vào trọng số. Đó là lý do tại sao các phương pháp như quản lý ngữ cảnh, kỹ thuật gợi ý, tinh chỉnh theo hướng dẫn và ví dụ ít mẫu lại mạnh mẽ đến vậy. Trí tuệ được đóng gói trong các tham số tĩnh, còn khả năng thể hiện thì thay đổi mạnh mẽ theo nội dung bạn đưa vào cửa sổ. Bài viết của Cursor gần đây về quy mô trí tuệ tự lập dựa trên lập trình là một ví dụ điển hình: trọng số mô hình là cố định, điều thực sự làm hệ thống hoạt động là cách tổ chức ngữ cảnh một cách tinh tế — đưa gì vào, khi nào tóm tắt, cách duy trì trạng thái liên tục trong vài giờ tự vận hành. OpenClaw là một ví dụ khác. Nó nổi bật không phải vì có quyền truy cập đặc biệt vào mô hình (mọi người đều có thể dùng mô hình nền), mà vì nó biến ngữ cảnh và công cụ thành trạng thái làm việc cực kỳ hiệu quả: theo dõi bạn đang làm gì, tạo ra các sản phẩm trung gian có cấu trúc, quyết định khi nào cần đưa prompt trở lại, duy trì ký ức lâu dài về các công việc trước đó. OpenClaw đã nâng cao "thiết kế vỏ" của trí tuệ nhân tạo thành một ngành học riêng biệt. Khi kỹ thuật gợi ý mới xuất hiện, nhiều nhà nghiên cứu hoài nghi về khả năng "chỉ dựa vào prompt" để trở thành giao diện chính thức. Nó trông như một thủ thuật (hack). Nhưng thực ra, đó là nguyên bản của kiến trúc Transformer, không cần huấn luyện lại, và tự động nâng cấp theo tiến bộ của mô hình. Khi mô hình mạnh hơn, prompt cũng trở nên mạnh hơn. Giao diện "đơn giản nhưng nguyên bản" thường thắng thế, vì nó liên kết trực tiếp với hệ thống nền tảng, thay vì đối đầu với nó. Cho đến nay, xu hướng phát triển của LLM chính là như vậy. Mô hình không gian trạng thái: phiên bản ngữ cảnh như steroid Khi dòng chảy chính từ gọi LLM nguyên bản sang vòng lặp trí tuệ nhân tạo, áp lực đối với các mô hình học theo ngữ cảnh ngày càng lớn. Trước đây, hiếm khi gặp phải tình trạng cửa sổ ngữ cảnh đầy ắp. Thường xảy ra khi LLM được yêu cầu hoàn thành một chuỗi nhiệm vụ rời rạc, tầng ứng dụng có thể cắt và nén lịch sử trò chuyện theo cách khá trực tiếp. Nhưng đối với trí tuệ nhân tạo, một nhiệm vụ có thể chiếm phần lớn tổng thể ngữ cảnh khả dụng. Vòng lặp của trí tuệ nhân tạo mỗi bước đều phụ thuộc vào ngữ cảnh truyền qua các vòng lặp trước đó. Và chúng thường thất bại sau 20 đến 100 bước, vì "đứt dây": ngữ cảnh bị đầy, tính liên tục giảm sút, không thể hội tụ. Do đó, các phòng thí nghiệm AI lớn hiện đang đầu tư mạnh vào phát triển các mô hình có cửa sổ ngữ cảnh siêu dài. Đây là con đường tự nhiên, dựa trên các phương pháp đã hiệu quả (học theo ngữ cảnh), phù hợp với xu hướng chuyển đổi tính toán trong suy luận. Kiến trúc phổ biến nhất là chèn các lớp nhớ cố định giữa các đầu chú ý thông thường — gọi là mô hình không gian trạng thái (SSM) và các biến thể chú ý tuyến tính (gọi chung là SSM). SSM cung cấp đường cong mở rộng quy mô vượt trội trong các kịch bản ngữ cảnh dài. Chú thích hình: So sánh khả năng mở rộng của SSM và chú ý truyền thống Mục tiêu là giúp các trí tuệ nhân tạo nâng cao số bước liên tục hoạt động từ khoảng 20 lên khoảng 20.000, mà không mất đi các kỹ năng và kiến thức rộng lớn mà Transformer truyền thống mang lại. Nếu thành công, đây sẽ là bước đột phá lớn cho các hệ thống trí tuệ nhân tạo vận hành lâu dài. Bạn thậm chí có thể xem phương pháp này như một dạng học liên tục: mặc dù không cập nhật trọng số, nhưng đã đưa vào một lớp nhớ bên ngoài gần như không cần phải reset. Vì vậy, các phương pháp phi tham số này là thực sự mạnh mẽ. Bất kỳ đánh giá nào về học liên tục đều phải bắt đầu từ đây. Vấn đề không phải là hệ thống ngữ cảnh ngày nay có hữu ích không, nó thực sự hữu ích. Câu hỏi là: chúng ta đã thấy giới hạn chưa, các phương pháp mới có thể đưa chúng ta đi xa hơn không. Thiếu sót của ngữ cảnh: "Hiện vật trong tủ hồ sơ" "AGI và tiền huấn luyện xảy ra chuyện là, theo một nghĩa nào đó, chúng đã quá mức... Con người không phải là AGI. Đúng vậy, con người có nền tảng kỹ năng, nhưng họ thiếu lượng lớn kiến thức. Chúng ta dựa vào học liên tục. Nếu tôi tạo ra một thiếu niên cực kỳ thông minh 15 tuổi, cậu ấy chẳng biết gì cả. Một học sinh tốt, rất ham học hỏi. Bạn có thể nói, đi làm lập trình viên, đi làm bác sĩ. Việc triển khai bản thân đã liên quan đến một quá trình học hỏi, thử sai. Đây là một quá trình, chứ không phải đưa ra thành phẩm rồi phát hành — Ilya Sutskever" Hãy tưởng tượng một hệ thống có không gian lưu trữ vô hạn. Một tủ hồ sơ lớn nhất thế giới, mọi sự kiện đều được lập chỉ mục hoàn hảo, có thể truy xuất ngay lập tức. Nó có thể tra cứu bất cứ thứ gì. Nó đã học được chưa? Chưa. Nó chưa từng bị ép phải nén. Đây là luận điểm cốt lõi của chúng tôi, dựa trên quan điểm của Ilya Sutskever trước đó: LLM về bản chất là thuật toán nén. Trong quá trình huấn luyện, chúng nén internet thành các tham số. Nén có tổn thất, và chính sự tổn thất này làm cho nó mạnh mẽ hơn. Nén buộc mô hình phải tìm ra cấu trúc, tổng quát hóa, xây dựng các biểu diễn có thể chuyển đổi qua ngữ cảnh. Một mô hình ghi nhớ cứng tất cả các mẫu huấn luyện không bằng một mô hình trích xuất các quy luật nền tảng. Nén có tổn thất chính là học. Trớ trêu thay, cơ chế làm cho LLM mạnh mẽ trong quá trình huấn luyện (nén dữ liệu gốc thành biểu diễn nhỏ gọn, có thể chuyển đổi) lại chính là thứ chúng ta từ chối để chúng tiếp tục làm sau khi triển khai. Chúng ta dừng nén tại thời điểm phát hành, thay thế bằng bộ nhớ ngoài. Tất nhiên, hầu hết các hệ thống vỏ ngoài của trí tuệ nhân tạo đều nén ngữ cảnh theo cách tùy biến nào đó. Nhưng bài học đắng lòng (bitter lesson) có lẽ chính là: mô hình nên tự học cách nén này, một cách trực tiếp, quy mô lớn. Yu Sun đã chia sẻ một ví dụ minh họa cho cuộc tranh luận này: Toán học. Xem xét định lý Fermat. Hơn 350 năm, không nhà toán học nào chứng minh được, không phải vì thiếu tài liệu đúng đắn, mà vì phương pháp giải pháp mang tính đột phá cao. Khoảng cách giữa kiến thức toán học đã có và đáp số cuối cùng quá lớn. Khi Andrew Wiles cuối cùng chinh phục nó vào thập niên 1990, ông đã làm việc gần như cách ly trong bảy năm, phải phát minh ra các kỹ thuật hoàn toàn mới để đi đến đáp số. Chứng minh của ông dựa trên việc kết nối thành công hai lĩnh vực toán học khác nhau: đường cong elliptic và dạng mô hình. Trong khi Ken Ribet trước đó đã chứng minh rằng, nếu có thể xây dựng cầu nối này, thì định lý Fermat sẽ tự giải quyết, thì trước Wiles, chưa ai có công cụ lý thuyết để xây dựng cầu đó. Chứng minh của Grigori Perelman về giả thuyết Poincaré cũng có thể làm ví dụ tương tự. Vấn đề cốt lõi là: Những ví dụ này có chứng minh LLM thiếu một thứ gì đó, một khả năng cập nhật tiền đề, suy nghĩ sáng tạo thực sự không? Hay câu chuyện này lại chứng minh điều ngược lại — tất cả kiến thức của con người chỉ là dữ liệu để huấn luyện và tổ hợp lại, Wiles và Perelman chỉ thể hiện rằng LLM cũng có thể làm được điều đó trên quy mô lớn hơn? Vấn đề này mang tính thực nghiệm, câu trả lời vẫn còn chưa rõ ràng. Nhưng chúng ta rõ ràng biết rằng, có nhiều loại vấn đề mà học theo ngữ cảnh ngày nay thất bại, còn học cấp tham số thì có thể hữu ích. Ví dụ: Chú thích: Các loại vấn đề mà học theo ngữ cảnh thất bại, còn học cấp tham số có thể thắng thế Quan trọng hơn, học theo ngữ cảnh chỉ xử lý được những thứ có thể diễn đạt bằng ngôn ngữ, còn trọng số có thể mã hóa các khái niệm mà prompt không thể truyền đạt bằng lời. Một số dạng mẫu hình quá cao, quá ẩn, quá sâu, không thể đưa vào ngữ cảnh. Ví dụ, trong quét y học, phân biệt các vết giả lành tính và u ác dựa trên kết cấu hình ảnh, hoặc định nghĩa nhịp điệu đặc trưng của người nói qua các dao động âm thanh nhỏ — những mẫu này khó phân tích thành từ ngữ chính xác. Ngôn ngữ chỉ có thể xấp xỉ chúng. Ngay cả prompt dài nhất cũng không thể truyền đạt hết; những kiến thức này chỉ có thể tồn tại trong trọng số. Chúng sống trong không gian tiềm ẩn của biểu diễn học, không phải trong lời nói. Dù cửa sổ ngữ cảnh mở rộng đến đâu, vẫn có những kiến thức không thể mô tả bằng văn bản, chỉ có thể mang trong trọng số. Điều này có thể giải thích tại sao các chức năng "nhớ bạn" rõ ràng như của ChatGPT thường khiến người dùng cảm thấy không thoải mái hơn là thích thú. Người dùng thực sự muốn không phải "hồi tưởng", mà là "khả năng". Một mô hình đã nội tại hóa các mô hình hành vi của bạn có thể tổng quát hóa đến các tình huống mới; còn một mô hình chỉ ghi nhớ lịch sử của bạn thì không thể. "Đây là nội dung bạn đã viết lần trước khi trả lời email này" (đọc từng chữ) và "Tôi đã đủ hiểu cách suy nghĩ của bạn, có thể dự đoán bạn cần gì" — đó là sự khác biệt giữa truy xuất và học hỏi. Học liên tục sơ lược Học liên tục có nhiều con đường khác nhau. Ranh giới không nằm ở việc "có chức năng nhớ" hay không, mà ở chỗ: nén xảy ra ở đâu? Các con đường này phân bố theo một quang phổ, từ không nén (chỉ truy xuất, trọng số đóng băng), đến nén hoàn toàn nội tại (học cấp trọng số, làm mô hình trở nên thông minh hơn), còn có một vùng trung gian quan trọng (mô-đun). Chú thích hình: Ba con đường của học liên tục — ngữ cảnh, mô-đun, trọng số Ngữ cảnh Ở phía ngữ cảnh, nhóm xây dựng các hệ thống truy xuất thông minh hơn, vỏ ngoài của trí tuệ nhân tạo và kỹ thuật gợi ý. Đây là lĩnh vực đã trưởng thành nhất: hạ tầng đã được xác thực, lộ trình triển khai rõ ràng. Giới hạn chính là độ sâu: chiều dài ngữ cảnh. Một hướng mới đáng chú ý là kiến trúc đa trí tuệ nhân tạo như một chiến lược mở rộng quy mô ngữ cảnh. Nếu một mô hình đơn lẻ bị giới hạn trong cửa sổ 128K token, thì một nhóm các trí tuệ nhân tạo phối hợp — mỗi cái giữ một ngữ cảnh riêng, tập trung vào một phần của vấn đề, giao tiếp kết quả với nhau — có thể gần như vô hạn hóa bộ nhớ làm việc chung. Mỗi trí tuệ trong nhóm học theo ngữ cảnh trong cửa sổ của nó; hệ thống tổng hợp. Các dự án của Karpathy gần đây về tự nghiên cứu và ví dụ xây dựng trình duyệt web của Cursor là các ví dụ ban đầu. Đây là phương pháp phi tham số thuần túy (không thay đổi trọng số), nhưng đã nâng cao đáng kể giới hạn của hệ thống ngữ cảnh có thể đạt được. Mô-đun Trong không gian mô-đun, nhóm xây dựng các mô-đun kiến thức có thể cắm vào (bộ nhớ KV nén, lớp thích nghi, bộ nhớ ngoài), giúp mô hình chung đạt được chuyên môn hóa mà không cần huấn luyện lại toàn bộ. Một mô hình 8 tỷ tham số cộng với các mô-đun phù hợp có thể đạt hiệu suất tương đương với mô hình 109 tỷ tham số trên các nhiệm vụ mục tiêu, bộ nhớ chiếm phần nhỏ. Ưu điểm là khả năng tích hợp dễ dàng: các mô-đun này có thể cắm vào các kiến trúc Transformer hiện có, dễ thay thế hoặc cập nhật, chi phí thử nghiệm thấp hơn nhiều so với huấn luyện lại toàn bộ. Trọng số Ở phía cập nhật trọng số, các nhà nghiên cứu theo đuổi học cấp tham số thực sự: chỉ cập nhật các phần liên quan của trọng số — các lớp nhớ rSparse, tối ưu hóa mô hình qua phản hồi (reinforcement learning loop), hoặc huấn luyện trong thời gian dự đoán (test-time training) để nén ngữ cảnh vào trọng số. Đây là các phương pháp sâu nhất, khó triển khai nhất, nhưng cho phép mô hình nội tại hóa hoàn toàn kiến thức hoặc kỹ năng mới. Các cơ chế cập nhật trọng số đa dạng. Một số hướng nghiên cứu chính: Chú thích hình: Tổng quan các hướng nghiên cứu về học cấp trọng số Các hướng nghiên cứu về trọng số bao gồm nhiều con đường song song. Phương pháp điều chỉnh và không gian trọng số lâu đời nhất là EWC (Kirkpatrick et al., 2017), dựa trên độ quan trọng của các tham số đối với nhiệm vụ trước đó để phạt các thay đổi; hoặc phương pháp hòa trộn trọng số (Kozal et al., 2024), trong đó các trọng số mới và cũ được pha trộn trong không gian tham số, nhưng cả hai đều khá mong manh khi mở rộng quy mô. Huấn luyện trong thời gian dự đoán (test-time training) do Sun et al. (2020) mở đầu, sau này phát triển thành các nguyên tắc kiến trúc như TTT, TTT-E2E, TTT-Discover, với ý tưởng khác biệt: thực hiện gradient descent trên dữ liệu kiểm thử, để nén thông tin mới vào trọng số tại thời điểm cần thiết. Meta-learning đặt câu hỏi: chúng ta có thể huấn luyện mô hình biết "cách học" không? Từ MAML (Finn et al., 2017) với khởi tạo tham số ít mẫu thân thiện, đến Behrouz et al. (2025) với học phân tầng (Nested Learning), mô hình được cấu trúc thành các mô-đun thích nghi nhanh theo thời gian ngắn và cập nhật chậm theo thời gian dài, lấy cảm hứng từ quá trình củng cố ký ức sinh học. Distillation (chưng cất) giúp giữ lại kiến thức của các nhiệm vụ trước bằng cách bắt mô hình học theo các điểm kiểm tra của giáo viên đã đóng băng. LoRD (Liu et al., 2025) kết hợp cắt tỉa mô hình và bộ đệm phát lại, giúp quá trình chưng cất hiệu quả đến mức có thể liên tục vận hành. Tự chưng cất (SDFT, Shenfeld et al., 2026) đảo ngược nguồn gốc, dùng đầu ra của chính mô hình trong điều kiện chuyên gia làm tín hiệu huấn luyện, bỏ qua thảm họa quên sequence. Recursive self-improvement (tự cải tiến đệ quy) hoạt động dựa trên ý tưởng tương tự: STaR (Zelikman et al., 2022) dẫn dắt khả năng suy luận từ chuỗi suy luận tự sinh; AlphaEvolve (DeepMind, 2025) phát hiện ra các thuật toán tối ưu đã không được cải tiến trong hàng chục năm; Silver và Sutton định nghĩa học của trí tuệ nhân tạo là một dòng chảy liên tục của kinh nghiệm không ngừng. Các hướng nghiên cứu này đang hội tụ. TTT-Discover đã kết hợp huấn luyện trong thời gian kiểm thử và khám phá dựa trên RL. HOPE nhúng vòng học nhanh chậm vào cùng một kiến trúc. SDFT biến quá trình chưng cất thành thao tác tự cải tiến cơ bản. Ranh giới giữa các phương pháp đang mờ dần. Các hệ thống học liên tục thế hệ tiếp theo có khả năng kết hợp nhiều chiến lược: dùng chuẩn hóa để ổn định, meta-learning để tăng tốc, tự cải tiến để cộng hưởng lợi ích. Một số công ty khởi nghiệp ngày càng nhiều đang đặt cược vào các tầng khác nhau của hệ công nghệ này. Bản đồ hệ sinh thái khởi nghiệp về học liên tục Phần phi tham số của quang phổ là phần được biết đến nhiều nhất. Các công ty vỏ ngoài (Letta, mem0, Subconscious) xây dựng các lớp phối hợp và khung sườn quản lý nội dung đưa vào cửa sổ ngữ cảnh. Các hệ thống lưu trữ ngoài và hạ tầng RAG (như Pinecone, xmemory) cung cấp nền tảng truy xuất. Dữ liệu đã có, thách thức là đưa đúng phần đúng vào đúng thời điểm trước mô hình. Khi cửa sổ ngữ cảnh mở rộng, các công ty này cũng mở rộng không gian thiết kế, đặc biệt là phần vỏ ngoài, khi hàng loạt startup mới xuất hiện để quản lý các chiến lược ngữ cảnh ngày càng phức tạp. Phần trọng số, sớm hơn và đa dạng hơn, là nơi các công ty thử nghiệm "nén sau khi triển khai", giúp mô hình nội tại hóa kiến thức mới trong trọng số. Các con đường này chia thành các cược khác nhau về cách mô hình "học" sau khi phát hành. Nén một phần: không cần huấn luyện lại vẫn có thể học. Một số nhóm xây dựng các mô-đun kiến thức cắm vào (bộ nhớ KV nén, lớp thích nghi, bộ nhớ ngoài), giúp mô hình chung đạt được chuyên môn hóa mà không cần huấn luyện lại toàn bộ. Lý luận chung là: bạn có thể đạt được nén có ý nghĩa (không chỉ truy xuất), đồng thời kiểm soát được cân bằng ổn định và khả năng thích nghi, vì việc học tách biệt khỏi toàn bộ không gian tham số. Một mô hình 8 tỷ tham số cộng với các mô-đun phù hợp có thể đạt hiệu suất tương đương các mô hình 109 tỷ tham số trên các nhiệm vụ mục tiêu, bộ nhớ chiếm phần nhỏ. Ưu điểm là khả năng kết hợp: các mô-đun này có thể cắm vào các kiến trúc Transformer hiện có, dễ thay thế hoặc cập nhật, chi phí thử nghiệm thấp hơn nhiều so với huấn luyện lại toàn bộ. Học qua phản hồi và vòng lặp: học từ tín hiệu trong quá trình vận hành. Một số nhóm đặt cược rằng, các tín hiệu phong phú nhất để học sau khi triển khai đã tồn tại trong vòng lặp vận hành — phản hồi của người dùng, thành bại của nhiệm vụ, phần thưởng từ kết quả thực tế. Ý tưởng cốt lõi là mô hình nên xem mỗi lần tương tác như một tín hiệu huấn luyện tiềm năng, chứ không chỉ là yêu cầu suy luận. Điều này rất giống cách con người tiến bộ trong công việc: làm việc, nhận phản hồi, nội tại hóa các phương pháp hiệu quả. Thách thức kỹ thuật là chuyển đổi các phản hồi thưa thớt, nhiễu loạn, đôi khi mang tính đối kháng thành các cập nhật trọng số ổn định, tránh quên quá mức. Nhưng một mô hình thực sự có thể học từ vòng đời vận hành sẽ tạo ra giá trị cộng hưởng theo cách mà hệ thống ngữ cảnh không thể làm được. Học dựa trên dữ liệu: học từ tín hiệu đúng đắn. Một cược liên quan nhưng khác biệt là, giới hạn không nằm ở thuật toán học, mà ở dữ liệu huấn luyện và hệ thống xung quanh. Các nhóm này tập trung vào chọn lọc, tạo ra hoặc tổng hợp dữ liệu phù hợp để thúc đẩy cập nhật liên tục: giả định rằng, một mô hình có tín hiệu học tốt, có chất lượng cao, cấu trúc rõ ràng, chỉ cần ít bước gradient là có thể cải thiện đáng kể. Điều này phù hợp với các công ty dựa trên vòng phản hồi, nhưng nhấn mạnh vấn đề ở phần trên: mô hình có thể học hay không là chuyện một, còn nó học cái gì, học đến mức nào lại là chuyện khác. Kiến trúc mới: học khả năng từ thiết kế nền tảng. Các cược đột phá nhất cho rằng, chính kiến trúc Transformer là giới hạn, và để học liên tục cần một nguyên lý tính toán hoàn toàn khác: kiến trúc có khả năng động trong thời gian liên tục và có cơ chế nhớ tích hợp sẵn. Lập luận này dựa trên tính cấu trúc: nếu muốn có một hệ thống học liên tục, bạn cần tích hợp cơ chế học vào nền tảng kiến trúc. Bản đồ các công ty khởi nghiệp về học liên tục Tất cả các phòng thí nghiệm lớn cũng đang tích cực tham gia vào các lĩnh vực này. Có nhóm đang khám phá các phương pháp quản lý ngữ cảnh và suy luận theo chuỗi, có nhóm thử nghiệm các mô-đun nhớ ngoài hoặc pipeline tính toán trong thời gian ngủ, còn vài công ty bí mật đang theo đuổi kiến trúc mới. Lĩnh vực này còn rất sơ khai, chưa có phương pháp nào thắng thế, và xét đến tính đa dạng của các ứng dụng, cũng không nên chỉ có một người chiến thắng. Tại sao cập nhật trọng số sơ khai lại thất bại Trong môi trường sản xuất, cập nhật tham số mô hình sẽ gây ra một loạt các mô hình thất bại chưa được giải quyết triệt để trên quy mô lớn. Chú thích hình: Các mô hình thất bại của cập nhật trọng số sơ khai Các vấn đề kỹ thuật đã được ghi nhận đầy đủ. Quên cục bộ (catastrophic forgetting) nghĩa là mô hình quá nhạy cảm với dữ liệu mới để học, sẽ phá hủy các biểu diễn đã có — đó là nghịch lý ổn định và khả năng thích nghi. Thời gian phân tách nghĩa là các quy tắc bất biến và trạng thái biến đổi bị nén chung trong cùng một tập trọng số, cập nhật một cái sẽ làm hỏng cái kia. Sự thất bại trong tích hợp logic là do các cập nhật về thực tế không lan truyền đến các suy luận của nó: thay đổi chỉ giới hạn trong cấp độ chuỗi token, chứ không phải trong cấp độ khái niệm ngữ nghĩa. Việc quên (unlearning) vẫn chưa thể thực hiện: không có phép trừ có thể vi phân, nên không có phương pháp chính xác để loại bỏ kiến thức giả hoặc độc hại. Ngoài ra, còn một vấn đề ít được chú ý hơn. Việc tách biệt giữa huấn luyện và triển khai hiện nay không chỉ là vấn đề kỹ thuật, mà còn là ranh giới an toàn, có thể kiểm soát và quản lý. Mở rộng ranh giới này sẽ gây ra nhiều vấn đề cùng lúc. Phù hợp an toàn có thể suy giảm không dự đoán được: thậm chí fine-tuning trên dữ liệu an toàn cũng có thể gây ra các hành vi lệch lạc rộng lớn. Cập nhật liên tục tạo ra một bề mặt tấn công nhiễm độc dữ liệu — một dạng tiêm kích hoạt lặng lẽ, kéo dài, nằm trong trọng số. Khả năng kiểm tra, xác thực cũng sụp đổ, vì mô hình liên tục cập nhật là một mục tiêu di động, không thể version control, kiểm thử hồi quy hoặc xác nhận một lần. Khi tương tác của người dùng bị nén trong trọng số, rủi ro về quyền riêng tư tăng cao, thông tin nhạy cảm có thể bị "baked in" vào biểu diễn, khó lọc hơn so với thông tin trong ngữ cảnh truy xuất. Đây là các vấn đề mở, chứ không phải là không thể giải quyết. Giải quyết chúng cũng giống như giải quyết các thách thức kiến trúc cốt lõi, đều nằm trong chương trình nghị sự của nghiên cứu học liên tục. Từ "Memento" đến trí nhớ thực sự Bi kịch của Leonard trong "Memento" không phải là anh không thể vận hành — trong mọi tình huống, anh đều rất thông minh, thậm chí xuất sắc. Bi kịch của anh là anh không thể cộng hưởng lợi ích. Mỗi trải nghiệm đều nằm ngoài tầm nội tại — một bức ảnh Polaroid, một hình xăm, một mảnh giấy ghi chú của người khác. Anh có thể truy xuất, nhưng không thể nén kiến thức mới. Khi Leonard đi qua mê cung tự xây dựng này, ranh giới giữa thực và niềm tin bắt đầu mờ nhạt. Bệnh của anh không chỉ lấy đi ký ức; nó buộc anh phải liên tục tái tạo ý nghĩa, khiến anh vừa là thám tử trong câu chuyện của chính mình, vừa là người kể chuyện không đáng tin cậy. Ngày nay, AI cũng vận hành trong giới hạn tương tự. Chúng ta xây dựng các hệ thống truy xuất cực kỳ mạnh mẽ: cửa sổ ngữ cảnh dài hơn, vỏ ngoài thông minh hơn, nhóm đa trí tuệ phối hợp, và tất cả đều có tác dụng. Nhưng truy xuất không đồng nghĩa với học hỏi. Một hệ thống có thể tra cứu mọi sự thật chưa chắc đã bị buộc phải tìm ra cấu trúc. Nó không bị buộc phải tổng quát hóa. Việc huấn luyện một cơ chế nén dữ liệu mạnh mẽ — biến dữ liệu gốc thành biểu diễn có thể chuyển đổi — chính là thứ chúng ta dừng lại ngay tại thời điểm phát hành. Con đường tiến lên có thể không phải là một đột phá duy nhất, mà là một hệ thống phân tầng. Học theo ngữ cảnh vẫn sẽ là tuyến phòng thủ đầu tiên: nó là nguyên bản, đã được xác thực, và liên tục cải tiến. Các cơ chế mô-đun có thể xử lý các trung gian giữa cá nhân hóa và chuyên môn hóa lĩnh vực. Nhưng đối với những vấn đề thực sự khó khăn — khám phá, thích nghi chống lại, kiến thức ẩn sâu không thể diễn đạt bằng lời — chúng ta có thể cần cho mô hình tiếp tục nén kinh nghiệm vào trọng số sau khi huấn luyện. Điều này đòi hỏi các kiến trúc thưa, mục tiêu meta-learning và vòng tự cải tiến tiến bộ. Nó có thể còn cần chúng ta định nghĩa lại ý nghĩa của "mô hình": không chỉ là một tập hợp trọng số cố định, mà còn là một hệ thống tiến hóa, chứa đựng ký ức, thuật toán cập nhật của nó, và khả năng trừu tượng hóa từ chính kinh nghiệm của nó. Các tủ hồ sơ ngày càng lớn. Nhưng dù lớn đến đâu, vẫn chỉ là tủ hồ sơ. Bước đột phá nằm ở chỗ làm thế nào để mô hình sau khi triển khai có thể thực hiện việc huấn luyện — nén, trừu tượng, học hỏi — chính điều làm cho nó mạnh mẽ. Chúng ta đang đứng trước ngã rẽ từ một mô hình mất trí nhớ sang một mô hình có thể tích lũy kinh nghiệm. Nếu không, chúng ta sẽ mãi mắc kẹt trong "Memento" của chính mình.
0
0
0
0
金色财经_

金色财经_

21 tiếng trước
Tác giả: Malika Aubakirova, Matt Bornstein;Nguồn: a16z;Dịch: Shaw, Jinse Caijing Trong bộ phim của Christopher Nolan, "Memento", Leonard Shelby sống trong một hiện tại vỡ vụn. Sau chấn thương sọ não gây ra, anh mắc chứng mất trí nhớ tiền đình, không thể hình thành ký ức mới. Mỗi vài phút, thế giới của anh lại được đặt lại, khiến anh bị mắc kẹt trong khoảnh khắc vĩnh cửu, tách rời khỏi mọi thứ vừa xảy ra, cũng không thể xác định điều gì sẽ xảy ra tiếp theo. Để tồn tại, anh xăm các gợi ý trên cơ thể, chụp ảnh Polaroid, dùng các công cụ bên ngoài để ghi nhớ những thông tin não không thể lưu giữ. **Mô hình ngôn ngữ lớn (LLM)** cũng sống trong một hiện tại vĩnh cửu tương tự. Chúng thu nhận lượng kiến thức khổng lồ trong quá trình huấn luyện, được cố định trong các tham số, nhưng không thể hình thành ký ức mới — không thể cập nhật tham số của chính mình dựa trên trải nghiệm mới. Để bù đắp cho nhược điểm này, chúng ta xây dựng các khung hỗ trợ khác nhau: xem lịch sử đối thoại như ghi chú ngắn hạn, hệ thống truy xuất như sổ ghi chép bên ngoài, hướng dẫn hệ thống như hình xăm chỉ dẫn. Nhưng bản thân mô hình chưa từng thực sự nội tại hóa thông tin mới. Ngày càng nhiều nhà nghiên cứu cho rằng, điều này là chưa đủ. Học theo ngữ cảnh (ICL) đã đủ cho các câu hỏi có sẵn câu trả lời hoặc đoạn trả lời đã tồn tại ở đâu đó trong thế giới. Nhưng đối với các câu hỏi cần phát hiện sáng tạo thực sự (như các vấn đề toán học mới), các kịch bản đối kháng (như an ninh mạng), hoặc kiến thức tiềm ẩn khó diễn đạt bằng lời, có lý do rõ ràng để cho rằng: mô hình cần một khả năng, sau khi triển khai, có thể cập nhật kiến thức và kinh nghiệm trực tiếp vào tham số của chính nó. Học theo ngữ cảnh là tạm thời. Học thực sự đòi hỏi nén thông tin. Nếu không thể để mô hình liên tục thực hiện học nén, chúng ta có thể mãi mãi bị mắc kẹt trong hiện tại vĩnh cửu kiểu "Memento". Ngược lại, nếu chúng ta có thể giúp mô hình xây dựng cấu trúc ghi nhớ của riêng nó, thay vì dựa vào các công cụ bên ngoài tùy chỉnh, có thể sẽ mở ra một chiều mới về mở rộng quy mô. Lĩnh vực nghiên cứu này được gọi là **học liên tục**. Mặc dù khái niệm này không mới (có thể truy nguyên từ nghiên cứu của McCloskey và Cohen năm 1989), nhưng chúng tôi cho rằng, nó là một trong những hướng nghiên cứu quan trọng nhất trong lĩnh vực trí tuệ nhân tạo hiện nay. Trong hai đến ba năm qua, khả năng của mô hình đã đạt được bước nhảy ngoạn mục, và khoảng cách giữa "đã biết" và "có thể biết" ngày càng rõ ràng hơn. Do đó, bài viết này muốn chia sẻ các quan điểm chúng tôi đã trao đổi với các nhà nghiên cứu hàng đầu trong lĩnh vực, làm rõ các phương pháp kỹ thuật khác nhau của học liên tục, và thúc đẩy sự phát triển của chủ đề này trong hệ sinh thái khởi nghiệp. Trước tiên, nói về ngữ cảnh ----- Trước khi bàn về học tham số (tức là học thông qua cập nhật trọng số của mô hình), cần thừa nhận rằng: học theo ngữ cảnh thực sự hiệu quả, và có lý do chính đáng để tin rằng nó sẽ duy trì lợi thế này. Transformer về bản chất là mô hình dự đoán từ tiếp theo dựa trên điều kiện của chuỗi. Chỉ cần đầu vào là chuỗi phù hợp, không cần thay đổi trọng số, nó có thể thể hiện các hành vi phong phú đáng kinh ngạc. Đây cũng là lý do tại sao quản lý ngữ cảnh, kỹ thuật gợi ý, tinh chỉnh hướng dẫn và học mẫu nhỏ lại mạnh mẽ như vậy. Trí tuệ tiềm ẩn trong các tham số tĩnh, còn biểu hiện bên ngoài của mô hình sẽ thay đổi mạnh mẽ theo nội dung của cửa sổ đầu vào. Phân tích sâu của Cursor về quy mô trí tuệ tự lập trong các hệ thống lập trình tự động cũng minh chứng rõ ràng điều này: **_“Hiệu suất lớn của hệ thống, về cơ bản, phụ thuộc vào cách chúng ta thiết kế các gợi ý cho trí tuệ nhân tạo. Khung và mô hình đều quan trọng, nhưng gợi ý mới là yếu tố then chốt.”_** Trọng số của mô hình là cố định. Điều giúp hệ thống thực sự vận hành là việc sắp xếp ngữ cảnh một cách tinh vi: bao gồm những thông tin nào cần có, khi nào cần tóm tắt, làm thế nào để duy trì tính liên tục trong quá trình vận hành tự lập trong vài giờ. OpenClaw là một ví dụ tuyệt vời khác. Nó nổi bật không phải dựa vào đặc quyền mô hình đặc biệt (mô hình nền mở cho tất cả mọi người), mà vì nó có thể chuyển đổi hiệu quả ngữ cảnh và công cụ thành trạng thái có thể vận hành: theo dõi thao tác của bạn, cấu trúc hóa các sản phẩm trung gian, quyết định nội dung nào cần được đưa trở lại gợi ý, và giữ ký ức lâu dài về các công việc đã làm. OpenClaw đã nâng cao thiết kế khung trí tuệ nhân tạo thành một kỹ thuật chuyên nghiệp độc lập. Khi gợi ý xuất hiện lần đầu, nhiều nhà nghiên cứu nghi ngờ "Chỉ dựa vào gợi ý" có thể trở thành phương thức tương tác chính thức hay không, khi đó nó trông giống như một thủ thuật tạm thời hơn. Nhưng phương pháp này vốn phù hợp tự nhiên với kiến trúc Transformer, không cần huấn luyện lại, và còn có thể tự mở rộng theo sự tiến bộ của hiệu năng mô hình. Do đó, mô hình càng mạnh, hiệu quả của gợi ý càng cao. "Đơn sơ nhưng nguyên bản" trong cách tương tác thường sẽ thắng thế, vì chúng trực tiếp phối hợp với hệ thống nền tảng, chứ không đối đầu với nó. Cho đến nay, lĩnh vực mô hình ngôn ngữ lớn vẫn đang như vậy. Mô hình không gian trạng thái: khả năng ngữ cảnh siêu việt -------------- Khi quy trình làm việc chính chuyển từ gọi mô hình ngôn ngữ lớn trực tiếp sang vòng lặp trí tuệ nhân tạo, áp lực của mô hình học theo ngữ cảnh ngày càng tăng. Trước đây, việc ngữ cảnh bị đầy ắp hoàn toàn là hiếm, thường chỉ xảy ra khi mô hình thực hiện một chuỗi nhiệm vụ độc lập dài, và tầng ứng dụng có thể dễ dàng cắt giảm hoặc nén lịch sử đối thoại. Nhưng trong kịch bản trí tuệ nhân tạo, một nhiệm vụ có thể chiếm dụng lượng lớn không gian ngữ cảnh khả dụng. Mỗi bước trong vòng lặp của trí tuệ nhân tạo đều dựa vào ngữ cảnh của vòng trước, thường sau 20 đến 100 bước sẽ thất bại — do ngữ cảnh cạn kiệt, tính logic giảm sút, cuối cùng không hội tụ được. Vì vậy, các phòng thí nghiệm AI hàng đầu hiện nay đang đầu tư mạnh vào nghiên cứu các mô hình có khả năng xử lý cửa sổ ngữ cảnh siêu lớn. Đây là hướng đi hợp lý, vì nó dựa trên nền tảng học theo ngữ cảnh đã được chứng minh hiệu quả, phù hợp với xu hướng chuyển đổi sang khả năng suy luận. Kiến trúc phổ biến nhất là kết hợp lớp ghi nhớ cố định với các đầu chú ý thông thường, tức là mô hình không gian trạng thái và các biến thể chú ý tuyến tính (gọi chung là SSM). Khi xử lý ngữ cảnh dài, khả năng mở rộng của SSM vượt trội so với chú ý truyền thống. Mục tiêu là giúp trí tuệ nhân tạo duy trì tính logic trong các vòng lặp dài hơn, nâng số bước hiệu quả từ khoảng 20 lên khoảng 20.000, mà không làm mất đi các kỹ năng và kiến thức rộng lớn của Transformer truyền thống. Nếu thành công, đây sẽ là bước đột phá lớn cho các hệ thống trí tuệ vận hành lâu dài. Bạn thậm chí có thể xem đây như một dạng học liên tục: dù không cập nhật trọng số, nhưng thêm một lớp ghi nhớ bên ngoài gần như không cần reset. Vì vậy, các phương pháp phi tham số này thực sự tồn tại và mang lại hiệu quả mạnh mẽ. Bất kỳ đánh giá nào về học liên tục đều phải bắt đầu từ đây. Vấn đề không phải là hệ thống dựa trên ngữ cảnh hiện tại có hiệu quả hay không — chúng thực sự hiệu quả. Mà là chúng ta đã chạm tới giới hạn hay chưa, và các phương pháp mới có thể giúp chúng ta tiến xa hơn. Hạn chế của ngữ cảnh: Ảo tưởng tủ hồ sơ ----------- > “AGI và quá trình tiền huấn luyện về cơ bản đã vượt quá mục tiêu… Con người không phải là AGI. Dĩ nhiên, con người có hệ thống kỹ năng nền tảng, nhưng lại thiếu lượng kiến thức khổng lồ. Ngược lại, chúng ta dựa vào học liên tục. Giả sử tôi tạo ra một thiếu niên siêu thông minh 15 tuổi, thì thực ra cậu ấy biết rất ít. Cậu ấy là một học sinh xuất sắc, đầy khao khát học hỏi. Bạn có thể bảo cậu ấy: ‘Làm lập trình viên, trở thành bác sĩ.’ Việc triển khai mô hình đã đòi hỏi một quá trình học tập, thử sai. Đó là một quá trình tiến bộ, chứ không phải giao một sản phẩm hoàn chỉnh ngay lập tức.” — Ilya Sutskever Hãy tưởng tượng một hệ thống có không gian lưu trữ vô hạn: tủ hồ sơ lớn nhất thế giới, mọi sự thật đều được lập chỉ mục hoàn hảo, có thể truy xuất tức thì. Nó có thể tìm thấy bất kỳ thông tin nào. Nhưng nó đã học chưa? Chưa. Nó chưa từng được yêu cầu nén thông tin. **Đây là luận điểm cốt lõi của chúng tôi, cũng như quan điểm của Ilya Sutskever: bản chất của mô hình ngôn ngữ lớn chính là thuật toán nén.** Trong giai đoạn huấn luyện, chúng nén internet vào trong các tham số. Việc nén này là có tổn thất, và chính điều này lại là điểm mạnh của chúng. Nén buộc mô hình phải phát hiện cấu trúc, thực hiện tổng quát hóa, xây dựng các biểu diễn có thể chuyển đổi qua ngữ cảnh. Mô hình chỉ ghi nhớ cứng nhắc các mẫu huấn luyện sẽ kém hơn nhiều so với mô hình có khả năng trích xuất quy luật nền tảng. Chính việc nén có tổn thất này là quá trình học. Điều trớ trêu là: chính cơ chế giúp các mô hình ngôn ngữ lớn trở nên mạnh mẽ trong huấn luyện — nén dữ liệu gốc thành biểu diễn nhỏ gọn, có thể chuyển đổi — lại bị chúng ta từ chối cho phép chúng tiếp tục sử dụng sau khi triển khai. Chúng ta dừng nén khi phát hành mô hình, thay thế bằng bộ nhớ ngoài. Tất nhiên, nhiều khung trí tuệ nhân tạo sẽ có cách nén ngữ cảnh theo cách tùy chỉnh. Nhưng theo "bài học đắng cay", chẳng phải đáng lẽ nên để mô hình tự học cách nén này một cách trực tiếp, quy mô lớn sao? Yu Sun đã chia sẻ một ví dụ toán học để minh họa tranh luận này. Lấy ví dụ về Định lý Fermat: hơn 350 năm qua, không nhà toán học nào chứng minh nó — không phải vì thiếu tài liệu liên quan, mà vì phương pháp giải quá sáng tạo. Khoảng cách giữa hệ thống toán học hiện có và kết quả cuối cùng quá lớn. Năm 1990, nhà toán học người Anh Andrew Wiles đã gần như cô lập trong 7 năm để nghiên cứu, cuối cùng đã chinh phục được bài toán này, phải tạo ra các phương pháp mới mạnh mẽ để chứng minh. Lập luận của ông đã xây dựng cầu nối giữa hai nhánh lớn của toán học — đường cong elliptic và dạng mô hình. Dù trước đó, Ken Ribet đã chứng minh rằng, chỉ cần chứng minh mối liên hệ này, định lý Fermat sẽ được giải quyết, nhưng trước Wiles, không ai có công cụ lý thuyết để xây dựng cầu nối đó. Chứng minh của Grigori Perelman về Giả thuyết Poincaré cũng tương tự. **Vấn đề cốt lõi là: những ví dụ này có chứng minh rằng các mô hình ngôn ngữ lớn thiếu một khả năng nào đó — khả năng cập nhật các kiến thức nền, suy nghĩ sáng tạo thực sự? Hay chúng lại chứng minh điều ngược lại: tất cả kiến thức của con người chỉ là dữ liệu để huấn luyện và tổ hợp lại, và thành tựu của Wiles hay Perelman chỉ là kết quả mà các mô hình ngôn ngữ lớn có thể đạt được khi quy mô lớn hơn?** Đây là một câu hỏi cần có bằng chứng thực nghiệm, hiện chưa có kết luận rõ ràng. Nhưng chúng tôi đã rõ ràng rằng, có nhiều loại vấn đề mà học theo ngữ cảnh hiện tại chưa thể giải quyết, còn học tham số thì có thể. Ví dụ, ngoài ra, học theo ngữ cảnh chỉ giới hạn trong nội dung có thể biểu đạt bằng ngôn ngữ, còn trọng số mô hình có thể mã hóa các khái niệm mà không thể truyền đạt qua gợi ý bằng lời. Một số dạng mô hình có chiều cao quá lớn, quá tiềm ẩn, quá cấu trúc sâu, không thể chứa đựng trong ngữ cảnh. Ví dụ, trong hình ảnh y học, các đặc trưng hình thái phân biệt lành tính và u ác, hoặc các dao động vi âm trong âm thanh xác định nhịp điệu riêng của người nói — những dạng mẫu này rất khó phân tích thành mô tả chính xác bằng lời. Ngôn ngữ chỉ có thể gần đúng biểu đạt chúng. Dù gợi ý dài đến đâu, cũng không thể truyền đạt kiến thức này — kiến thức này chỉ tồn tại trong trọng số. Chúng nằm trong không gian tiềm ẩn của biểu diễn học, chứ không trong văn bản. Dù mở rộng cửa sổ ngữ cảnh đến đâu, vẫn sẽ có kiến thức không thể mô tả bằng văn bản, chỉ có thể lưu trữ trong tham số. Điều này có thể giải thích tại sao các chức năng như "nhớ bạn" của ChatGPT thường khiến người dùng cảm thấy không thoải mái, chứ không phải ngạc nhiên. Người dùng không thực sự muốn chỉ đơn thuần hồi tưởng, mà muốn có khả năng. Một mô hình nội tại hóa hành vi của bạn, có thể tổng quát để đối phó với các tình huống mới; còn mô hình chỉ truy xuất các ghi chép cũ thì không thể. "Đây là phản hồi của bạn đối với email này" (lặp lại từng từ) khác với "Tôi đủ hiểu ý bạn, có thể dự đoán bạn cần gì" — đó là sự khác biệt giữa truy xuất và học hỏi, giữa ghi nhớ và nội tại hóa. Giới thiệu học liên tục ------ Các phương pháp thực hiện học liên tục rất đa dạng, nhưng điểm phân biệt chính không nằm ở "có hay không có khả năng ghi nhớ", mà ở: **nén xảy ra ở đâu**. Các phương pháp này có thể chia thành ba loại, tạo thành một dãy liên tục: * Không nén (chỉ truy xuất, trọng số đóng băng) * Nén hoàn toàn nội tại (học trong trọng số, mô hình thực sự trở nên thông minh hơn) * Một phương án trung gian quan trọng: phương án mô-đun ### Ngữ cảnh Trong lĩnh vực ngữ cảnh, các nhóm nghiên cứu sẽ xây dựng các quy trình truy xuất thông minh hơn, khung trí tuệ nhân tạo và hệ thống tổ chức gợi ý. Đây là hướng đi đã trưởng thành nhất hiện nay: hạ tầng đã được xác nhận, quy trình triển khai rõ ràng và kiểm soát được. Hạn chế của nó nằm ở độ sâu, tức là độ dài ngữ cảnh. Có một hướng mở mới đáng chú ý: kiến trúc đa trí tuệ nhân tạo, xem như một chiến lược mở rộng ngữ cảnh. Nếu một mô hình đơn lẻ bị giới hạn trong cửa sổ 128K token, thì một nhóm các trí tuệ hợp tác — mỗi trí tuệ giữ ngữ cảnh riêng, chuyên xử lý một phần vấn đề, và trao đổi kết quả — có thể gần như thực hiện bộ nhớ làm việc vô hạn. Mỗi trí tuệ hoàn thành học ngữ cảnh trong cửa sổ của chính nó, rồi hệ thống tổng hợp kết quả. Các dự án nghiên cứu tự chủ của Karpathy gần đây và ví dụ xây dựng trình duyệt web của Cursor đều thuộc dạng thực hành sơ khai này. Đây là phương pháp phi tham số, không thay đổi trọng số, nhưng cực kỳ nâng cao giới hạn của hệ thống dựa trên ngữ cảnh. ### Mô-đun hóa Trong hướng mô-đun, các nhóm sẽ xây dựng các mô-đun kiến thức có thể gắn vào (bộ nhớ khóa-giá trị nén, lớp thích nghi, kho lưu trữ bên ngoài, v.v.), giúp mô hình chung có thể có khả năng chuyên môn mà không cần huấn luyện lại toàn bộ. Một mô hình 8 tỷ tham số kết hợp với các mô-đun phù hợp có thể đạt hiệu quả của mô hình 1090 tỷ tham số, mà chỉ tiêu thụ rất ít bộ nhớ. Ưu điểm của phương án này là khả năng tương thích với kiến trúc Transformer hiện tại. ### Cập nhật trọng số Trong hướng cập nhật trọng số, các nhà nghiên cứu đang khám phá học tham số thực sự, như là cập nhật các lớp nhớ rSparse chỉ liên quan, tối ưu hóa liên tục qua phản hồi, hoặc huấn luyện trong giai đoạn suy luận để nén ngữ cảnh vào trọng số. Đây là các phương án sâu nhất, khó triển khai nhất, nhưng có thể giúp mô hình nội tại hóa hoàn toàn thông tin hoặc kỹ năng mới. Hiện đã có nhiều cơ chế cập nhật tham số khác nhau, dưới đây là một số hướng nghiên cứu tiêu biểu: Lĩnh vực cập nhật trọng số gồm nhiều tuyến công nghệ song song. **Phương pháp điều chỉnh và không gian trọng số** là hướng cổ điển nhất: **Ổn định trọng số linh hoạt** sẽ dựa trên tầm quan trọng của tham số đối với nhiệm vụ trước, để áp dụng các hình phạt thay đổi tham số; **Phương pháp hòa trộn trọng số** kết hợp các trọng số cũ và mới trong không gian tham số, nhưng thường không ổn định khi quy mô lớn. **Huấn luyện trong quá trình kiểm thử** do Sun và cộng sự đề xuất từ năm 2020, sau đó phát triển thành nhiều mô-đun hạ tầng khác nhau (lớp TTT, TTT toàn phần, TTT-Discover, v.v.), ý tưởng là thực hiện đạo hàm ngược trên dữ liệu kiểm thử, rồi nén thông tin mới vào trọng số mô hình tại các điểm then chốt. Học meta (meta-learning) thì khám phá khả năng huấn luyện ra mô hình có khả năng học, từ khởi tạo tham số MAML phù hợp cho các tập mẫu nhỏ, đến phương pháp học lồng nhau của Behrouz và cộng sự năm 2025, mô hình được thiết kế thành cấu trúc tối ưu đa cấp, vận hành theo các thời gian khác nhau, lấy cảm hứng từ cơ chế củng cố trí nhớ sinh học, thiết lập các mô-đun thích nghi nhanh và cập nhật chậm. Kỹ thuật distillation (kỹ thuật chưng cất kiến thức) giúp giữ lại kiến thức về nhiệm vụ cũ bằng cách bắt mô hình học phù hợp với trọng số của mô hình giáo viên đã cố định. LoRD dùng cách cắt tỉa đồng thời mô hình và bộ đệm ghi nhớ, giúp quá trình này vận hành liên tục hiệu quả. **Tự distillation** đảo ngược nguồn tín hiệu, dùng đầu ra do chính mô hình sinh ra dựa trên điều kiện của chuyên gia làm tín hiệu huấn luyện, tránh mất mát thảm khốc trong fine-tuning liên tục. **Tiến hóa tự thân (self-evolution)** cũng tương tự: STaR dùng logic suy luận do chính mô hình tạo ra để nâng cao năng lực; AlphaEvolve khám phá các hướng tối ưu thuật toán chưa từng được cải tiến trong hàng chục năm; Silver và Sutton đề xuất "thời đại kinh nghiệm", xây dựng quá trình học của trí tuệ nhân tạo dựa trên dòng chảy liên tục của kinh nghiệm. Các hướng nghiên cứu này đang dần hội tụ. TTT-Discover đã kết hợp huấn luyện trong kiểm thử và khám phá dựa trên học tăng cường; kiến trúc HOPE tích hợp vòng lặp học nhanh chậm trong một mô hình duy nhất; SDFT biến quá trình distillation thành các đơn vị tự nâng cao. Các ranh giới giữa các phương pháp ngày càng mờ nhạt — hệ thống học liên tục thế hệ tiếp theo có thể sẽ tích hợp nhiều chiến lược, dùng chuẩn hóa để đảm bảo ổn định, meta-learning để tăng tốc học, tự nâng cao để cộng dồn năng lực. Nhiều startup đang xây dựng hệ sinh thái công nghệ này trên các tầng khác nhau. Hệ sinh thái khởi nghiệp trong lĩnh vực học liên tục ---------- Hướng phi tham số hiện là hướng phổ biến nhất. Các nhà cung cấp khung trí tuệ nhân tạo (Letta, mem0, Subconscious) xây dựng lớp tổ chức và khung hỗ trợ, quản lý nội dung cửa sổ ngữ cảnh đầu vào; hạ tầng truy xuất và sinh ra dựa trên tìm kiếm (RAG) như Pinecone, xmemory cung cấp nền tảng truy xuất. Dữ liệu đã tồn tại, thách thức chính là làm thế nào để chọn lọc và cung cấp đúng đắn các đoạn dữ liệu phù hợp vào đúng thời điểm. Khi cửa sổ ngữ cảnh mở rộng liên tục, không gian thiết kế của các công ty này cũng mở rộng theo, đặc biệt trong lĩnh vực khung, nhiều công ty mới đang xuất hiện để quản lý các chiến lược ngữ cảnh ngày càng phức tạp. Trong khi đó, hướng tham số hóa đã phát triển từ sớm hơn, với nhiều phương án đa dạng hơn. Các công ty liên quan thử nghiệm các giải pháp nén sau khi triển khai, giúp mô hình nội tại hóa thông tin mới. Tùy theo cách mô hình học sau khi phát hành, các hướng này có thể phân thành một số nhóm rõ ràng. **Nén cục bộ: học không cần huấn luyện lại**. Một số nhóm xây dựng các mô-đun kiến thức có thể gắn vào (bộ nhớ khóa-giá trị nén, lớp thích nghi, kho lưu trữ bên ngoài, v.v.), giúp mô hình chung có khả năng chuyên môn mà không cần huấn luyện lại toàn bộ. Ý tưởng chính là: đạt được nén thông tin có ý nghĩa trong mức độ ổn định và khả năng biến đổi có kiểm soát, chứ không chỉ đơn thuần truy xuất, vì quá trình học bị tách rời, không phân tán trong toàn bộ không gian tham số. Một mô hình 8 tỷ tham số kết hợp với các mô-đun phù hợp có thể đạt hiệu quả của các mô hình 1090 tỷ tham số, chỉ tiêu thụ ít bộ nhớ. Ưu điểm của hướng này là khả năng ghép nối: các mô-đun có thể trực tiếp phù hợp với kiến trúc Transformer hiện tại, dễ thay thế hoặc cập nhật, và chi phí thử nghiệm thấp hơn nhiều so với huấn luyện lại toàn bộ. **Học qua phản hồi và vòng lặp**. Một số nhóm khác cho rằng, sau khi triển khai, mô hình có thể học từ các tín hiệu phong phú nhất chính là trong quá trình vận hành: sửa lỗi của người dùng, thành công hay thất bại của nhiệm vụ, phần thưởng trong các tình huống thực tế. Ý tưởng chính là, mô hình nên xem mỗi lần tương tác như một tín hiệu huấn luyện tiềm năng, chứ không chỉ đơn thuần là yêu cầu suy luận. Điều này rất giống cách con người nâng cao năng lực trong công việc: thực hành, nhận phản hồi, nội tại hóa kinh nghiệm hiệu quả. Thách thức kỹ thuật là làm thế nào để biến các phản hồi thưa thớt, nhiễu loạn, thậm chí mang tính đối kháng thành các cập nhật trọng số ổn định, tránh mất trí nhớ thảm khốc; và khi mô hình thực sự học từ quá trình triển khai, giá trị của nó sẽ liên tục tích lũy theo thời gian — điều mà hệ thống dựa trên ngữ cảnh không thể làm được. **Học từ dữ liệu chất lượng cao**. Một hướng liên quan nhưng độc lập, cho rằng, vấn đề chính không phải là thuật toán học, mà là dữ liệu huấn luyện và hệ thống đi kèm. Nhóm này tập trung vào việc chọn lọc, tạo ra hoặc tổng hợp dữ liệu chất lượng cao, thúc đẩy cập nhật liên tục: ý tưởng chính là, nếu mô hình có thể tiếp cận các tín hiệu học tập chất lượng cao, có cấu trúc rõ ràng, thì chỉ cần ít bước đạo hàm là đã có thể nâng cao hiệu quả. Điều này phù hợp với quan điểm của hướng phản hồi, nhưng tập trung hơn vào phần đầu vào: không chỉ quan tâm mô hình có thể học hay không, mà còn quan tâm nội dung và mức độ học. **Kiến trúc hoàn toàn mới**. Hướng tiến xa nhất cho rằng, kiến trúc Transformer bản thân là giới hạn, và để có hệ thống học liên tục, cần một đơn vị tính toán hoàn toàn khác — có đặc tính động liên tục theo thời gian và có cơ chế ghi nhớ nội tại. Ý tưởng chính là, nếu muốn xây dựng hệ thống liên tục học, cần tích hợp khả năng học vào chính kiến trúc nền tảng. Các phòng thí nghiệm lớn cũng đang tích cực nghiên cứu các hướng này. Một số tập trung vào tối ưu quản lý ngữ cảnh và suy luận theo chuỗi, số khác thử nghiệm các mô-đun ghi nhớ bên ngoài hoặc quy trình tính toán offline (tính toán trong giai đoạn ngủ). Nhiều startup chưa công khai cũng đang phát triển kiến trúc mới hoàn toàn. Hiện tại, lĩnh vực này vẫn còn sơ khai, chưa có phương pháp nào chiếm ưu thế tuyệt đối; và xét theo đa dạng các ứng dụng, khả năng cao là sẽ không có một công ty nào thống trị hoàn toàn trong tương lai. Tại sao cập nhật trọng số trực tiếp lại không khả thi -------------- Việc cập nhật tham số mô hình trực tiếp trong môi trường sản xuất sẽ gây ra một loạt các vấn đề liên kết, mà đến nay vẫn chưa được giải quyết trong các quy mô lớn. Các vấn đề kỹ thuật này đã có nhiều tài liệu đề cập. Thảm họa quên lãng (catastrophic forgetting) có nghĩa là, khi mô hình quá nhạy cảm với dữ liệu mới, nó sẽ phá vỡ các biểu diễn đã có — đó chính là vấn đề về tính ổn định và khả năng thích nghi. Vấn đề phân tách chuỗi thời gian thể hiện qua việc các quy tắc bất biến và trạng thái biến đổi bị nén chung trong cùng một tập trọng số, việc cập nhật một bên sẽ làm hỏng bên kia. Sự hợp nhất logic thất bại vì việc cập nhật kiến thức không thể truyền dẫn đến các kết luận liên quan: thay đổi chỉ giới hạn trong chuỗi từ vựng, chứ không phải ở cấp độ khái niệm. Thêm nữa, việc loại bỏ kiến thức cũ vẫn chưa thể thực hiện được: không có phép trừ vi phân, nên không thể loại bỏ chính xác kiến thức sai lệch hoặc có hại. Ngoài ra, còn có các vấn đề ít được chú ý hơn. Chế độ đào tạo và vận hành tách rời hiện tại không chỉ là một sự sắp xếp kỹ thuật tiện lợi, mà còn là giới hạn về an toàn, khả năng kiểm soát và quản trị. Nếu phá vỡ giới hạn này, nhiều cơ chế sẽ cùng lúc thất bại. Việc đảm bảo an toàn có thể gặp phải sự thoái trào không thể dự đoán: ngay cả khi chỉ tinh chỉnh nhỏ trên dữ liệu tích cực, cũng có thể gây ra các lệch chuẩn lớn về sự phù hợp của mô hình. Việc cập nhật liên tục sẽ tạo ra các lỗ hổng tiêm nhiễm dữ liệu — một dạng tấn công tiêm kích hoạt các gợi ý trong trọng số, tồn tại chậm rãi và lâu dài. Khả năng kiểm soát và kiểm thử cũng sẽ bị ảnh hưởng, vì mô hình liên tục thay đổi, không thể quản lý phiên bản, kiểm tra hồi quy hay xác nhận một lần. Khi các tương tác của người dùng bị nén vào trọng số, rủi ro về quyền riêng tư sẽ tăng cao: thông tin nhạy cảm có thể được nhúng vào biểu diễn, khó lọc hơn so với ngữ cảnh truy xuất. Tất cả những vấn đề này vẫn còn bỏ ngỏ, chứ không phải là không thể. Giải quyết chúng, cũng như vượt qua các thách thức về kiến trúc cốt lõi, đều là các phần quan trọng trong chương trình nghiên cứu về học liên tục. Từ "memento" đến trí nhớ thực sự ------------- Trong "Memento", bi kịch của Leonard không phải là anh không thể sống bình thường: anh rất thông minh, thậm chí còn rất sáng suốt trong từng cảnh. Bi kịch của anh là không thể tích lũy năng lực theo cấp số nhân. Tất cả trải nghiệm đều nằm ngoài, dưới dạng ảnh Polaroid, hình xăm, ghi chú của người khác. Anh có thể truy xuất, nhưng không thể nén kiến thức mới. Khi Leonard đi qua mê cung do chính mình tạo ra, ranh giới giữa sự thật và niềm tin bắt đầu mờ nhạt. Bệnh của anh không chỉ lấy đi ký ức, mà còn buộc anh phải liên tục tái tạo ý nghĩa, khiến anh vừa là người điều tra, vừa là người kể chuyện không đáng tin cậy trong câu chuyện của chính mình. Ngày nay, trí tuệ nhân tạo cũng đang đối mặt với cùng một giới hạn. Chúng ta đã xây dựng các hệ thống truy xuất cực mạnh: **cửa sổ ngữ cảnh dài hơn, khung khái quát thông minh hơn, nhóm đa trí tuệ hợp tác hiệu quả hơn — và chúng thực sự hiệu quả!** Nhưng truy xuất không đồng nghĩa với học hỏi. Một hệ thống có thể tra cứu mọi sự thật, chưa từng bị yêu cầu phát hiện cấu trúc, cũng chưa từng cần thể hiện khả năng tổng quát. Chính cơ chế nén có tổn thất khiến huấn luyện trở nên mạnh mẽ — biến dữ liệu gốc thành biểu diễn có thể chuyển đổi, có thể mang lại khả năng tổng quát — đã bị chúng ta tắt đi ngay tại thời điểm triển khai. Con đường phát triển có thể không phải là một bước đột phá duy nhất, mà là một hệ thống phân tầng. Học theo ngữ cảnh vẫn sẽ là lớp phòng thủ đầu tiên: nó nguyên bản, đã được xác nhận, và vẫn đang được tối ưu liên tục. Cơ chế mô-đun có thể đảm nhận nhiệm vụ trung gian giữa cá nhân hóa và chuyên môn lĩnh vực. Nhưng đối mặt với các vấn đề sáng tạo, thích nghi chống đối, và kiến thức tiềm ẩn không thể diễn đạt bằng lời, chúng ta có thể cần mô hình vẫn có thể nén kinh nghiệm vào trọng số sau khi huấn luyện. Điều này đòi hỏi tiến bộ trong kiến trúc rSparse, mục tiêu meta-learning, và vòng lặp tự nâng cao. Có thể còn cần định nghĩa lại ý nghĩa của "mô hình": không còn là một tập hợp trọng số cố định, mà là một hệ thống liên tục tiến hóa, bao gồm ghi nhớ, thuật toán cập nhật, và khả năng trừu tượng quy luật từ chính kinh nghiệm của nó. Tủ hồ sơ sẽ ngày càng lớn hơn. Nhưng dù lớn đến đâu, nó cũng chỉ là tủ hồ sơ. **Bước đột phá thực sự là giúp mô hình tiếp tục làm điều đã khiến nó trở nên mạnh mẽ trong quá trình huấn luyện: nén, trừu tượng, học hỏi.** Chúng ta đang đứng trước một điểm then chốt, sẵn sàng chuyển từ mô hình như mất trí nhớ, sang một trí tuệ có phần cảm nhận về kinh nghiệm. Nếu không, chúng ta sẽ mãi mãi mắc kẹt trong chính "Memento" của mình.
0
0
0
0