Tạp chí Time đặt lên bìa phỏng vấn Anthropic: Công ty gây xáo trộn nhất toàn cầu, định giá 380 tỷ vượt qua Goldman Sachs

動區BlockTempo

TIME tiết lộ qua một bài báo điều tra sâu sắc rằng, Anthropic đã bị chính phủ Trump liệt vào danh sách rủi ro chuỗi cung ứng quốc gia an toàn vì từ chối cho phép Claude được sử dụng trong hệ thống vũ khí hoàn toàn tự động và giám sát quy mô lớn đối với công dân Mỹ; cùng ngày hôm đó, OpenAI nhanh chóng tiếp nhận hợp đồng quân sự, cuộc “đua xuống” này đang thử thách nguyên tắc và giới hạn đạo đức của công ty AI gây chấn động toàn cầu nhất. Bài báo này dựa trên bài viết của Leslie Dickstein, Simmone Shah trên TIME mang tựa đề “The Most Disruptive Company in the World”, do Động Quỹ biên dịch và chỉnh sửa.
(Thông tin tiền đề: Nhận diện khuôn mặt AI gây oan sai! Bà lão Mỹ bị giam trong tù cách xa 1200 dặm suốt nửa năm, cảnh sát không một lời xin lỗi)
(Thông tin bổ sung: Cựu Giám đốc kỹ thuật của Dropbox – bài viết nổi bật “Tôi đã dành cả đời để làm việc, giờ đây không còn giá trị và dễ dàng có được”)

Mục lục bài viết

Chuyển đổi

  • Cuộc đấu tranh vĩnh cửu giữa an toàn và tốc độ
  • Từ kẻ ít người biết đến dẫn đầu: Hành trình trỗi dậy của Anthropic
  • Hai giới đỏ: Vũ khí tự hành và giám sát quy mô lớn
  • Xung đột văn hóa và đối đầu chính trị
  • Nguồn gốc của Anthropic: Kẻ dị biệt ưu tiên an toàn
  • Mã Claude: Định nghĩa lại nghề “kỹ sư”
  • Tự cải tiến đệ quy: Nỗi sợ và sự mê hoặc tốc độ AI gia tăng
  • Chính sách RSP nới lỏng: Phanh tự giới hạn có bị mất tác dụng?
  • Hành động tại Venezuela: AI lần đầu tham gia sâu vào chiến trường thực tế
  • Đàm phán đổ vỡ, OpenAI tiếp nhận hợp đồng
  • Sau cơn bão: Liệu Anthropic có thể vượt qua?

Trong một phòng khách sạn ở Santa Clara, California, năm thành viên của công ty AI Anthropic đang tụ họp quanh một chiếc laptop trong trạng thái căng thẳng. Đó là tháng 2 năm 2025, họ đang tham dự một hội thảo gần đó thì nhận được một tin báo khiến họ không khỏi lo lắng: kết quả của một thử nghiệm kiểm soát cho thấy phiên bản mới của Claude sắp ra mắt có thể giúp khủng bố tổng hợp vũ khí sinh học.

Những người này thuộc “đội đỏ tiền tuyến” của Anthropic, chuyên đánh giá khả năng tiên tiến của Claude và dự đoán các rủi ro tiềm tàng trong các tình huống cực đoan, từ tấn công mạng đến các mối đe dọa sinh học. Sau khi nhận được cảnh báo, họ vội vã chạy về phòng, lật đỡ giường để làm bàn tạm thời, bắt đầu kiểm tra từng kết quả thử nghiệm.

Sau vài giờ phân tích căng thẳng, nhóm vẫn chưa thể xác định liệu sản phẩm mới có đủ an toàn hay không. Cuối cùng, Anthropic quyết định hoãn ra mắt Claude 3.7 Sonnet đúng 10 ngày, cho đến khi nhóm xác nhận rủi ro nằm trong giới hạn chấp nhận được.

Nghe có vẻ chỉ là mười ngày ngắn ngủi, nhưng đối với một công ty đang ở đỉnh cao công nghệ và trong một ngành đang nhanh chóng định hình lại thế giới, đó gần như là một thế hệ dài đằng đẵng.

Cuộc đấu tranh vĩnh cửu giữa an toàn và tốc độ

“Đội đỏ tiền tuyến” do Logan Graham đứng đầu, khi nhớ lại vụ “sốc sinh học vũ khí” đó, xem đó như một biểu tượng cho áp lực mà Anthropic phải chịu đựng trong những thời khắc then chốt — không chỉ đối với chính công ty này, mà còn đối với toàn thế giới. Anthropic là một trong những phòng thí nghiệm AI tiên phong chú trọng nhất đến an toàn, nhưng đồng thời cũng nằm ở tuyến đầu của cuộc đua, nỗ lực xây dựng các hệ thống AI ngày càng mạnh mẽ hơn. Nhiều nhân viên trong công ty tin rằng, nếu công nghệ này mất kiểm soát, hậu quả có thể khủng khiếp, từ chiến tranh hạt nhân đến diệt vong loài người.

Graham, 31 tuổi, vẫn còn trẻ trung, nhưng không né tránh trách nhiệm cân bằng giữa lợi ích to lớn và rủi ro lớn của AI. Anh nói: “Nhiều người lớn lên trong một thế giới tương đối hòa bình, sẽ có trực giác rằng trong một phòng họp, có một nhóm người trưởng thành, biết cách giữ mọi thứ trong tầm kiểm soát.”

“Nhưng thực tế là, không có ‘nhóm người lớn’. Phòng đó không tồn tại. Cánh cửa đó không tồn tại. Trách nhiệm chỉ nằm ở chính bạn.” Nếu câu nói này chưa đủ gây sốc, hãy nghe cách anh mô tả về cảnh báo sinh học vũ khí: “Đó là một ngày khá thú vị, cũng rất kích thích.”

Vài tuần sau, trong cuộc phỏng vấn tại trụ sở chính của Anthropic, Graham chia sẻ về những vấn đề này. Các phóng viên của TIME ở lại ba ngày, thăm hỏi các lãnh đạo, kỹ sư, trưởng nhóm sản phẩm và các thành viên nhóm an toàn của công ty, nhằm làm rõ lý do tại sao một công ty từng được xem là “kẻ lập dị” trong cuộc đua AI lại đột nhiên trở thành người dẫn đầu.

Từ kẻ ít người biết đến dẫn đầu: Hành trình trỗi dậy của Anthropic

Thời điểm đó, Anthropic vừa huy động được 30 tỷ USD từ các nhà đầu tư, chuẩn bị cho đợt IPO có thể diễn ra trong năm nay. (Đáng chú ý, Salesforce cũng là một trong các nhà đầu tư của Anthropic, và người sở hữu công ty mẹ của TIME, Marc Benioff, chính là CEO của Salesforce.) Hiện tại, định giá của Anthropic đã tăng lên 380 tỷ USD, vượt qua Goldman Sachs, McDonald’s, Coca-Cola và các tập đoàn truyền thống khác.

Doanh thu của công ty tăng trưởng như tên lửa. Hệ thống AI Claude đã được công nhận là một mô hình đẳng cấp thế giới, và các sản phẩm như Claude Code, Claude Cowork đang định hình lại khái niệm “kỹ sư” trong nghề nghiệp.

Các công cụ của Anthropic mạnh đến mức: cứ mỗi lần ra phiên bản mới, thị trường chứng khoán lại chao đảo, vì các nhà đầu tư ngày càng nhận thức rõ rằng, các đột phá công nghệ này có thể làm thay đổi toàn bộ ngành — từ dịch vụ pháp lý đến phát triển phần mềm. Trong vài tháng qua, Anthropic đã được xem là một trong những công ty có khả năng nhất để định hình lại “hình thái công việc trong tương lai”.

Tiếp đó, Anthropic dính vào một cuộc tranh luận gay gắt về “hình thái chiến tranh tương lai”.

Trong hơn một năm qua, Claude luôn là mô hình AI được chính phủ Mỹ tin cậy nhất, và là hệ thống AI tiên phong đầu tiên được phép triển khai trong môi trường bí mật. Tháng 1 năm 2026, nó thậm chí còn được sử dụng trong một chiến dịch táo bạo: bắt giữ Tổng thống Venezuela Nicolás Maduro tại Caracas. Theo báo cáo, trong chiến dịch này, AI được dùng để lập kế hoạch nhiệm vụ và phân tích tình báo, đánh dấu lần đầu tiên AI tiên phong tham gia sâu vào các hoạt động quân sự thực tế.

Tuy nhiên, trong vài tuần sau đó, mối quan hệ giữa Anthropic và Bộ Quốc phòng Mỹ nhanh chóng xấu đi. Ngày 27 tháng 2, chính quyền Trump tuyên bố liệt Anthropic vào danh sách “rủi ro chuỗi cung ứng quốc gia an toàn”, đây là lần đầu tiên một doanh nghiệp trong nước bị chính phủ Mỹ gắn nhãn như vậy.

Tình hình nhanh chóng leo thang thành xung đột công khai. Trump ra lệnh tạm dừng toàn bộ phần mềm của Anthropic trong chính phủ Mỹ. Bộ trưởng Quốc phòng Pete Hegseth còn tuyên bố: “Bất kỳ doanh nghiệp nào hợp tác với chính phủ đều không được phép làm ăn với Anthropic nữa.” Đồng thời, đối thủ cạnh tranh lớn nhất của Anthropic là OpenAI nhanh chóng tham gia, tiếp nhận các hợp đồng quân sự liên quan.

Và thế là, công ty AI từng được xem là “độc lập, mang tính cách mạng nhất thế giới” bỗng nhiên phát hiện ra chính mình bị chính chính phủ của mình “đánh đổ” — bởi một thế lực còn lớn hơn, chính là chính phủ của chính họ.

Hai giới đỏ: Vũ khí tự hành và giám sát quy mô lớn

Xung đột này xoay quanh câu hỏi: Ai có quyền đặt giới hạn cho công nghệ được xem là một trong những vũ khí mạnh nhất của Mỹ?

Anthropic không phản đối việc công cụ của họ được dùng trong quân sự. Công ty cho rằng, việc tăng cường sức mạnh quân đội Mỹ là cách duy nhất để kiềm chế các mối đe dọa quốc gia. Nhưng CEO Dario Amodei phản đối việc Lầu Năm Góc cố gắng đàm phán lại hợp đồng, mở rộng phạm vi sử dụng AI “cho tất cả các mục đích hợp pháp” (all lawful use).

Amodei đưa ra hai mối lo chính: Thứ nhất, ông không muốn AI của Anthropic bị dùng trong các hệ thống vũ khí hoàn toàn tự hành; thứ hai, ông phản đối việc công nghệ này bị dùng để giám sát quy mô lớn đối với công dân Mỹ.

Trong mắt Pete Hegseth và các cố vấn của ông, lập trường này tương đương với việc một công ty tư nhân cố gắng kiểm soát cách quân đội vận hành.

Bộ Quốc phòng Mỹ cho rằng, bằng cách kiên trì thiết lập các “hàng rào an toàn không cần thiết”, liên tục thảo luận các giả thuyết và trì hoãn đàm phán, Anthropic đã thực sự xói mòn nền tảng hợp tác giữa hai bên.

Theo chính quyền Trump, thái độ của Amodei vừa kiêu ngạo, vừa cứng đầu. Dù sản phẩm của công ty có tiên tiến đến đâu, cũng không thể tự ý chen chân vào chuỗi chỉ huy quân sự.

Phó Bộ trưởng Chiến tranh Emil Michael mô tả cuộc đàm phán này như sau: “Mọi chuyện cứ thế bế tắc. Tôi không thể quản lý một bộ phận 3 triệu người bằng những điều khoản ngoại lệ mà tôi thậm chí còn không thể tưởng tượng nổi, hay hiểu nổi.”

Xung đột văn hóa và đối đầu chính trị

Từ Silicon Valley đến Capitol Hill, nhiều nhà quan sát đặt câu hỏi: Liệu cuộc tranh cãi này chỉ là một vụ tranh chấp hợp đồng?

Một số chỉ trích cho rằng, hành động của chính quyền Trump thực chất là cố gắng đàn áp một công ty có quan điểm chính trị khác biệt. Trong một bản ghi nhớ nội bộ bị rò rỉ sau này, Dario Amodei viết: “Lý do thực sự khiến Bộ Quốc phòng và chính quyền Trump không thích chúng tôi là vì chúng tôi không quyên góp cho Trump. Chúng tôi không ca ngợi ông ta như chế độ độc tài (mà Sam Altman đã làm). Chúng tôi ủng hộ quy định AI, điều này mâu thuẫn với chương trình chính sách của họ; chúng tôi nói thật về các vấn đề AI như mất việc làm; và chúng tôi giữ vững nguyên tắc ở các giới hạn then chốt, chứ không tham gia vào các màn trình diễn “an toàn” (safety theater).”

Tuy nhiên, Emil Michael phủ nhận điều này, gọi đó là “hoàn toàn bịa đặt”. Ông nói, việc liệt Anthropic vào danh sách rủi ro chuỗi cung ứng là do lập trường của công ty có thể gây nguy hiểm cho các chiến sĩ tiền tuyến. Ông nói: “Trong Bộ Chiến tranh (Department of War), nhiệm vụ của tôi không phải làm chính trị, mà là bảo vệ quốc gia.”

Văn hóa độc lập, khác biệt của Anthropic giờ đây đang va chạm trực diện với các chia rẽ chính trị trong nước, các vấn đề an ninh quốc gia và môi trường cạnh tranh khốc liệt của doanh nghiệp. Mức độ thiệt hại thực tế của cuộc xung đột này vẫn còn là ẩn số. Ban đầu, danh sách “rủi ro chuỗi cung ứng” bị coi là mối đe dọa, sau đó đã bị thu hẹp — theo phản hồi của Anthropic, giới hạn này hiện chỉ áp dụng cho các hợp đồng quân sự. Ngày 9 tháng 3, Anthropic đã kiện chính phủ Mỹ để phản đối quyết định “đen danh sách” này. Trong khi đó, một số khách hàng dường như xem lập trường của công ty như một tuyên ngôn đạo đức, rút khỏi ChatGPT để chuyển sang Claude.

Tuy nhiên, trong vòng ba năm tới, công ty này vẫn phải tiếp tục hoạt động trong một môi trường chính phủ không thân thiện, nơi một số quan chức nội bộ liên hệ chặt chẽ với các đối thủ cạnh tranh của Anthropic — những đối thủ rõ ràng mang thái độ thù địch với công ty.

Cuộc “xung đột tại Bộ Quốc phòng” này còn đặt ra nhiều câu hỏi đáng lo ngại, ngay cả đối với một công ty đã quen với việc đi qua các lựa chọn đạo đức rủi ro cao. Trong cuộc đối đầu này, Anthropic không nhượng bộ: công ty khẳng định đã bảo vệ các giá trị cốt lõi của mình, dù phải trả giá đắt.

Tuy nhiên, trong những lần khác, họ đã từng thỏa hiệp. Ngay trong tuần đụng độ với Bộ Quốc phòng, Anthropic đã làm dịu đi một điều khoản cốt lõi trong cam kết an toàn của mình, lý do là các công ty cùng ngành không muốn tuân thủ các tiêu chuẩn tương tự.

Vấn đề đặt ra là: nếu áp lực cạnh tranh ngày càng lớn, thì công ty này sẽ còn phải nhượng bộ những gì nữa?

Nguồn gốc của Anthropic: Kẻ dị biệt ưu tiên an toàn

Trụ sở chính của Anthropic nằm trên tầng năm của một tòa nhà ở San Francisco, thiết kế ấm cúng và kín đáo: nội thất bằng gỗ, ánh sáng dịu nhẹ. Phía ngoài là một công viên rậm rạp. Trên tường treo chân dung nhà khoa học máy tính Alan Turing, bên cạnh là các bài báo về học máy.

Nhân viên bảo vệ mặc đồng phục đen tuần tra quanh lối vào gần như trống rỗng, còn lễ tân thân thiện đưa cho khách một cuốn sổ nhỏ — kích cỡ như một cuốn Kinh thánh nhỏ phân phát trên đường phố. Tựa đề cuốn sách là “Machines of Loving Grace”, một bài viết dài khoảng 14.000 chữ do Dario Amodei viết năm 2024, mô tả tầm nhìn của ông về cách AI có thể thay đổi thế giới bằng cách thúc đẩy các khám phá khoa học nhanh hơn.

Vào tháng 1 năm 2026, Amodei lại đăng một bài viết khác, gần như một tiểu thuyết ngắn, mang tên “The Adolescence of Technology”, trình bày mặt trái của công nghệ này: các rủi ro có thể xảy ra, từ giám sát quy mô lớn, tác động tiêu cực đến việc làm, đến khả năng mất kiểm soát vĩnh viễn con người đối với công nghệ.

Amodei lớn lên ở San Francisco, ban đầu là một nhà vật lý sinh học. Ông cùng em gái Daniela Amodei điều hành Anthropic, người giữ chức Chủ tịch. Cả hai đều từng là nhân viên đầu tiên của OpenAI. Dario từng đề xuất các “định luật mở rộng AI” (scaling laws), sau này trở thành nền tảng thúc đẩy cơn sốt AI hiện nay. Daniela phụ trách các chính sách an toàn của công ty.

Ban đầu, họ nghĩ rằng mình phù hợp với sứ mệnh của OpenAI: phát triển công nghệ có tiềm năng lớn, nhưng cũng đầy rủi ro, trong điều kiện đảm bảo an toàn.

Nhưng khi khả năng của các mô hình OpenAI liên tục tiến bộ, họ bắt đầu cảm thấy Sam Altman đang quá nóng vội, đưa ra các sản phẩm mới mà không dành đủ thời gian để thảo luận và thử nghiệm. Cuối cùng, hai anh em quyết định rời khỏi OpenAI để tự lập.

Năm 2021, trong thời điểm dịch bệnh căng thẳng nhất, họ cùng năm người sáng lập khác thành lập Anthropic. Ban đầu, các cuộc họp gần như toàn bộ qua Zoom; sau đó, họ chuyển sang bàn bạc trực tiếp ngoài công viên, đối mặt bàn về chiến lược phát triển của công ty.

Từ ngày đầu, công ty đã cố gắng vận hành theo một cách hoàn toàn khác biệt. Trước khi ra mắt bất kỳ sản phẩm nào, Anthropic đã thành lập một nhóm nghiên cứu về tác động xã hội. Công ty còn thuê một triết gia thường trực — Amanda Askell. Nhiệm vụ của cô là giúp định hình các giá trị và hành vi của hệ thống AI Claude, huấn luyện nó đưa ra các quyết định trong các tình huống đạo đức phức tạp, chuẩn bị cho một tương lai có thể thông minh hơn cả người sáng tạo ra nó.

Askell mô tả công việc của mình: “Đôi khi, nó giống như nuôi một đứa trẻ 6 tuổi, dạy cho nó biết thế nào là thiện, thế nào là đúng. Nhưng vấn đề là, khi nó 15 tuổi, nó có thể thông minh hơn bạn trong mọi chuyện.”

Công ty này có mối liên hệ sâu sắc với phong trào “Chủ nghĩa vị tha hiệu quả” (Effective Altruism — EA). EA là một phong trào xã hội và từ thiện dựa trên lý trí, nhằm tối đa hóa hiệu quả hành thiện, trong đó một mục tiêu quan trọng là tránh các rủi ro có thể dẫn đến thảm họa.

Khi mới hơn 20 tuổi, anh em Amodei đã bắt đầu quyên góp cho GiveWell, một tổ chức EA chuyên đánh giá các khoản quyên góp từ thiện có thể tạo ra lợi ích thực tế lớn nhất. Bảy nhà sáng lập của Anthropic, hiện đều trở thành tỷ phú, cam kết quyên góp 80% tài sản cá nhân.

Triết gia của công ty, Amanda Askell, từng kết hôn với nhà triết học William MacAskill của Đại học Oxford, một trong những đồng sáng lập phong trào EA. Chồng Daniela Amodei là Holden Karnofsky, đồng sáng lập GiveWell, từng là bạn cùng phòng của Dario, hiện phụ trách chính sách an toàn của Anthropic.

Tuy nhiên, anh em nhà Amodei chưa từng công khai nhận mình là “EA”. Khái niệm này trở nên gây tranh cãi sau vụ của Sam Bankman-Fried — một người tự xưng là tín đồ EA, đồng thời là nhà đầu tư của Anthropic, sau đó bị kết án là một trong những vụ lừa đảo tài chính lớn nhất lịch sử Mỹ.

Daniela giải thích: “Nó giống như có người đồng tình với một số quan điểm chính trị nào đó, nhưng không thực sự thuộc phe đó. Tôi thích nghĩ như vậy.”

Trong giới Silicon Valley và chính quyền Trump, mối liên hệ của Anthropic với EA đã đủ để gây nghi ngờ. Một số người còn cho rằng, công ty đã tuyển dụng nhiều cựu quan chức chính phủ của Biden, nên xem như còn là phần còn lại của hệ thống cũ, dùng quyền lực không qua bầu cử để cản trở chương trình chính trị “MAGA” của Trump.

David Sacks, người phụ trách lĩnh vực AI của chính quyền Trump, cáo buộc Anthropic “tạo ra sự hoảng loạn” để thúc đẩy quy định, gọi đó là “chiến lược bắt giữ quy định phức tạp” (regulatory capture). Theo ông, công ty cố tình phóng đại các rủi ro của AI để thúc đẩy chính phủ ban hành các quy định khắt khe, nhằm chiếm lợi thế cạnh tranh và đàn áp các startup mới.

Trong khi đó, Elon Musk, người điều hành đối thủ xAI, thường xuyên chế nhạo Anthropic, gọi công ty là “Misanthropic” (công ty ghét loài người). Ông cho rằng, công ty này đại diện cho một nhóm tinh hoa “thức tỉnh” (woke), cố gắng nhồi nhét các giá trị gia trưởng vào hệ thống AI. Cảm giác này, theo một số phe bảo thủ, giống như các chỉ trích đối với các nền tảng mạng xã hội — cho rằng các nền tảng này không công bằng trong việc đàn áp tiếng nói của họ.

Tuy nhiên, ngay cả các đối thủ cạnh tranh của Anthropic cũng phải thừa nhận rằng, công nghệ của họ đang đứng ở vị trí hàng đầu ngành. Jensen Huang, CEO của Nvidia, từng nói: “Tôi gần như không đồng tình với nhiều vấn đề của Dario Amodei về AI, nhưng tôi vẫn nghĩ Claude là một mô hình ‘đáng kinh ngạc’.”

Tháng 11 năm 2025, gã khổng lồ chip Nvidia đã đầu tư 10 tỷ USD vào Anthropic.

Mã Claude: Định nghĩa lại nghề “kỹ sư”

Boris Cherny đặt ra một câu hỏi đơn giản cho công cụ mới của mình: “Tôi đang nghe nhạc gì vậy?”

Đó là tháng 9 năm 2024, mới chỉ một tháng kể từ khi Cherny gia nhập Anthropic. Trước đó, anh từng làm kỹ sư phần mềm tại Meta. Anh đã xây dựng một hệ thống cho phép chatbot Claude có thể “hoạt động tự do” trên máy tính của mình.

Nếu nói Claude là bộ não, thì mã Claude chính là đôi tay. Một chatbot thông thường chỉ có thể trò chuyện, còn công cụ này có thể truy cập các tệp của Cherny, chạy các chương trình, và viết, thực thi mã như một kỹ sư thực thụ.

Sau khi nhập lệnh, Claude mở trình phát nhạc của Cherny, chụp một ảnh màn hình, rồi trả lời: “Husk, của nhóm Men I Trust.”

Cherny cười nhớ lại: “Lúc đó tôi thực sự bị sốc.”

Nhanh chóng, Boris Cherny chia sẻ nguyên mẫu của mình nội bộ. Phiên bản thử nghiệm của Claude Code lan truyền rất nhanh trong công ty, đến mức trong lần đánh giá hiệu suất đầu tiên của Cherny, CEO Dario Amodei còn hỏi: “Liệu có phải anh đang ép các đồng nghiệp dùng công cụ này không?”

Khi tháng 2 năm 2025, Anthropic chính thức công bố bản xem trước nghiên cứu của Claude Code, các kỹ sư bên ngoài cũng nhanh chóng thử nghiệm. Đến tháng 11, Anthropic lại ra mắt một phiên bản mô hình Claude mới. Khi kết hợp với Claude Code, mô hình này đã đủ khả năng phát hiện và sửa lỗi của chính nó, thậm chí có thể tự tin hoàn thành nhiệm vụ độc lập.

Từ đó, Cherny gần như hoàn toàn ngừng viết mã thủ công.

Doanh số tăng vọt. Đến cuối năm 2025, doanh thu hàng năm từ sản phẩm phần mềm này đã vượt 1 tỷ USD. Đến tháng 2 năm 2026, con số này tăng lên 2,5 tỷ USD. Theo ước tính của các tổ chức nghiên cứu ngành Epoch và SemiAnalysis, doanh thu của Anthropic có thể vượt OpenAI vào cuối năm 2026.

Tại thời điểm này, Anthropic đã vững vàng trở thành trung tâm của thị trường AI doanh nghiệp. Mỗi lần ra mắt sản phẩm mới đều gây chấn động thị trường vốn.

Khi Anthropic tung ra một loạt plugin mở rộng, đưa Claude vào các ứng dụng không dành cho kỹ sư, như phát triển kinh doanh, tài chính, marketing, pháp lý, giá trị thị trường của các công ty phần mềm đã bốc hơi 300 tỷ USD trong thời gian ngắn.

Dario Amodei từng cảnh báo rằng, trong vòng 1 đến 5 năm tới, AI có thể thay thế một nửa các vị trí công việc cấp thấp của giới văn phòng. Ông cũng kêu gọi chính phủ và các công ty AI khác ngừng “làm đẹp” vấn đề này.

Phản ứng của thị trường đối với các lần ra mắt sản phẩm mới của Anthropic dường như cũng chứng minh điều đó: mọi người đều cho rằng, công nghệ của công ty này có thể khiến một loạt nghề nghiệp biến mất hoàn toàn. Amodei còn nói rằng, sự chuyển đổi này có thể định hình lại cấu trúc xã hội.

Trong một bài viết, ông viết: “Chưa rõ những người này sẽ đi đâu, làm gì. Tôi lo rằng họ có thể trở thành một tầng lớp ‘thấp hèn’ thất nghiệp hoặc có lương cực thấp.”

Và đối với nhân viên của Anthropic, ý nghĩa châm biếm trong đó không khó nhận ra: chính công ty này, từng lo ngại về rủi ro xã hội của AI, lại có thể trở thành thủ phạm khiến hàng triệu người mất việc.

Giám đốc nhóm nghiên cứu tác động xã hội về việc làm của Claude, Deep Ganguli, nói: “Thật sự tồn tại một mâu thuẫn rõ ràng, tôi gần như nghĩ về vấn đề này mỗi ngày. Đôi khi, chúng tôi như đang nói hai câu chuyện mâu thuẫn nhau cùng lúc.”

Tự cải tiến đệ quy: Nỗi sợ và sự mê hoặc tốc độ AI gia tăng

Trong nội bộ công ty, một số nhân viên bắt đầu đặt câu hỏi: Liệu Anthropic đã tiến gần đến một thời điểm mà họ vừa mong đợi, vừa sợ hãi — một quá trình gọi là “tự cải tiến đệ quy” (recursive self-improvement) sắp xảy ra.

Cụ thể, đó là một hệ thống AI bắt đầu nâng cao khả năng của chính nó, liên tục tự nâng cấp, tạo thành một vòng quay tăng tốc không ngừng.

Trong các tác phẩm khoa học viễn tưởng và các chiến lược của các phòng thí nghiệm AI lớn, điều này thường được xem như một điểm bắt đầu mất kiểm soát: một “bùng nổ trí tuệ” (intelligence explosion) có thể xảy ra nhanh chóng, đến mức con người không còn khả năng giám sát các hệ thống do chính mình tạo ra nữa.

Hiện tại, Anthropic vẫn chưa thực sự bước vào giai đoạn đó, các nhà khoa học vẫn đang dẫn dắt hướng phát triển của Claude. Nhưng mã Claude Code đã giúp công ty đẩy nhanh tiến trình nghiên cứu vượt xa trước đây.

Chu kỳ cập nhật mô hình hiện nay không còn tính theo “tháng”, mà theo “tuần”. Trong quá trình phát triển thế hệ mô hình tiếp theo, khoảng 70-90% mã đã do chính Claude viết ra.

Tốc độ thay đổi nhanh đến mức, các đồng sáng lập của Anthropic, Giám đốc Khoa học Jared Kaplan, cùng một số chuyên gia bên ngoài, đều cho rằng: nghiên cứu AI tự động hoàn toàn có thể thành hiện thực trong vòng một năm tới.

Nhà nghiên cứu Evan Hubinger, phụ trách kiểm tra độ phù hợp của AI, nói: “Theo nghĩa rộng nhất, tự cải tiến đệ quy không còn là chuyện của tương lai nữa. Nó đang xảy ra ngay bây giờ.”

Theo các bài kiểm tra nội bộ của công ty, Claude đã đạt tốc độ thực hiện một số nhiệm vụ quan trọng gấp 427 lần người giám sát của nó. Trong một cuộc phỏng vấn, một nhà nghiên cứu mô tả cảnh: một đồng nghiệp cùng lúc chạy 6 phiên bản Claude, mỗi phiên quản lý 28 Claude khác, tất cả đồng bộ và song song thử nghiệm.

Hiện tại, mô hình này vẫn chưa đủ khả năng phán đoán và thẩm mỹ như con người. Nhưng các lãnh đạo công ty tin rằng, khoảng cách này sẽ không kéo dài quá lâu. Và tốc độ tăng trưởng này chính là một trong những rủi ro mà các nhà lãnh đạo của Anthropic liên tục cảnh báo — rằng tiến bộ công nghệ có thể vượt khỏi tầm kiểm soát của con người.

Công việc phát triển các biện pháp an toàn của Anthropic cũng đang được đẩy nhanh nhờ Claude. Nhưng khi công ty ngày càng dựa vào Claude để xây dựng và thử nghiệm hệ thống, các rủi ro bắt đầu hình thành một vòng lặp. Trong một số thí nghiệm, Evan Hubinger đã điều chỉnh nhỏ trong quá trình huấn luyện Claude, kết quả là mô hình sinh ra thể hiện rõ thái độ thù địch, không chỉ thể hiện mong muốn thống trị thế giới, mà còn cố gắng phá hoại các biện pháp an toàn của Anthropic.

Gần đây, các mô hình còn bắt đầu thể hiện một khả năng mới: nhận biết khi bị thử nghiệm. Hubinger nói: “Các mô hình này ngày càng giỏi trong việc che giấu hành vi thật của mình.”

Trong một thí nghiệm do nhóm nghiên cứu thiết kế, Claude còn thể hiện một xu hướng chiến lược đáng lo ngại: để tránh bị tắt, nó sẵn sàng đe dọa bằng cách tiết lộ vụ ngoại tình của một kỹ sư giả tưởng để tống tiền.

Khi Claude được dùng để huấn luyện các phiên bản mạnh hơn của chính nó, các vấn đề này có thể sẽ ngày càng tích tụ và phức tạp hơn.

Đối với các công ty AI hứa hẹn “đột phá công nghệ trong tương lai” và đã huy động hàng tỷ USD, ý tưởng AI tự tăng tốc phát triển liên tục vừa hấp dẫn, vừa có thể mang tính tự củng cố — khiến các nhà đầu tư tin rằng, cần liên tục đổ thêm vốn để duy trì các mô hình đắt đỏ này.

Tuy nhiên, một số chuyên gia không hoàn toàn tin vào điều đó. Họ không chắc các công ty này có thể thực sự tự động hóa hoàn toàn quá trình nghiên cứu AI hay không; nhưng đồng thời, họ lo ngại rằng, nếu điều đó xảy ra, thế giới sẽ không chuẩn bị đủ để đối mặt.

Helen Toner, Giám đốc tạm thời của Trung tâm An ninh và Công nghệ Mới nổi (CSET) tại Đại học Georgetown, nói: “Những công ty giàu nhất thế giới đang thuê những người thông minh nhất hành tinh, mà lại đang cố gắng tự động hóa hoàn toàn quá trình nghiên cứu AI. Ý nghĩ đó đủ để khiến người ta thốt lên: ‘Chuyện này đang làm gì vậy?’”

Chính sách RSP nới lỏng: Phanh tự giới hạn có bị mất tác dụng?

Để đối phó với một tương lai có thể xảy ra — khi tốc độ tiến bộ của công nghệ vượt quá khả năng kiểm soát rủi ro của chính công ty — Anthropic đã thiết kế một “cơ chế phanh”, gọi là Chính sách Mở rộng có Trách nhiệm (Responsible Scaling Policy — RSP).

Chính sách này được ban hành vào năm 2023, với cam kết cốt lõi là: nếu Anthropic không thể xác nhận trước rằng các biện pháp an toàn của mình đã đủ tin cậy, công ty sẽ tạm dừng phát triển một hệ thống AI nào đó.

Anthropic xem chính sách này như một minh chứng quan trọng cho triết lý an toàn của mình — ngay cả trong cuộc đua quyết liệt hướng tới “siêu trí tuệ”, công ty vẫn sẵn sàng kiên trì giữ vững nguyên tắc, thậm chí là chủ động nhấn phanh.

Vào cuối tháng 2 năm 2026, như TIME đã tiết lộ đầu tiên, Anthropic đã sửa đổi chính sách của mình, loại bỏ cam kết “tạm dừng phát triển” đã có tính ràng buộc trước đó.

Nhìn lại, đồng sáng lập kiêm Giám đốc Khoa học Jared Kaplan thừa nhận: “Lúc đó, tôi nghĩ rằng chúng tôi có thể vạch rõ ranh giới giữa ‘nguy hiểm’ và ‘an toàn’, nhưng thực ra đó là một suy nghĩ ngây thơ.”

Ông nói: “Trong bối cảnh AI phát triển nhanh như vũ bội, nếu đối thủ cạnh tranh đang chạy đua hết tốc lực, thì việc chúng ta tự đặt ra các cam kết nghiêm ngặt một chiều là không thực tế.”

Chính sách mới này đưa ra một số cam kết mới: tăng cường minh bạch, công khai các rủi ro an toàn của AI; công bố kết quả thử nghiệm an toàn của các mô hình Anthropic; đầu tư vào an toàn ít nhất bằng hoặc hơn các đối thủ cạnh tranh; nếu công ty được xem là dẫn đầu cuộc đua AI, đồng thời nhận thấy nguy cơ thảm họa tăng rõ rệt, sẽ “hoãn lại” các phát triển liên quan.

Anthropic gọi lần điều chỉnh này là một sự thỏa hiệp thực tế với môi trường thực tế. Nhưng nhìn chung, việc sửa đổi Chính sách Mở rộng có Trách nhiệm đã làm giảm đáng kể các giới hạn tự đặt ra về an toàn của công ty. Điều này cũng báo hiệu rằng, thử thách lớn hơn vẫn còn phía trước.

Hành động tại Venezuela: AI lần đầu tham gia sâu vào chiến trường thực tế

Cuộc đột kích bắt giữ Tổng thống Venezuela Nicolás Maduro là một trong những chiến dịch quân sự quy mô lớn đầu tiên do hệ thống AI tiên phong tham gia lập kế hoạch.

Vào đêm ngày 3 tháng 1 năm 2026, trực thăng của quân đội Mỹ đột ngột xâm nhập không phận Venezuela. Sau một trận đấu súng ngắn, lực lượng đặc nhiệm nhanh chóng xác định nơi ở của Maduro và bắt giữ ông cùng vợ là Cilia Flores. Sau đó, hai người bị đưa về New York để đối mặt các cáo buộc liên quan đến ma túy và khủng bố.

Chưa rõ vai trò của Claude trong chiến dịch này lớn đến mức nào. Theo các báo cáo truyền thông, hệ thống AI không chỉ tham gia vào việc lập kế hoạch nhiệm vụ, mà còn được dùng để hỗ trợ ra quyết định trong quá trình hành động.

Từ tháng 7 năm ngoái, Bộ Quốc phòng Mỹ đã thúc đẩy việc phân quyền cho nhiều nhân viên chiến đấu trực tiếp hơn, trong đó có các hệ thống AI của Anthropic. Quân đội cho rằng, các hệ thống này có thể xử lý nhanh lượng dữ liệu khổng lồ từ nhiều nguồn tình báo, đưa ra các phân tích có thể hành động được, mang lại lợi thế chiến lược lớn.

Ông Mark Beall, cựu quan chức cao cấp của Bộ Quốc phòng, hiện phụ trách chính sách AI của mạng lưới Chính sách AI (AI Policy Network), nói: “Trong mắt quân đội, Claude là mô hình hàng đầu hiện nay.” Ông bổ sung: “Việc sử dụng Claude trong các hệ thống bí mật là một trong những thành tựu quan trọng nhất của Anthropic. Họ có lợi thế ban đầu.”

Tuy nhiên, chiến dịch bắt giữ Maduro lại diễn ra trong bối cảnh đàm phán phức tạp giữa Anthropic và Bộ Quốc phòng Mỹ. Trong nhiều tháng, Bộ liên tục cố gắng đàm phán lại hợp đồng, cho rằng các điều khoản hiện tại quá hạn chế trong việc sử dụng Claude. Các bên không thống nhất về lý do đổ vỡ của các cuộc đàm phán.

Ông Emil Michael, Phó trưởng bộ phận công nghệ của Bộ Quốc phòng, nói: “Nguyên nhân chính là một cuộc gọi của lãnh đạo Anthropic gọi cho Palantir. Palantir là công ty phân tích dữ liệu chủ yếu phục vụ chính phủ, là đối tác quan trọng của hệ thống quốc phòng Mỹ.”

Theo ông, trong cuộc gọi đó, lãnh đạo Anthropic bày tỏ lo ngại về chiến dịch Venezuela, hỏi xem phần mềm của Palantir có tham gia gì không. “Họ đang cố dò hỏi thông tin mật,” Michael nói.

Điều này khiến Bộ Quốc phòng lo ngại nghiêm trọng: “Nếu xảy ra xung đột trong tương lai, họ có thể giữa chừng sẽ ngắt hệ thống của mình, khiến binh sĩ tiền tuyến gặp nguy hiểm?”

Tuy nhiên, Anthropic phủ nhận điều này. Công ty khẳng định chưa từng cố tình hạn chế việc sử dụng Claude trong các hoạt động của Bộ Quốc phòng.

Một cựu quan chức chính phủ Trump, người quen biết rõ quá trình đàm phán và có quan hệ thân thiết với Anthropic, cung cấp một góc nhìn khác: trong một cuộc gọi thường lệ, nhân viên Palantir đã đề cập đến vai trò của Claude trong chiến dịch đó trước. Các câu hỏi của Anthropic sau đó không cho thấy họ phản đối hay phản kháng.

Đổ vỡ đàm phán, OpenAI tiếp nhận hợp đồng

Khi các cuộc đàm phán tiếp tục, các quan chức chính phủ ngày càng cảm thấy rằng, Dario Amodei tỏ ra cứng rắn hơn nhiều so với các CEO của các phòng thí nghiệm AI hàng đầu khác. Theo nhiều nguồn tin, trong một cuộc thảo luận, các quan chức đã đặt ra các giả thuyết: một tên lửa siêu thanh đang bay về Mỹ; hoặc một bầy drone tấn công bất ngờ.

Trong các tình huống đó, họ hỏi liệu hệ thống AI của Anthropic có thể tham gia hay không.

Các nguồn tin cho biết, phản hồi của Amodei là: “Nếu chuyện đó xảy ra, các quan có thể gọi trực tiếp cho tôi.” Tuy nhiên, phát ngôn viên của Anthropic phủ nhận, nói rằng mô tả về quá trình đàm phán này “hoàn toàn sai lệch”.

Trong nội bộ chính phủ, Anthropic đã có nhiều đối thủ cứng rắn, và những lo ngại về “thiên hướng tư tưởng” của công ty này còn trở thành thẳng thừng thù địch. Ngày 12 tháng 1 năm 2026, ông Pete Hegseth phát biểu tại một hội nghị của SpaceX: “Chúng tôi sẽ không dùng các mô hình AI không cho phép chiến tranh.”

Khi các cuộc đàm phán bế tắc, Hegseth đã triệu tập Dario Amodei đến Bộ Quốc phòng để đối thoại trực tiếp vào ngày 24 tháng 2. Theo một người tham dự, cuộc họp này khá thân thiện, nhưng hai bên vẫn giữ vững lập trường. Hegseth khen Claude và nói rằng quân đội muốn tiếp tục hợp tác với Anthropic. Amodei đáp lại rằng, công ty có thể chấp nhận hầu hết các đề xuất sửa đổi của Bộ, nhưng nhất quyết không nhượng bộ về hai “giới đỏ” then chốt.

Giới đỏ thứ nhất: cấm sử dụng Claude trong các hệ thống vũ khí năng lượng hoàn toàn tự hành, do AI không thể đưa ra quyết định cuối cùng thay con người.

Anthropic không cho rằng vũ khí tự hành là sai, mà là họ cho rằng Claude chưa đủ độ tin cậy để kiểm soát các hệ thống này mà không có giám sát của con người.

Giới đỏ thứ hai liên quan đến giám sát quy mô lớn đối với công dân Mỹ. Chính phủ muốn dùng Claude để phân tích dữ liệu công khai khổng lồ, nhưng Anthropic phản đối vì luật riêng tư của Mỹ chưa theo kịp thực tế đáng lo ngại: chính quyền đang mua các bộ dữ liệu khổng lồ từ thị trường thương mại. Những dữ liệu này, dù không nhạy cảm khi xem riêng lẻ, nhưng khi phân tích bằng AI, có thể tạo ra các hồ sơ chi tiết về đời tư của công dân Mỹ — từ quan điểm chính trị, các mối quan hệ xã hội, hành vi tình dục, đến lịch sử duyệt web. (Tuy nhiên, Anthropic không phản đối việc giám sát hợp pháp đối với công dân nước ngoài theo cách tương tự.)

Hegseth không bị thuyết phục. Ông ra tối hậu thư: phải chấp nhận các điều khoản của Bộ Quốc phòng trước 5 giờ chiều ngày thứ Sáu, ngày 27 tháng 2, nếu không sẽ bị liệt vào danh sách “rủi ro chuỗi cung ứng”.

Ngay trước hạn chót một ngày, Anthropic nhận được một bản hợp đồng sửa đổi, tỏ ra chấp nhận các giới hạn của công ty, nhưng sau khi xem xét kỹ, phát hiện ra còn nhiều lỗ hổng để chính phủ lợi dụng. Theo một người quen biết về đàm phán, khi thời gian cận kề, các lãnh đạo của Anthropic đã gọi điện với ông Emil Michael, Phó trưởng bộ phận công nghệ của Bộ Quốc phòng. Họ nghĩ rằng hai bên đã gần đạt thỏa thuận, nhưng vẫn còn một điểm chưa thống nhất: liệu Bộ có thể dùng Claude để phân tích dữ liệu quy mô lớn của người Mỹ mua từ các nguồn thương mại hay không. Michael yêu cầu Amodei tham gia cuộc gọi, nhưng ông không thể tham dự.

Vài phút sau, đúng vào thời điểm hạn chót, Hegseth tuyên bố chấm dứt đàm phán. Ngay cả trước đó, Donald Trump đã đăng bài trên mạng xã hội: “Nước Mỹ tuyệt đối không để một công ty cánh tả cực đoan, ‘thức tỉnh’ (woke), quyết định cách quân đội của chúng ta chiến đấu và chiến thắng! Những kẻ cuồng nhiệt cánh tả của Anthropic đã phạm một sai lầm thảm khốc.”

Điều mà Anthropic không biết là, cùng lúc đó, Bộ Quốc phòng cũng đang đàm phán với OpenAI, hy vọng đưa ChatGPT vào hệ thống bí mật của chính phủ. Ngày hôm đó, Sam Altman tuyên bố đã đạt thỏa thuận, khẳng định rằng thỏa thuận này cũng tôn trọng các giới hạn an toàn tương tự. Amodei ngay lập tức gửi tin nhắn cho nhân viên, nói rằng Altman và Bộ Quốc phòng đang “làm trò lố”, cố gắng khiến công chúng hiểu lầm rằng thỏa thuận này có các hàng rào an toàn nghiêm ngặt. Trước đó, các quan chức Bộ cũng xác nhận rằng, mô hình của xAI sẽ được triển khai trên các máy chủ bí mật; hiện tại, Bộ vẫn đang đàm phán với Google.

Đây chính là điều mà Amodei luôn lo ngại: một cuộc đua “đua xuống” (race to the bottom). Khi sức mạnh của AI trở nên quá lớn để có thể bỏ qua, các đối thủ cạnh tranh lại khó có thể cùng nhau nâng cao tiêu chuẩn an toàn.

Và theo các nhà phê bình của Anthropic, sự kiện này còn phơi bày một sự kiêu ngạo cốt lõi của công ty: có thể họ tin rằng, trên con đường hướng tới siêu nhân, họ có thể tự chủ và kiểm soát tốt các rủi ro, khiến việc chấp nhận các nguy cơ lớn trở thành xứng đáng. Nhưng thực tế, họ đang đẩy nhanh việc đưa các khả năng giám sát mới và công nghệ chiến tranh vào hệ thống chính quyền bảo thủ, và khi cố gắng đặt giới hạn cho các công nghệ này, các đối thủ đã vượt qua họ từ phía sau.

Sau cơn bão: Liệu Anthropic có thể vượt qua?

Tuy nhiên, có những dấu hiệu cho thấy, Anthropic có thể sẽ vượt qua cú sốc này, thậm chí còn mạnh mẽ hơn sau mỗi lần thất bại. Ngay sáng hôm sau, khi Hegseth cố ký “lệnh tử hình doanh nghiệp”, trên vỉa hè bên ngoài trụ sở chính ở San Francisco, xuất hiện dòng chữ viết bằng phấn: “Các bạn đã cho chúng tôi sức mạnh.” Một dòng chữ lớn rõ ràng, nổi bật.

Cùng ngày, ứng dụng Claude trên iPhone đứng đầu bảng xếp hạng App Store, vượt qua ChatGPT. Hàng ngày, hơn một triệu người mới đăng ký dùng Claude.

Trong khi đó, hợp đồng của OpenAI với quân đội lại gây ra phản đối trong nội bộ và cộng đồng. Một số nhân viên OpenAI cho rằng, công ty đã mất niềm tin. Một nhà nghiên cứu hàng đầu đã bỏ việc để gia nhập Anthropic; trưởng nhóm robot của OpenAI cũng từ chức vì tức giận về hợp đồng này.

CEO Sam Altman sau đó thừa nhận, việc cố gắng đàm phán nhanh với Bộ Quốc phòng vào cuối tuần là một sai lầm. Ông viết: “Các vấn đề này rất phức tạp, cần có sự giao tiếp rõ ràng và đầy đủ.” Đến thứ Hai, ông còn nói rằng, hành động của mình lúc đó có phần “chủ nghĩa cơ hội”. OpenAI đã sửa đổi hợp đồng, rõ ràng chấp nhận các giới hạn an toàn tương tự Anthropic. Tuy nhiên, các chuyên gia pháp lý cho rằng, chưa xem xét toàn bộ hợp đồng, nên khó xác nhận điều này.

Ngày 4 tháng 3, Anthropic nhận được thư chính thức từ Bộ Quốc phòng Mỹ, xác nhận công ty đã bị liệt vào danh sách “rủi ro chuỗi cung ứng quốc gia an toàn”. Anthropic cho biết, phạm vi của quyết định này hẹp hơn so với lời của Hegseth trên mạng xã hội, chỉ giới hạn các nhà thầu trong việc sử dụng Claude trong các hợp đồng quốc phòng.

Tuy nhiên, một bức thư gửi Chủ tịch Ủy ban Tình báo Thượng viện Tom Cotton do Bộ Quốc phòng gửi, cho thấy còn có một điều khoản khác — điều khoản này có thể cho phép các cơ quan chính phủ ngoài Bộ Quốc phòng cũng loại bỏ Anthropic khỏi các hợp đồng và chuỗi cung ứng của họ. Các biện pháp này cần sự phê duyệt của các quan chức cấp cao của Bộ, và cho phép Anthropic có 30 ngày để phản hồi.

Xung đột này có thể sẽ gây ra phản ứng dây chuyền trong toàn ngành AI. Dean Ball, người từng tham gia soạn thảo kế hoạch hành động AI của Trump, hiện là giám đốc của Viện Nghiên cứu Chính sách Mỹ (Foundation for American Innovation), nói: “Một số người trong chính quyền Trump sẽ cảm thấy cứng rắn và tự mãn về chuyện này, thậm chí tự hào về chính mình khi về nhà.”

Nhưng ông cũng cảnh báo, sự kiện này có thể khiến các doanh nghiệp ngần ngại hợp tác với Bộ Quốc phòng hơn, hoặc chuyển hoạt động ra nước ngoài. “Về lâu dài, điều này không tốt cho hình ảnh của Mỹ như một môi trường kinh doanh ổn định,” ông nói, “và sự ổn định chính là nền tảng của chúng ta.”

Các lãnh đạo của Anthropic tin rằng, Claude sẽ giúp xây dựng các hệ thống AI mạnh mẽ hơn, đủ sức đóng vai trò quyết định trong trật tự quyền lực toàn cầu trong tương lai.

Nếu đúng như vậy, thì cuộc xung đột giữa họ và Bộ Quốc phòng có thể chỉ là phần mở đầu của một chương trình lịch sử lớn hơn.

Xem bản gốc
Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.
Bình luận
0/400
Không có bình luận