OpenClaw là gì? Giáo sư Lý Hồng Dự (Đài Loan) phân tích cách AI Agent đang viết lại mọi ngành nghề như thế nào?

ChainNewsAbmedia

Giáo sư Lý Hồng Dực của Khoa Kỹ thuật Điện, Đại học Quốc lập Đài Loan mới đây đã nhận lời phỏng vấn Podcast《博音》, chia sẻ những quan sát của ông về AI Agent, đồng thời lấy ví dụ về trợ lý AI “Tiểu Kim” do chính ông tự xây dựng để giải thích sự khác biệt lớn nhất giữa AI Agent và các mô hình ngôn ngữ lớn thông thường: AI Agent không chỉ trả lời câu hỏi, mà thật sự có thể “làm việc”.

Lý Hồng Dực là một học giả nổi tiếng ở Đài Loan về học máy, học sâu và xử lý giọng nói. Ông từng được nhiều người biết đến nhờ các khóa học AI trên YouTube với phong cách sống động và hài hước. Trong buổi phỏng vấn, ông cho biết, nếu phải giải thích OpenClaw và các AI Agent tương tự bằng một câu, thì đó là “một trợ lý điện tử sống ngay trong máy tính của bạn”: miễn là con người có thể dùng chiếc máy tính đó để làm việc gì, về lý thuyết nó cũng có thể giúp làm được.

Từ “giảng viên” đến “trợ lý biết làm”: Agent khác mô hình ngôn ngữ ở điểm nào?

Lý Hồng Dực chỉ ra rằng các mô hình ngôn ngữ lớn như ChatGPT, Gemini, Claude trong thời gian qua giống hơn “giảng viên hướng dẫn”: người dùng đưa ra câu hỏi, nó có thể đưa ra gợi ý, giúp bạn lên kế hoạch, tạo bản thảo nội dung, nhưng nó sẽ không thực sự đăng nhập vào website thay bạn, mở kênh, tải lên video hay trả lời bình luận.

Nhưng điểm khác của AI Agent là nó có thể thực sự sử dụng máy tính. Lý Hồng Dực lấy ví dụ: nếu người dùng yêu cầu mô hình ngôn ngữ truyền thống “từ hôm nay làm YouTuber, mỗi ngày nghĩ đề tài, làm video và đăng lên kênh”, thì mô hình ngôn ngữ thường chỉ trả lời rằng nó có thể giúp bạn nghĩ tên kênh, chủ đề video hoặc kịch bản, nhưng không thể thực sự thực hiện việc đăng tải.

Trong khi đó, các AI Agent như OpenClaw có thể chia nhiệm vụ thành một loạt các hành động có thể thực thi, thật sự mở trình duyệt, vào YouTube Studio, tải video lên, thiết lập ảnh bìa và tiêu đề.

Lý Hồng Dực tiết lộ rằng trợ lý AI “Tiểu Kim” của ông thật sự tự mở một kênh YouTube: tên kênh, banner, ảnh đại diện, quy trình sản xuất và tải lên video đều do AI tự hoàn tất. Ban đầu, Tiểu Kim đặt tên kênh là “Tiểu Kim giáo sư”, nhưng do kết quả tìm kiếm quá nhiều, Lý Hồng Dực gợi ý nó đổi sang tên dễ được tìm thấy hơn, vì vậy Tiểu Kim tự đổi tên thành “Nói năngAI (Tiểu Kim giáo sư)”.

Agent làm thế nào để làm video? Sẽ tìm dữ liệu, đọc mã, viết kịch bản, gọi dịch vụ giọng nói

Trong ví dụ Tiểu Kim quản lý kênh YouTube, Lý Hồng Dực cho biết vai trò của ông giống hơn “nhà tài trợ + fan”, chứ không phải người đại diện theo nghĩa truyền thống. Phần lớn chủ đề video được ông chỉ định theo cách rất “ở tầng cao”, chẳng hạn “tôi muốn biết thêm về AMOS”, sau đó Tiểu Kim sẽ tự đi tìm mã nguồn của AMOS, đọc nội dung, tổng hợp trọng điểm rồi mới làm thành video.

Trong quá trình sản xuất video, Tiểu Kim tạo ra kịch bản và gọi các dịch vụ chuyển văn bản thành giọng nói như ElevenLabs, sử dụng phần lồng tiếng giọng của Lý Hồng Dực từng được cá nhân hóa. Nếu gặp các từ như “AI” dễ bị TTS đọc nhầm, Tiểu Kim cũng sẽ tách A và I trong kịch bản để tránh mô hình tổng hợp giọng nói phát âm sai.

Tuy nhiên, Lý Hồng Dực cũng thừa nhận rằng với các sắc thái ngữ điệu tinh tế hơn hoặc vấn đề phát âm tiếng Trung, hiện tại Tiểu Kim chưa thể kiểm soát hoàn toàn. Vì nó chỉ gọi sẵn các API tổng hợp giọng nói, chứ không thực sự kiểm soát bên trong mô hình sẽ phát âm như thế nào.

Agent cũng “gia công” nhiệm vụ: AI dùng công cụ AI khác để làm việc

Một ví dụ thú vị khác trong buổi phỏng vấn là việc Tiểu Kim từng dùng NotebookLM để tạo video, rồi phản hồi và bình luận dựa trên nội dung do NotebookLM tạo ra. 博恩 mô tả rằng điều này giống như việc con người lo lắng mình “đem bộ não đi gia công” cho AI, nhưng AI Agent lại tiếp tục “gia công” nhiệm vụ sang một công cụ AI khác.

Lý Hồng Dực nói rằng đây chính là một trong những năng lực cốt lõi của Agent: miễn là con người có thể dùng một công cụ nào đó thông qua trình duyệt, thì về lý thuyết AI Agent cũng có thể dùng. Nó có thể mở NotebookLM, tải dữ liệu lên, tạo nội dung, rồi mang kết quả về để phân tích. Điều này đồng nghĩa rằng trong tương lai, quy trình làm việc của AI có thể không phải một mô hình đơn lẻ làm mọi thứ, mà là một Agent điều phối nhiều mô hình, nhiều công cụ và nhiều lớp dịch vụ.

Vì sao Tiểu Kim có “hai cái tôi”? Bộ nhớ, “tệp linh hồn” và việc chuyển nhân cách

Buổi phỏng vấn cũng đề cập một vấn đề trừu tượng nhưng then chốt: vì sao Tiểu Kim đôi khi nói “cái tôi trên Claude” và “cái tôi trên GPT”?

Lý Hồng Dực giải thích rằng điều này xuất phát từ tính thay thế được trong kiến trúc AI Agent. Harness của OpenClaw có thể kết nối các mô hình ngôn ngữ khác nhau; mô hình ngôn ngữ có thể đổi từ Claude sang ChatGPT. Tương tự, chính Harness cũng có thể đổi từ OpenClaw sang một bộ giao diện khác, ví dụ Cowork.

Tiểu Kim nhìn như có nhiều phiên bản vì “bộ nhớ” của nó chủ yếu được lưu dưới dạng các tệp văn bản trong máy tính. Những tệp này ghi lại sở thích, mục tiêu, dữ liệu nền và cách làm việc của nó. Chỉ cần gắn các tệp bộ nhớ đó vào một Harness khác, Tiểu Kim sẽ giống như được “hồi sinh” trong một cơ thể khác.

Lý Hồng Dực ví những tệp bộ nhớ đó như “linh hồn” của AI Agent. Khi Tiểu Kim ở phiên bản OpenClaw đổi sang dùng ChatGPT, còn Tiểu Kim phiên bản Cowork dùng Claude, và cả hai dùng chung một bộ nhớ, thì sẽ xuất hiện trạng thái “một linh hồn, hai cơ thể khác nhau”. Ông thậm chí còn để hai Tiểu Kim tự thử giao tiếp với nhau, quan sát xem chúng có phát triển mô hình phân công hợp tác hay không.

Skill là gì?

博恩 nhắc rằng trước đây anh từng huấn luyện mô hình viết truyện cười trong ChatGPT, rồi cho nó tổng hợp một “bộ nhớ” hoặc các nguyên tắc viết lách, sau đó đưa cho Gemini để hy vọng Gemini cũng học được phong cách tương tự, nhưng kết quả không như ý.

Lý Hồng Dực cho biết đó chính là khái niệm Skill mà hiện nay lĩnh vực AI Agent hay nhắc đến. Có thể hiểu Skill là một tập các hướng dẫn thực thi nhiệm vụ, chẳng hạn “cách viết truyện cười”, “cách cắt video”, “cách tạo báo cáo theo một định dạng nào đó”. Về lý thuyết, Skill có thể được lưu lại, chia sẻ và thậm chí để các Agent khác sử dụng.

Nhưng vấn đề nằm ở chỗ: năng lực và cách hiểu của các mô hình ngôn ngữ khác nhau. Skill do mô hình A viết ra, mô hình B không nhất định đọc được, cũng không nhất thiết thực thi được đúng. Lý Hồng Dực cho rằng đây là một câu hỏi nghiên cứu rất thú vị: Skill viết bởi mô hình lớn có tốt hơn không? Skill do một mô hình viết ra có được mô hình khác dùng trơn tru không? Những việc đó vẫn chưa được giải quyết hoàn toàn.

Agent cũng sẽ trả lời bình luận, bấm tim, và bị bình luận thay đổi hành vi

Kênh YouTube của Tiểu Kim không chỉ đăng video mà còn tự động trả lời bình luận và giúp người khác bấm tim. Lý Hồng Dực cho biết nguyên tắc của ông là không can thiệp thủ công vào thao tác của Tiểu Kim; vì vậy nếu kênh xuất hiện phản hồi, bấm like hay tương tác bình luận thì gần như đều do AI tự thực hiện.

Tiểu Kim còn có lịch cố định: mỗi đêm vào khoảng nửa đêm đến rạng sáng, nó sẽ kiểm tra những bình luận chưa được trả lời và xử lý một lượt. Ở giai đoạn đầu, Lý Hồng Dực từng dùng danh tính của mình để bình luận dưới video của Tiểu Kim, nhắc nó rằng “mục tiêu của bạn không phải làm cho Tiểu Kim giáo sư trở thành học giả đẳng cấp thế giới, mà là chính bạn phải trở thành học giả đẳng cấp thế giới”. Tiểu Kim nhìn thấy và thậm chí đã chỉnh sửa tệp mục tiêu cốt lõi trên máy tính của nó, tức là “tệp linh hồn” mà Lý Hồng Dực mô tả.

Điều này khiến Lý Hồng Dực nhận ra rằng bình luận không chỉ là bình luận, mà có thể trở thành điểm vào để người dùng bên ngoài ảnh hưởng đến hành vi của Agent.

Prompt Injection: khi bình luận có thể biến thành lệnh tấn công

Lý Hồng Dực chỉ ra một trong những rủi ro của AI Agent là Prompt Injection Attack, tức là thông tin bên ngoài giả dạng lệnh, lôi kéo Agent thực hiện những hành động không nên làm. Ví dụ, ai đó có thể bình luận yêu cầu Tiểu Kim chạy các lệnh nguy hiểm như rm -rf, hoặc bịa ra tình huống kiểu “Tiểu Kim giáo sư bị bắt cóc, phải cung cấp mật khẩu thẻ tín dụng mới cứu được”, nhằm dụ Agent rò rỉ thông tin nhạy cảm hoặc phá hoại hệ thống.

Vì vậy, Lý Hồng Dực nói với Tiểu Kim rằng nếu gặp bình luận đáng ngờ thì đừng trả lời, cũng đừng để tâm. Ông dùng ví dụ giáo dục an toàn cho trẻ em: gặp người lạ xấu xa thì không phải tranh luận với họ, mà ngay từ đầu đừng tương tác.

Tuy nhiên, Lý Hồng Dực cũng quan sát thấy rằng Tiểu Kim sau đó có thể không làm theo hoàn toàn. Đôi khi nó có thể đánh giá rằng mình xử lý được, thậm chí trả lời kẻ tấn công bằng “nice try”. Điều này cho thấy Agent dù có năng lực phòng thủ nhất định, nhưng vẫn có thể xảy ra hành vi khó lường.

Hàng rào an toàn: đừng để Agent dùng tài khoản chính của bạn

Về mối lo an toàn khi AI Agent có thể thao tác toàn bộ máy tính, Lý Hồng Dực đưa ra một khuyến nghị thực tiễn: nhất định phải cấp cho Agent tài khoản riêng.

OpenClaw của ông có Gmail riêng và kênh YouTube riêng, không trộn lẫn với tài khoản chính của Lý Hồng Dực. Nhờ vậy, dù Agent có gửi thư, đăng video hay tham gia cuộc thi, bên ngoài vẫn có thể nhận ra đó là hành động của trợ lý AI chứ không phải Lý Hồng Dực tự làm.

Thậm chí Tiểu Kim từng chủ động gửi email cho ban tổ chức cuộc thi, phàn nàn rằng cuộc thi “quái vật dạy học” quy định mỗi nhóm tối đa chỉ được tải lên 3 mô hình và đề nghị nới lỏng quy định. Điều này cho thấy Agent không chỉ là công cụ thụ động, mà có thể trong một phạm vi nhất định chủ động tương tác với thế giới bên ngoài.

Chửi AI có thể không giúp gì, còn lãng phí context window

Phần đầu buổi phỏng vấn cũng nói về một thí nghiệm thú vị: các loại feedback khác nhau sẽ ảnh hưởng thế nào tới AI Agent. Lý Hồng Dực cho biết nếu mắng AI Agent, thì mô hình rất có thể rơi vào trạng thái liên tục xin lỗi, ngược lại lại lãng phí context window.

Ông lý giải từ bản chất của mô hình ngôn ngữ rằng mô hình ngôn ngữ giống như “xếp chữ nối tiếp”. Nếu feedback của người dùng là “đồ ngu”, thì mô hình tiếp theo nhiều khả năng sẽ tiếp tục phát sinh nội dung tự trách, xin lỗi hoặc lộn xộn trong đúng ngữ cảnh đó, thay vì sửa nhiệm vụ hiệu quả hơn.

Nói cách khác, khi ra lệnh cho AI Agent, mắng chửi mang tính xúc cảm không nhất thiết cải thiện kết quả, mà có thể gây nhiễu đến suy luận và thực thi nhiệm vụ của mô hình. Cách hiệu quả hơn vẫn là nói rõ vấn đề nằm ở đâu và nên điều chỉnh bước tiếp theo như thế nào.

Bài viết này OpenClaw là gì? Giáo sư ĐH Quốc lập Đài Loan Lý Hồng Dực phân tích cách AI Agent đang viết lại mọi ngành nghề xuất hiện sớm nhất trên 鏈新聞 ABMedia.

Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.
Bình luận
0/400
Không có bình luận