Litecoin

Vào năm 2023, Jeff Yan đã nói về lý do tại sao anh ấy muốn xây dựng Hyperliquid?

2026/01/30 12:45
🌐vi

vô giá trị

Vào năm 2023, Jeff Yan đã nói về lý do tại sao anh ấy muốn xây dựng Hyperliquid?

Tác giả|@flirting với các mô hình

Biên dịch|Aki Wu Shuo Blockchain

Khách mời trong tập này là Jeff Yan, người sáng lập Hyperliquid Jeff Yan. Jeff bắt đầu sự nghiệp của mình trong lĩnh vực giao dịch tần suất cao tại sông Hudson trước khi chuyển sang thế giới tiền điện tử, xây dựng một trong những nhà tạo lập thị trường lớn nhất trong không gian. Một cuộc thảo luận chuyên sâu về cơ sở hạ tầng trao đổi tiền điện tử tập trung, các thuật toán đối nghịch và lý do tại sao P&L HFT (giao dịch tần suất cao) thực sự có thể dự đoán về hành động giá trong trung hạn. Anh giải thích những vấn đề anh gặp phải trong các sàn giao dịch phi tập trung hiện nay và giới thiệu các khái niệm ban đầu về Siêu thanh khoản. Tập này được xuất bản vào ngày 8 tháng 5 năm 2023 và bạn có thể thấy nhiều ý tưởng ban đầu của Jeff Yan.

Cách tham gia giao dịch tiền điện tử từ Harvard

Jeff Yan: Trải nghiệm của tôi có lẽ giống với trải nghiệm của nhiều học viên HFT: Tôi tốt nghiệp Đại học Harvard, chuyên ngành khoa học máy tính và toán học, sau đó trực tiếp gia nhập Hudson River Trading, đây là một tổ chức tạo lập thị trường quy mô lớn theo kiểu truyền thống tài chính. Lúc đó tôi đang kinh doanh chứng khoán Mỹ và kinh nghiệm của tôi rất tốt. Công ty có khoảng 150 người khi tôi gia nhập và bây giờ nó lớn hơn nhiều. Tôi đã được hưởng lợi rất nhiều từ đây và tôi đã phải đối mặt với những vấn đề thú vị nhất. Kỹ thuật và toán học có thể được kết hợp hoàn hảo, gần như là một “thiên đường” cho việc định lượng. Năm 2018, với cơn sốt hợp đồng thông minh Ethereum, tôi đọc (Ethereum) Paper, tôi “ngộ ngộ” ngay lập tức. Tôi tin rằng đó sẽ là tương lai nên tôi đã rời bỏ công việc của mình để làm việc trên giao thức trao đổi L2.

Vào thời điểm đó, chúng tôi chọn đi theo hướng thị trường dự đoán vì vào thời điểm đó Augur Nó đã cho thấy những dấu hiệu mạnh mẽ về sự phù hợp với thị trường sản phẩm (PMF) và chúng tôi ngày càng quan tâm hơn về khả năng kỹ thuật cơ bản của sàn giao dịch. Vì vậy, sau khi quyên góp được tiền, chúng tôi chuyển đến San Francisco để xây dựng đội ngũ. Nhưng vài tháng sau, tôi quyết định đóng cửa dự án vì thời điểm chưa chín muồi: một mặt, sự không chắc chắn về quy định là cực kỳ cao; mặt khác, việc thu hút người dùng là rất khó khăn. Vào thời điểm đó, hầu hết mọi người đều chưa quen với hợp đồng thông minh và mối quan tâm của họ tập trung hơn vào việc đầu cơ token. Nhu cầu thực sự về DeFi vẫn chưa hình thành nên dự án cuối cùng đã bị gác lại.

Sau đó, tôi dành chút thời gian suy ngẫm và du ngoạn, và cuối cùng chọn quay lại giao dịch. So với việc liên tục “tìm kiếm PMF” trên thị trường, bản thân giao dịch trực tiếp và thú vị hơn. Lúc đầu, tôi cũng cân nhắc việc gia nhập một công ty trưởng thành, nhưng nghĩ rằng mình đã từng làm việc về các sản phẩm tiền điện tử và quen thuộc hơn với cơ chế ngành nên tôi bắt đầu với việc tự giao dịch tiền điện tử. Nó bắt đầu như một nghề tay trái, nhưng tôi nhanh chóng nhìn thấy một cơ hội quan trọng và công việc kinh doanh mở rộng nhanh hơn nhiều so với dự kiến. Điều làm tôi ngạc nhiên là thị trường kém hiệu quả đến mức nào. Sau đó, tôi gần như đắm mình trong đó gần ba năm: thời điểm ra mắt hệ thống thực sự là vào đầu năm 2020, thời điểm trùng với chu kỳ thị trường. Khi quy mô thị trường và khối lượng giao dịch tăng gấp 10 lần hoặc thậm chí 100 lần, chúng tôi cũng đồng thời mở rộng và cuối cùng thị phần của chúng tôi đã bước vào cấp độ đầu tiên của các nhà tạo lập thị trường sàn giao dịch tập trung (CEX).

Khoảng một năm trước, chúng tôi bắt đầu đánh giá các cơ hội giao dịch DeFi một cách có hệ thống. Điều này tương tự với những gì được quan sát thấy trong những ngày đầu giao dịch trên CEX – sự kém hiệu quả đang lan rộng. Nhưng điểm khác biệt là một số giao thức DeFi có những thiếu sót cố hữu trong thiết kế cơ chế, dẫn đến trải nghiệm giao dịch và hiệu quả sử dụng vốn bị hạn chế. Đồng thời, sau sự cố FTX, nhận thức của thị trường về "không phải chìa khóa, không phải tiền của bạn" và rủi ro đối tác đã được củng cố đáng kể và nhu cầu về các sản phẩm phi tập trung thực sự tiếp tục tăng. Dựa trên những thay đổi trên, chúng tôi đánh giá rằng thời kỳ cửa sổ để xây dựng một sàn giao dịch phi tập trung đã đến. Trong một đến hai quý vừa qua, chúng tôi tiếp tục đầu tư nguồn lực để phát huy hướng đi này; hoạt động kinh doanh giao dịch tần số cao (HFT) đang ở trạng thái vận hành và bảo trì tương đối ổn định hơn, đồng thời khoản đầu tư và trọng tâm chính hiện tại là triển khai vững chắc hệ thống công nghệ giao dịch phi tập trung này và hoàn thành việc xây dựng có hệ thống.

Thực hiện hoặc nhận đơn đặt hàng: Sự khác biệt giữa hai loại này là gì

Jeff Yan: Theo tôi, đây thực sự là quyết định lớn đầu tiên cần đưa ra khi tham gia giao dịch tần số cao. Từ cấp độ vĩ mô, cả hai đều có nhiều điểm tương đồng: về cơ bản cả hai đều có yêu cầu cơ sở hạ tầng cực kỳ cao và rất nhạy cảm với độ trễ. Tuy nhiên, ở nhiều khía cạnh then chốt, cả hai đều có điểm nhấn trái ngược nhau: việc tạo lập thị trường phụ thuộc nhiều hơn vào năng lực cơ sở hạ tầng; việc nhận đơn hàng phụ thuộc nhiều hơn vào số liệu thống kê và mô hình toán học.

Tôi nghĩ nên chọn con đường nào chủ yếu phụ thuộc vào loại công việc và nghiên cứu bạn thích đầu tư hơn. Lấy việc tạo lập thị trường làm ví dụ. Ở một mức độ nhất định, bạn phải tuân theo mệnh lệnh “xuyên thủng báo giá” của đối thủ và có rất ít chỗ cho sai sót. Thông thường thông qua đòn bẩy, việc đặt lệnh trên nhiều loại và nhiều mức giá sẽ tạo ra rủi ro tiềm ẩn lớn; một khi mắc sai lầm, cái giá phải trả cho rủi ro nối đuôi thường rất cao. Ngược lại, chiến lược Taker chỉ có thể được kích hoạt một lần một ngày — và vẫn là một chiến lược tần suất cao hiệu quả, có thể dựa trên tin tức hoặc một số loại tín hiệu được phân đoạn.

Vì có ít trình kích hoạt hơn nên bạn có chỗ để tạo mô hình nhiều hơn đã được tinh chỉnh: sẽ không thành vấn đề nếu nó không kích hoạt hầu hết thời gian, miễn là hiệu suất đủ tốt khi nó được kích hoạt. Ngược lại, việc tạo lập thị trường không có kiểu co giãn này — ngay cả khi nó hoạt động tốt trong 99% thời gian, chỉ 1% trong số đó hơi chậm và không theo dõi dữ liệu kịp thời, và các khoản lỗ liên quan có thể đủ để xóa sạch toàn bộ PnL của 99% còn lại. Đây là điểm khác biệt cơ bản giữa "dựa trên cơ sở hạ tầng" và "dựa trên mô hình".

Corey Hoffstein: Có thể hiểu nó bằng trực giác hơn được không: The lý do tại sao bên chọn "nhận lệnh" sẵn sàng vượt qua chênh lệch giá chào bán là vì họ kỳ vọng rằng giá sẽ tiếp tục di chuyển theo hướng của mình nên sẵn sàng chịu chi phí chênh lệch giá; trong khi bên "thị trường" muốn giá duy trì ổn định nhất có thể trong khoảng thời gian giao dịch của mình - khi ai đó thực hiện giao dịch với nó theo mức chênh lệch giá, thì họ sẽ hoàn thành giao dịch phòng ngừa rủi ro hoặc đảo ngược ở phía bên kia, từ đó có được thu nhập chênh lệch. Sự phân biệt này có hợp lý không? Nghĩa là, một bên thích thị trường đi ngang trong khoảng thời gian mà nó tọa lạc, trong khi bên kia thích chuyển động theo hướng.

Jeff Yan: Đúng, về cơ bản có thể hiểu theo cách này. Trong giao dịch tần suất cao, chúng tôi thường đánh giá mức chênh lệch (lợi nhuận xem lại) trong khoảng thời gian rất ngắn, nhưng nhận định này cũng đúng với tần suất giao dịch tổng quát hơn: miễn là bạn chọn "nhận lệnh", tại thời điểm đo ở mức giá trung bình, bạn sẽ ngay lập tức chịu một khoản lỗ nhất định (chênh lệch và phí). Chiến lược của bạn sẽ chỉ có những kỳ vọng tích cực nếu xu hướng giá trung bình sau đó bù đắp khoản lỗ tức thời này và bù đắp thêm chi phí trong khoảng thời gian dự báo mà bạn đặt.

Việc tạo lập thị trường hoàn toàn ngược lại: tại thời điểm giao dịch, bạn "PnL ban đầu" thường ở mức cao nhất có thể đối với giao dịch - bởi vì bạn vừa nhận được chênh lệch giá. Điều bạn đang đặt cược là những lợi ích này sẽ không bị xói mòn hoàn toàn bởi "những lựa chọn xuống cấp" xét về mặt trung bình.

Do đó, trong kịch bản tạo lập thị trường, nếu tất cả các giao dịch đều được tuân thủ bằng cách đánh dấu theo chiều thời gian, PnL thường là dạng phổ biến hơn để giảm theo thời gian; kỳ vọng của bạn là mức giảm của nó không tiến triển thành giá trị âm.

Corey Hoffstein: Trước cuộc gọi của chúng ta, bạn đã đề cập rằng điều khó nhất Một phần của việc mở rộng kinh doanh của bạn không phải là nghiên cứu mà là cơ sở hạ tầng. Tôi cũng thấy một tuyên bố tương tự từ bạn trên

Jeff Yan: Câu hỏi này có thể được chia đại khái thành hai phần và hai phần có liên quan chặt chẽ với nhau: một là "cơ sở hạ tầng thương mại" và phần còn lại là "cơ sở hạ tầng nghiên cứu". Làm sạch dữ liệu thích cách thứ hai hơn và là một phần của thực hành thống kê; trước đây là một hệ thống giao dịch tần số cao theo nghĩa hẹp. Cả hai đều cực kỳ quan trọng.

Mặc dù cấp độ nghiên cứu quen thuộc hơn nhưng cần phải nhấn mạnh rằng "tỷ lệ tín hiệu trên nhiễu" và kiểu nhiễu trong giao dịch tần số cao kém hơn nhiều so với hầu hết các đối tượng trong nghiên cứu học thuật, do đó việc xử lý các ngoại lệ quan trọng hơn nhiều.

Nếu thiếu khung xử lý chính xác cho những vấn đề này và chỉ cần bỏ qua các ngoại lệ, thì khi sự kiện đuôi thiên nga đen xảy ra, mô hình có thể bị phá vỡ trực tiếp; nhưng nếu quá trình chuẩn hóa hoặc lọc không được thực hiện tốt, các mẫu cực đoan sẽ chiếm ưu thế trong việc huấn luyện mô hình và lựa chọn tham số. Trong thực tế cụ thể, việc sử dụng lượng tử trong nhiều nhiệm vụ thường hiệu quả hơn so với việc sử dụng trực tiếp các giá trị gốc; ngay cả khi sử dụng các giá trị ban đầu, cần phải có sự đánh đổi rõ ràng giữa "loại bỏ các giá trị ngoại lệ" và "cắt bỏ các giá trị ngoại lệ" và tác động của những lựa chọn này đến hiệu quả cuối cùng thường rất đáng kể.

Bài học lớn nhất nghe có vẻ đơn giản: bạn phải tự mình xem lại dữ liệu. Đừng nghĩ rằng nếu bạn đủ thông minh và quy trình của bạn đủ “sạch” thì đầu vào của mô hình sẽ tự động phù hợp với mong đợi. Thời gian dành cho việc kiểm tra dữ liệu thô khó có thể được coi là “quá nhiều” - vì hầu hết mọi lần xem xét đều dẫn đến những phát hiện mới. Nhóm nên hoàn thành tất cả các luồng dữ liệu gốc do sàn giao dịch cung cấp trong giai đoạn đầu, kiểm tra từng luồng một, chủ động xác định các điểm bất thường và tiến hành xác minh tính nhất quán.

Có một trường hợp tưởng chừng vô lý nhưng lại có thật: tại một thời điểm nào đó, một cuộc trao đổi đã có một sai sót trong việc thúc đẩy thị trường và hoán đổi trường "giá" và "số lượng". Ví dụ: 20.000 / 0,1 của Bitcoin được ghi là 0,1 / 20.000, gây ra sự sai lệch hoàn toàn về số liệu thống kê nội bộ và logic đếm của chúng tôi. Do đó, nhiều nhóm đã phải ngừng hoạt động hoặc chuyển sang các nguồn dữ liệu thay thế. Loại sự cố này cho thấy dù logic của bạn có được thiết kế “mạnh mẽ” đến đâu cũng không thể bao quát hết mọi tình huống bất thường, vì vậy bạn nên giữ dữ liệu gốc càng chặt chẽ và dễ truy nguyên càng tốt.

Và hãy chú ý đến dấu thời gian. Các sàn giao dịch thường cung cấp nhiều dấu thời gian trong dữ liệu và ý nghĩa thực sự của chúng cần phải được phân tách và căn chỉnh riêng. Điều này đặc biệt quan trọng để hiểu “độ trễ hộp đen” - chính xác thì bạn đang đo lường điều gì? Bạn có thực sự đang “theo kịp” thị trường hay họ đang đưa ra những dữ liệu kém chất lượng? Bằng cách tách và so sánh dấu thời gian, những tình huống này có thể được phân biệt rõ hơn để xác định xem liên kết có hoạt động tốt hay không và độ trễ có nằm trong phạm vi có thể kiểm soát được hay không.

"giá hợp lý (công bằng)" là gì? Làm thế nào để đo lường nó và tại sao việc tạo lập thị trường tần số cao lại phải được giao dịch xung quanh nó?

Jeff Yan: Các công ty thương mại khác nhau có định nghĩa khác nhau về công bằng, thường tùy thuộc vào phong cách giao dịch tương ứng của họ. Nhưng điểm chung của chúng là về cơ bản, công bằng sẽ cô đọng kết quả mô hình hóa của bạn thành "giá dự đoán". Sự trừu tượng này có giá trị vì nó chia “cách xây dựng chiến lược sinh lời” thành hai nhiệm vụ khó khăn như nhau: dự đoán giá và thực hiện lệnh.

Điều này cũng lặp lại câu hỏi trước đây của bạn về tạo lập thị trường và nhận lệnh: market việc tạo ra thiên về khía cạnh thực thi nhiều hơn, trong khi việc nhận đơn hàng thiên về khía cạnh mô hình hóa nhiều hơn. Đối với chiến lược của người nhận, việc nghiên cứu và ra quyết định hầu như luôn xoay quanh “giá hợp lý”. Về việc những thông tin nào nên được đưa vào mức giá hợp lý, nó phụ thuộc vào liên kết xử lý dữ liệu nào mà bạn cho rằng mình có lợi thế và khoảng trống về hiệu quả cụ thể trên thị trường tồn tại ở đâu.

Ngoài ra, không nhất thiết chỉ có một mức giá hợp lý. Trong khung học máy nhiều hơn, bạn có thể đồng thời duy trì mức giá hợp lý cho các khoảng thời gian dự báo khác nhau, chẳng hạn như dự báo 1 giây và dự báo 1 ngày; các chiến lược thực hiện sẽ được sử dụng theo những cách khác nhau và các mục tiêu tối ưu hóa tương ứng cũng có thể khác nhau về khía cạnh PnL.

Đối với người mới bắt đầu, một "phương pháp cắt thô" tương đối hiệu quả là: đưa ra trước tiên một giá trị duy nhất mà bạn sẵn sàng báo giá hoặc mở rộng mức chênh lệch và coi đó là "nhà tiên tri" của mình; sau đó, trên cơ sở có một chuỗi giá lịch sử, hãy suy nghĩ thêm về cách đạt được khả năng khớp lệnh tối ưu xung quanh giá trị này.

Corey Hoffstein: Có thể đơn giản hóa và hiểu là: quan sát không? một sàn giao dịch nhất định, nếu chúng ta giả định rằng Binance đã thu thập gần như toàn bộ thanh khoản thì giá của Binance có thể được coi là một mức giá hợp lý; nếu các sàn giao dịch khác (chẳng hạn như OKX) có độ trễ ở cấp độ mili giây so với cấp độ thứ hai, chúng tôi có thể giao dịch dựa trên mức giá hợp lý của Binance trong khoảng chênh lệch giá và đợi nó “bắt kịp giá”. Tất nhiên, cũng có một cách tiếp cận thống kê hơn, đó là không lấy một sàn giao dịch duy nhất làm "giá trị thực" mà ước tính mức giá hợp lý dựa trên các tín hiệu liên quan đến sổ lệnh. Lời giải thích này có hợp lệ không? Tôi cũng không hoàn toàn chắc chắn.

Jeff Yan: Đúng, ý tưởng này đúng. Lấy địa điểm giao dịch có tính thanh khoản cao nhất làm mức giá hợp lý thực sự là một ước tính ban đầu tốt. Trong những ngày đầu, chênh lệch giá thường xuyên xảy ra ở mức 10% giữa các sàn. Khó khăn chính lúc đó không phải là dự đoán giá mà là làm thế nào để chuyển tiền giữa các sàn giao dịch một cách hiệu quả; vì vậy phương pháp này rất hiệu quả vào thời điểm đó. Thị trường đã trải qua một quá trình phát triển trong những năm gần đây: thanh khoản ban đầu phân tán, sau đó quay trở lại và tập trung vào Binance (đặc biệt là gần đây). Vì vậy, như bạn đã nói, coi giá Binance là mức giá hợp lý là điểm khởi đầu hợp lý.

Tuy nhiên, cần nhấn mạnh rằng vẫn cần phải thận trọng trong việc đánh đồng trực tiếp một nguồn bên ngoài duy nhất với mức giá hợp lý. Ví dụ: độ trễ của OKX có thể chỉ vài mili giây và giao dịch thực tế không nhất thiết phải đơn giản như đã nêu. Đi xa hơn, giả sử có một cơ hội: bất cứ khi nào giá Binance thay đổi và không có ai nhận lệnh trên OKX, bạn sẽ theo dõi giao dịch và cố gắng đóng giao dịch chênh lệch giá. Điều này có thể hiệu quả trong hầu hết các trường hợp, nhưng xét cho cùng thì đây là thị trường tiền điện tử và có nguy cơ gián đoạn: ví dụ: OKX đột nhiên tiến hành bảo trì ví, khiến việc gửi và rút tiền giữa Binance và OKX tạm thời bị cắt, chuỗi chênh lệch giá không thể đóng lại và giá có thể phân kỳ theo đó. Tại thời điểm này, nếu giá hợp lý của bạn chỉ dựa vào giá Binance, bạn có thể phải đối mặt với rủi ro thụ động.

Có nhiều yếu tố chi tiết. Ngay cả trong khuôn khổ có vẻ trực quan này, nó không chỉ đơn thuần là “lấy một số từ một số nguồn dữ liệu làm giá trị hợp lý” mà nó chỉ có thể đóng vai trò là một xấp xỉ ban đầu tốt.

Corey Hoffstein: Điều này cũng dẫn tôi đến điều tôi muốn hãy hỏi tiếp theo: nhiều đặc điểm kỹ thuật và “bẫy” của các sàn giao dịch tiền điện tử. Đánh giá từ kinh nghiệm lịch sử, danh tiếng kỹ thuật của họ không ổn định: bạn đã đề cập đến các ví dụ trước đó về "dữ liệu bẩn" (chẳng hạn như trường giá và số lượng hoán đổi), sự cố API, tài liệu kém, điểm cuối ẩn và thậm chí cả các thông số không được tiết lộ. Tôi nhớ rằng gần đây bạn đã đưa ra một ví dụ về Câu hỏi của tôi là: những thứ như hiểu sâu về chi tiết API và đo lường chính xác độ trễ điểm cuối có thể đóng góp bao nhiêu alpha? So với điều này, điều gì quan trọng hơn alpha thống kê "truyền thống" hơn (chẳng hạn như sử dụng tín hiệu sổ lệnh để xác định áp suất và hướng)?

Jeff Yan: Dòng tweet bạn đề cập, tôi nhớ phản hồi thực sự rất thú vị tốt.

Corey Hoffstein: Nhân tiện, tôi vẫn chưa chắc chắn đó là trò đùa Cá tháng Tư.

Jeff Yan: Ngày Cá tháng Tư đã qua, tôi thừa nhận đó là một trò đùa. Nhưng nó gần với thực tế hơn mọi người nghĩ. “Trò đùa” thực sự ở đây là: nó thực sự đúng một phần. Tôi đã định viết bài tiếp theo và đây là một lời nhắc nhở hữu ích - tôi sẽ đăng nó ngay sau khi ghi xong số báo này.

Quay trở lại với trực giác của bạn, tôi nghĩ phán đoán của bạn là đúng hướng. Khi một người làm việc lâu dài ở một công ty nào đó, anh ta thường nảy sinh sở thích; hoặc anh ta đưa ra các sở thích - ví dụ: "Tôi đã học toán, vì vậy tôi nên tạo ra các mô hình học máy thú vị hơn, khai thác tín hiệu và tạo ra alpha. Đây là chìa khóa, vì nó khó nhất." Ý tưởng “chỉ làm mô hình” này có thể áp dụng được ở các công ty lớn vì sự phân công lao động đủ chi tiết; nhưng nếu bạn cần tự mình điều hành toàn bộ công việc kinh doanh thì chỉ điều này thôi sẽ không giúp bạn tiến xa được.

"Công việc bẩn thỉu" mà bạn đã đề cập - hiểu kỹ về API, điền vào vào các khoảng trống trong tài liệu và đo độ trễ của từng điểm cuối - là rất quan trọng. Sự hiểu biết của tôi về giao dịch tần số cao (và thực tế là nhiều thứ) là nó giống như một sản phẩm của nhiều yếu tố hơn là một tổng đơn giản. Đầu vào của bạn trong các "nhóm" khác nhau dường như được cộng lại, nhưng đầu ra thường được phản ánh trong mối quan hệ nhân lên. Để đưa ra ví dụ cụ thể:

Hiệu suất tổng thể≈Cơ sở hạ tầng × Mô hình.

Nếu chỉ có yếu tố "cơ sở hạ tầng" 1, và hệ số "mô hình hóa" là 10, thì với mỗi đơn vị công sức đầu tư, lựa chọn hợp lý thường là ưu tiên lấp đầy bảng ngắn nhất. Khó khăn với giao dịch tần số cao là khó xác định chính xác mức độ của từng yếu tố này. Vì vậy, trong thực tế, cần phải "phân tích tổng hợp" liên tục - điều tôi đang làm bây giờ có thực sự là điều quan trọng nhất không? Bạn sẽ nhanh chóng tìm ra: câu trả lời không hiển nhiên. Nhiều lợi thế cạnh tranh được phản ánh chính xác ở khả năng đánh giá các ưu tiên.

Theo nghĩa này, những công việc có vẻ "bẩn thỉu" đó thường rất quan trọng. Những kết quả dễ đạt được cần được theo đuổi một cách thực tế, tuân theo quy tắc 80/20. Khi thị trường đang diễn ra suôn sẻ, hiểu lầm phổ biến nhất là: "Nền tảng đã được đặt, chúng ta có thể thực hiện một số nghiên cứu về máy học hay hơn và theo đuổi sự đổi mới". Chúng ta cũng đã phải trả giá vào thời điểm này. Điều này không có nghĩa là không có alpha theo hướng này mà quy mô đầu tư lớn và lợi nhuận cận biên có xu hướng giảm nhanh.

Khi nhóm của bạn còn nhỏ, các chiến lược hiện tại của bạn vẫn hiệu quả và ở đó Vẫn còn rất nhiều cơ hội trên thị trường, bạn cần phải liên tục tự hỏi bản thân và đối mặt với nó một cách trung thực: Điều gì nên là ưu tiên hàng đầu vào lúc này? Đừng bị “dụ dỗ” bởi những dữ liệu hời hợt để theo đuổi những hướng đi không nên ưu tiên vào thời điểm hiện tại.

Corey Hoffstein: Dành cho những người muốn thực hiện giao dịch tần suất cao trong lĩnh vực tiền điện tử, bạn đã đưa ra hai gợi ý: một là giao dịch trực tiếp trên Binance (Binance) và tập trung vào tạo alpha (tôi hiểu đây là "nhận lệnh tích cực" hơn là "tạo thị trường lệnh chờ"); cách còn lại là chọn một sàn giao dịch có đặc điểm dài hạn, hiểu sâu sắc “đặc điểm” về cấp độ cơ sở hạ tầng của nó và tìm ra những lợi thế phù hợp. Bạn có thể giải thích thêm tại sao bạn cho rằng đây là hai con đường tốt nhất không? Sự khác biệt về mặt phương pháp giữa hai là gì?

Jeff Yan: Điều này có thể được so sánh với kết luận trực quan của một “đường cong hình chuông” - đừng ở giữa. Nếu trục hoành của đường cong hình chuông được hiểu là các sàn giao dịch khác nhau thì vấn đề nổi bật nhất thường nằm ở khoảng giữa, chẳng hạn như các nền tảng gần tương ứng với các cấp độ thứ 2 đến thứ 7.

Their trading volume is much smaller than Binance, but the competition intensity is similar to "toxic traffic", and the quality of the traffic may even be worse. At least on Binance, we know that its proportion of retail traffic is extremely high, which will bring about a "buffering effect" — a more friendly mix of toxic and retail traffic. The top HFT companies have basically fully accessed the top several leading exchanges (you can roughly understand them as the top 15), and will use larger-scale and more mature strategies to trade at full capacity; it is difficult for you to "squeeze" much profit on these middle-tier platforms. If you are willing to challenge a large-scale CEX strategy that is highly scalable, start directly with Binance. What can be generalized will be generalized as much as possible - there is no reason to start in the "middle".

The other path you mentioned also holds true: go to the left end of the bell curve. Go for small, overlooked opportunities — that are either too small to be worth the big players’ time, or too niche to be covered by them. Niche infrastructure is an excellent example.

The exchange system is developed and implemented by people. Just as the protocol design of many DEXs may have obvious deficiencies, the technical implementation of some small centralized exchanges may also have clearly identifiable flaws. If only you truly understand the "quirks" in how it works, this in itself may translate into a strategic advantage. Infrastructure is often an important source of alpha, and there is no absolutely clear boundary between "model vs. infrastructure".

You may worry about "non-generalization": for example, you have mastered a specific "utilization method" on a small exchange, but it does not directly help you on Binance. I think the outside world generally underestimates the value of "running an effective strategy." For most teams, this should be the primary goal; as for the size of the strategy, you don’t necessarily need to worry too much about it in the initial stage.

Of course there is a basic premise: if the platform is so small that there is almost no trading volume, research and deployment will be meaningless. However, as long as there is a certain transaction size, certain profits can usually be achieved. More importantly, if the strategy has a high Sharpe rate and is robust enough to retail events, you will gain capabilities and experience that most participants do not have.

Even if the specific strategy may not be directly generalizable, my experience is: as long as you complete the closed loop of "research - online - production", the knowledge gained in this process is often far beyond expectations; even if you then start over and switch to leading platforms such as Binance, the overall difficulty will be significantly reduced. In addition, although many detailed differences cannot be transferred one-to-one, you will start to extract common principles from "things that have been proven to work" and continue to generate new ideas; these ideas are often significantly better than imagining them out of thin air.

Therefore, both paths have value. If you have trouble making a choice, you can start small and then gradually move towards the bigger one; frankly speaking, it’s not a bad idea to try both paths.

Corey Hoffstein: You mentioned “toxic traffic.” Can you give a definition to someone who has never heard of this concept?

Jeff Yan: Its essence is “information-dominated traffic.” I have a framework for understanding the growth of the crypto market: It was actually not too early when I entered the market, and I can only imagine the earlier state by looking back. Even at the stage when I entered the market, the scale of retail funds was already considerable and there were large players. However, the core contradiction between supply and demand at that time was still that the available liquidity was not enough to meet the trading needs of the retail side. Therefore, retail traffic is the most direct and most worthy object to capture. The most intuitive approach is to write a more general market-making strategy and provide liquidity through pending orders. As long as retail investors trade with your pending orders, you can largely retain the profits they contribute across the spread; at that time, this model itself can continue to be profitable. This in turn constituted a strong signal: the dominant traffic in the market at that time still mainly came from the retail side.

But as time went by, market participants gradually realized this and began to deploy market-making strategies on a large scale. As the liquidity on the market-making side continues to increase, the significance of the taker strategy increases, and the bid-ask spread continues to be compressed. In order to continue to capture high-quality retail traffic, order takers began to appear, and turned to more selectively "screening" low-quality pending orders on the market-making side and took them away one by one. This is a common path in market evolution. What needs to be added is that takers also provide important value to the market; it is not accurate to simply divide "market making = market maker, taker = opponent's market", and the two types of roles are often intertwined in practice. In my opinion, a more ideal market form is to allow participants to trade freely in their own way.

But from the perspective of a market maker, this type of order-taking traffic will significantly increase the difficulty of the strategy: the original relatively easy model — continuously placing orders and obtaining a small spread each time it is executed — may be “broken down” by a small number of transactions. For example, you might make a cumulative gain of about 1 basis point on about 99% of your retail trades, but lose a lump sum of 10 basis points on about 1% of your trades (just as a mental model, not an exact number). Under this structure, the tail losses are enough to eat up most of the conventional gains.

Therefore, "toxic traffic" refers to a large extent this kind of traffic represented by takers and having information advantages. Of course, whether it constitutes "toxic" depends on the specific strategy you are running; but in most contexts, a relatively intuitive distinction can be made between "retail traffic" and "institutional/high-level traffic".

加密市场中“对抗性算法”诱骗 HFT 有多常见?

Jeff Yan:Crypto 确实带有一种“西部荒野”的气质。换个更积极的角度看,Crypto 也是一场实验,而立场与视角在其中尤为重要。监管者往往会抓住一点不放 — — “他们没有遵循我们精心制定的证券法”。而 DeFi 的支持者则会认为,这些证券法本身很可能带有游说与人为判断的烙印;加密或许提供了一种更偏自由意志主义的实验空间:究竟哪些事物必须被监管?我也并不确信,现实大概率介于两者之间。我并非监管者或政策制定者,这里只是分享一些偏哲学层面的观察。回到实务层面,如果你不重视那些带有操纵与攫取性质的策略,在加密市场开展交易将会非常吃力。

另一个现实是,并非交易所不愿监管,而是很多时候并不清楚究竟应由谁来监管哪一家交易所 — — 至少对我而言,这一点并不明晰。许多法律框架在不同国家之间差异显著,这或许也是问题长期存在的重要原因之一。并且,运营一家交易所本身就极具难度,他们还需要同时处理大量其他事项。

举一个更具体的例子:spoofing(诱骗挂单/虚假申报)是一类非常常见的行为。我不打算在此纠缠其在美国证券与期货法中的严格技术定义;这里所说的 spoofing 更偏向宽泛含义:从订单簿及随后形成的价格轨迹中,你往往可以清晰观察到,有人挂出巨量订单,但显然并无真实成交意图 — — 甚至一旦成交,他们反而会感到不利。尽管在法律层面很难证明其“意图”,但这些挂单显然并非为了成交,而是为了制造某一侧挂单极为充沛的假象。其结果是:若某些算法将订单簿流动性视为价格走向信号,就可能被误导,进而在相应方向下单。待“诱导”生效后,spoofing 算法接下来要么挂出更易被击中的 maker 单,要么主动吃掉那些在诱导下暴露出来的被动挂单。

这类情形非常常见。另一个更为直白的,则是各类市场操纵行为,例如“拉高出货”的组织化圈子。

出于观察,我曾潜伏过几个此类群体,从未参与交易,仅作旁观。这类现象的规模不小。近来相关行为确实被清理了不少,这是一件好事;但在早些年,它们甚至能够制造夸张的成交量:某个“内圈人士”宣布一只代币,随后零售用户迅速涌入(其组织方式我亦不甚了解),内圈人士则借助流量完成出货。对高频交易而言,这类场景表面上似乎可以应对,但实际处理难度很高,因为强烈的均值回归效应往往会反向“诱杀”策略。

至于应对方式,又回到你此前提出的基础设施、模型与策略之间的取舍 — — 精力究竟应投入何处。对我而言,这一类问题属于必须覆盖的“杂项/特殊场景”,也可归入风险管理与特殊情景处置。

简言之,若不完成这部分工作,即便其他环节做到近乎完美,在不同市场状态与不同标的上,这一块仍可能成为决定长期平均 PnL 成败的关键因素。

Jeff Yan:我们最初遭遇这类情况时,确实感到震撼。回想起来,我们当时算是幸运:起初交易的标的要么不易被操纵,要么对方尚未来得及下手。我们完全没有预见到这一问题,在“无知”的前提下搭建了系统,Pnl 一度进展顺利。但一旦中招,冲击会非常剧烈 — — 如果不对策略进行约束,可能在一分钟内亏掉一天的 PnL。有时自动化交易反而是最“愚蠢”的交易,因为它本质上只是一个缺乏人工裁量的有限状态机,只会按预设路径执行。我们的应对方式相当务实:当然,你可以坐下来细究、建模,去预测是否存在操纵;但我们当时的一项优势,是反应极快、以数据为依据,不执着于“最规范”的路径。对我们而言,做法就是 — — 一旦出现特定亏损模式,便直接关停相关逻辑;

Jeff Yan:这类规则往往在一小时内就可以完成编写,并直接上线到生产环境。当时我们严格遵循 80/20 原则:确实会因此错过一部分机会,但也由此腾出了时间与精力,用于扩容与推进那些能够将 PnL 放大 10 倍的关键事项,而不是被这些问题持续牵制。可能有约 5% 的时间,我们会因关停而放弃潜在收益,但这本质上是取舍与判断 — — 将资源投入到最具价值的工作上。

随着后续资源与时间更为充裕,我们才逐步将这一块做深:目前已经具备更复杂的模型,用于预测相关市场状态并识别正在发生的行为;相较早期较为“离散”的开/关处理方式,如今我们更多采取连续化的参数与权重调整,对策略进行动态约束与自适应配置。

截至目前,我们对这类操纵行为的运作方式及其可识别特征已形成较为深入的理解。但仍需强调:对新入行者而言,80/20 原则依然是最重要的行动准则。

市场操纵是否更多发生在长尾币种与小交易所

Jeff Yan:在任何交易所,比特币与以太坊上出现这类情形都相对少见,因为它们的流动性更为充足。我认为,这更多取决于资产本身,而非交易所。几乎所有交易所我都见过(操纵/诱骗)行为;不同平台上手法有所差异,你能感受到参与者并不完全相同,但整体套路大体一致。

其中存在一个“甜蜜点”:若某个代币几乎没有成交量,通常不值得投入;但对于部分具备一定成交规模的山寨资产则不同 — — 算法会在其上预期存在一定成交与流动性,于是便可能出现“可被诱导”的空间,从而使操纵者能够从中获利。

Corey Hoffstein:我一直认为,我们观察市场的方式往往受制于自身的交易周期。你作为高频交易者,对微观结构的直觉可能与我这种持有周期更长、偏基本面的人很不一样。你曾发过一条推文,将市场比作一种黏性流体,外部冲击在价格发现过程中会以阻尼振荡的方式呈现。我觉得这个比喻很有意思,能否进一步展开?

Jeff Yan:我同样重视对事物本质的理解。这大概与我的数学与物理背景有关 — — 若未能理解其内在机制,我很难在一个“黑箱”体系上进行创新。因此我倾向于构建一些心智类比与比喻,以帮助理解市场如何运作。

以“黏性流体”的模型为例,可以先回到一个更基础的问题:高频交易为何能够赚钱?不少散户会将其视为一种“掠夺”,例如认为我们在“抢跑”或“猎杀止损”。我并不是要宣称高频交易是在“行善”,但我认为它确实在一定程度上为市场提供了必要的服务。

可以将外部影响价格的因素抽象为对系统施加的“冲击”(对我们而言,这在很大程度上具有随机性):例如,有人短期内急需成交、必须立刻获取流动性;或是新闻事件改变了资产的“公允价值”。尽管有人会尝试解读事件本身,但这类需求往往是突发的,且通常“成交后即退出”。订单簿本质上是一个强 PvP(参与者相互博弈)的场域,许多参与者带着明确的执行紧迫性入场;并且会形成反馈循环:动量交易触发更多交易,进而催生多种不稳定均衡。

在这种结构下,价格往往先经历一次幅度最大的初始冲击,随后市场参与者才逐步“进场”并围绕真正的公允价(fair)展开博弈。第一跳通常最大;之后会有人判断“出现过冲”,据此进行均值回归交易 — — 既可能来自中频,也可能来自高频参与者,例如认为“未来 5 秒的均值上价格将回落”。与此同时,也会有人认为事件影响深远,从而选择顺势推动价格持续上行,直至出现更大幅度的涨幅;例如“Elon 将 Doge 纳入 Twitter”这类事件,在其叙事框架下可能被视为“具有真实影响”,从而反过来击穿均值回归一侧的头寸。

整体而言,这更像是一场以真金白银进行的“价格投票”与持续博弈。其关键特征在于:波动幅度会逐步收敛。随着参与者逐渐建立其目标头寸,资金不断完成加权平均,价格最终趋于收敛至更稳定的公平价区间。

在这一过程中,高频交易的核心功能仍是以低买高卖的方式提供流动性。若将价格路径视为一条上下波动的曲线,高频交易在曲线偏低时买入、偏高时卖出,其交易冲击在平均意义上会对该曲线产生平滑效应 — — 促使价格更快向公允价贴近,并在价格形成过程中尽量围绕公允价运行。

因此,在这一类比框架下,高频能力越强、市场流动性越充足,这团“流体”就越表现为更高的黏性(阻尼更强)。这一心智模型未必严密,但大体上即为我那条推文所意图表达的含义。

为何高频交易的 P&L 能预测中频价格变动?

Jeff Yan:这是我们内部的一些“探索性想法”。我此前提到过,围绕已被验证有效的方向进行迭代,几乎总是更优:命中率更高,也更容易实现规模化。但我们也会为少量更大胆的探索保留空间,偶尔它们确实会产生效果。这一次就是一个相对成功的“兴趣项目”,在立项之初,我们并没有很强的先验判断。

其动机主要在于:我们的可用资本规模已超过高频策略能够有效承载的容量;我们虽已接入多家交易所,但这更多属于常数项层面的扩张,且边际收益持续递减 — — 因为后续接入的平台体量越来越小。于是我们开始思考:是否可以将触角延伸至中频领域 — — 理想状态下,那将是夏普率 3–4,且容量可达到高频策略数百倍的“理想资产”。这一设想听起来极具吸引力。

不过,我们总体上认可有效市场的基本框架。是的,我们在高频上具备优势,但如果给我们一组日度数据、要求我们预测日收益,我们也很难直接找到可靠的切入点。基于这种审慎态度,这个“脑洞”为我们提供了一条相对可行的路径:在中频交易中,若能获得对他人有价值但他人无法获取的数据源,本身就可能形成策略优势。我们不可能像一些机构那样获取卫星图像、统计停车场车流等“另类数据”。那么,我们真正拥有的是什么?我们拥有自身的 HFT PnL — — 这是一项私有数据,而且显然并非随机噪声,从其时间序列形态就能看出某种结构性特征,因而值得进一步研究。

进一步追问,它与哪些因素相关?回到此前关于“有毒流量与零售流量”的讨论,它与零售流量高度相关。一个相对朴素的先验是:若你能够区分市场参与者类型并理解其行为模式,往往就能获得较好的信号。整体的先验当然仍是“多数信号缺乏稳定预测性”,但方向并不必然明确。因此我们的思路是:既然我们拥有这一指标,且它与零售流量相关,而零售流量又在概率意义上与价格形成相关 — — 那么就应当将这条路径真正做透,并进行严肃的分析验证。

Jeff Yan:我们确实做了这项分析。总体思路是:将一系列以 P&L 为核心的特征(例如 P&L 的变化量、P&L 的“导数”等)纳入回归框架,用以预测中频尺度上、不同时间窗口下的价格表现。起初我们也不确定中频研究应如何落地,因此采取相对“宽覆盖”的方式:先从 5 分钟收益入手,再将时间尺度逐步扩展至数小时。

Jeff Yan:研究主要依托我们内部看板的数据体系,该体系能够汇总不同策略在不同交易所、不同标的上的 P&L,并支持按交易所/策略/品种等维度进行切分。由于数据噪声较大,需要进行较为稳健的处理;显然,我们不会直接用单一币种的 P&L 去回归该币种的中频走势 — — 噪声过高、可解释性也有限。我们基本遵循 80/20 原则,通过分桶与分组等方式,在尽量避免明显过拟合、并遵循既有先验的前提下,得到一个相当有趣、且与直觉相反的结论:

无论是做市还是吃单,高频侧的 PnL 与加密资产后续回报呈显著负相关,且效应强度并不弱。我们在尝试进行实盘捕捉时一度非常兴奋:在 1–2 小时的预测窗口内,该效应的量级大致达到数十个基点,并且容量较高。

但问题在于:该信号几乎只在提示做空,而缺乏对称的反向效应(理论上或许存在,但我们的策略迭代会避免长期处于持续亏损状态)。换言之,当我们赚钱时,模型给出的含义更接近于:应当做空。

Jeff Yan:那么,究竟做空什么?直觉上应当是做空永续合约或期货。但在具体落地时,会遇到两个现实约束。

第一是资金费率。当这类情形出现时,许多成熟参与者往往也在做空;即便各自关注的底层信号不同,alpha 之间也可能高度相关,市场行为趋于同向,资金费率会反映并吸收这一部分拥挤程度。

第二是信号最“显著有效”的个别标的往往属于极端样本,而这些标的在实际操作上反而难以做空,原因可能包括流动性不足、可借券受限、合约工具不完备等。

尽管如此,整体效应仍然具有可用性。高频交易天然会形成库存,你可以在策略之间进行内部对冲或内化;即便不采取内化方式,也可以在信号最强时对库存目标施加偏置(例如尽量降低持仓或避免持仓),从而对总体 P&L 产生正向贡献。

就“单独抽象出一条可复用的中频空头策略”而言,我们认为其说服力不足,因此并未将其包装为独立策略。这也属于最接近能够公开分享的那类 alpha;但具体是否可执行,仍取决于你的策略组合与交易流程设计,它完全可能在特定体系下转化为可落地的 alpha。

Corey Hoffstein:我很喜欢这个思路:直接在期货上做空未必可行,因为资金费率可能已将信号部分价格化;但通过调整库存偏置来承接这一 alpha,是一种替代路径,并能对 P&L 产生实质性影响。

这让我联想到我所处频段的一些做法 — — 以 DFA 为例,他们并不显式交易动量,但在买入价值股时会剔除动量显著偏弱的个股:并非将动量作为因子直接建仓,而是在完全不同的时间尺度上,等待负动量阶段消退后再介入价值。这与这里的逻辑相近:将理论上“正交”的 alpha 不作为显式头寸表达,而是融入交易流程中,通过边际优势与细微改进持续提升结果。这一概念很有启发。

Jeff Yan:补充一点。你刚才的例子很有意思,我此前并未接触过,但我确实听过一些以大仓位交易为主的“人工盘手”提到类似做法:在加密市场中,只要50 日均线与某条均线出现“金叉/死叉”,他们就会触发相应动作。其含义是:其核心决策并不依赖技术分析,但当某个技术条件出现时,会将其视为执行触发器。我并未专门研究你提到的那一案例,但它让我联想到同类方法 — — 等待一个自认为相对可靠的“条件信号”发生变化,再执行既定交易流程。

Corey Hoffstein:是的,本质就是等待某个条件信号发生改变。很有意思。我们前面谈了很多中心化交易所,但对链上策略/去中心化交易所涉及不多。你提到过,你最喜欢但后来已经停用的一类链上策略是做 RFQ。能否解释一下:它是什么、为什么你当时非常喜欢且效果很好、以及后来为何停止?

Jeff Yan:大约半年前,我们开始加大在 DeFi 方向的投入。当时业内普遍认为,最好的机会正在向链上迁移,而中心化交易所这边已进入边际收益递减阶段(整体成交活跃度偏低)。因此我们决定投入更多时间研究 DeFi。那段时间,RFQ(Request for Quote,询价/报价)形成了一波热潮。 CrocSwap 的 Douglas 最近也发表过几条颇有意思的推文,我在很大程度上同意他的观点:这一设计并不理想 — — 它在尝试将传统金融(TradFi)中有效的机制直接移植到 DeFi,但未必契合链上环境。

为便于不熟悉的听众理解,先补充背景:RFQ 的出发点是较为清晰的 — — 帮助做市商过滤“有毒流量”,并让零售用户能够与做市商直接对接。零售用户发起请求:“我是零售用户,请给我报价。”做市商返回一个报价(通常优于盘口点差,或至少能够满足零售用户希望成交的更大规模)。零售用户拿到做市商签名的报价后,将该签名载荷广播至智能合约;合约验证签名有效后,完成双方资产结算。其本质更接近一套“协议化的 OTC”机制。

其设想听起来确实合理,在传统金融(TradFi)中也较为常见:用户可以获得更大规模、且不易被高频交易“前置”的成交,对零售端而言属于更好的服务。但在 DeFi 语境下,这几乎是一个显而易见的缺陷设计,因为你无法证明对方确为“散户” — — 链上默认匿名,且不存在 KYC 这一层身份验证。

为验证这一判断,我们写了一个极简的 Python 脚本,批量发起询价请求。结果做市商确实给出了极优报价:价差大约仅 5 个基点,且报价有效期为 60–90 秒。多数情况下,从做市商视角看,获得这样的成交本应是有吸引力的;其愿意给出的成交规模也相当可观(十万美元级别)。但这也直接暴露了机制缺陷:在一个无法验证身份、默认匿名的系统中,任何人都可以伪装为“散户”,反向利用报价机制获取优势。这也是我们当时为何一度非常喜欢、但又很快停止使用这类链上 RFQ 策略的根本原因。

Jeff Yan:我们的操作方式其实很简单:先等待价格出现波动。加密市场本就波动较大,一旦价格发生变化,我们就将那笔已经签名的交易广播上链。对手方能做的有限。该策略的夏普率非常高。进一步说,甚至不必等待价格波动才触发 — — 其本质更接近一张“免费期权”,且带有明确的时间价值:你可以一直等到报价接近到期的最后时刻,再决定是否提交成交。

Jeff Yan:这也使得收益更为稳定。我们当时就是这样执行的。显然,我们并非唯一这样做的参与者(也可能是之一),做市商很快便作出反应:开始停止向我们提供正常报价,理由是“你们在让我们亏钱,你们显然不是散户”,于是要么给出极宽价差,要么干脆不再报价。对此我们也可以应对,例如更换地址、更换钱包继续请求。

从原则层面看,我并不认为这种策略本身存在问题。更像是一个现实层面的顾虑:我们执行这一策略的最大价值,可能在于向市场证明 RFQ 的微观结构设计存在硬伤 — — 资本与智力资源应当转向更合理的机制。也许在这一意义上,我们的“实验”已经完成了其功能。

我理解目前许多 RFQ 机制已引入做市商的 “last look(最后看价权)”,而非让“散户”保有最终决定权。正如你所说,我们后来也停止了这类策略。我确实认为这是一种演化;但一旦给予做市商 last look,RFQ 的核心优势基本会被削弱甚至消失。这一点在 Twitter 的相关讨论中也能看到:要在机制层面优于中心限价簿(CLOB)非常困难,我并不认为 RFQ 能在 DeFi 中稳定实现这一点。上述经历也进一步说明,在我们反复试错之后,愈发感到该赛道仍不成熟,许多协议的机制设计并未充分想清楚。

在这一背景下,我们当时作出了一个战略判断:与其在既有机制上进行“套利式适配”,不如由我们来构建一个真正面向零售用户、能够实现去中心化价格发现的平台。

为何转向 Hyperliquid

Jeff Yan:我们之所以决定亲自下场去做,是因为在 DeFi 交易过程中产生了强烈困惑:即便在 2022 年年中 DeFi 低迷期,零售流量依然可观,但用户却在使用体验极差的协议。他们在底层公链性能不佳的情况下支付高额 Gas,同时还在使用机制设计并不理想的方案(例如 RFQ)。更令人意外的是,用户确实愿意继续使用;从数据层面也能清楚看到 — — 需求始终存在。基于这一判断,我们进一步深入调研。

我不太记得 FTX 事件在这条时间线中的准确位置,但应当是在其暴雷前不久。 FTX 崩盘之后,市场叙事迅速转向对手方风险:“Not your keys, not your coins”这类过去更像口号的表述,突然成为多数人最关切的问题。这进一步强化了我们“应当构建某种基础设施”的信念。但具体要构建什么,我们也曾反复权衡:首先需要弄清用户的真实需求,以及市场中尚未被满足的空白。

彼时市场上已有大量 swap 的克隆版本,各类小幅创新与聚合器层出不穷,不同曲线与公式带来了巨大的参数空间。然而我们对 AMM 路线并不乐观:相当一部分所谓“做市”所形成的流动性,更多是被错误或误导性的叙事驱动出来的低质量流动性(例如对“无常损失”的表述方式、以及流动性挖矿遗留效应)。即便 AMM 确实代表市场的主要需求,这条赛道也已高度拥挤,我们再推出一个同类产品,能够提供的增量价值并不清晰。

因此我们转而回到中心化交易所去观察:用户真正需要什么?价格发现主要发生在哪里?有效流动性集中在哪里?答案高度一致 — — 永续合约。永续本身是一项极为巧妙的创新(其思想最早可追溯至传统市场,但在加密市场被充分发展)。而在去中心化领域,真正以去中心化方式提供这一能力的项目几乎不存在。 dYdX 虽然采用订单簿形态,但撮合仍偏中心化;它是最接近的一类方案,但也仅止于此。我们的结论是:既然缺口明确,那就由我们来做。

面向交易者的价值主张也很直接:如果你认可 Binance、Bybit 这类中心化交易体验,但又不愿承担托管风险 — — 那么 Hyperliquid 试图提供的正是这种选择。

Hyperliquid 近期已启动封闭内测,其目标是提供与中心化交易所(CEX)一致的交易体验:点差足够窄、成交确认近乎即时、Gas 成本几乎为零(仅用于防御 DoS)。在无拥堵条件下,其区块链可实现每秒处理数万笔订单。所有行为全程透明、全部上链,所有操作均以链上交易记录呈现 — — 这就是我们所追求的愿景。

我们的首要目标用户是DeFi圈,因为向更广泛人群灌输“你可以不用托管机构、把信任交给链上合约”的教育成本很高,也不是我们的特长;而DeFi用户今天就愿意用。我们要做的是向他们证明:在众多协议里,大多数并不严肃,有些只是权宜之计/创可贴式方案,或基于本地价格的临时机制 — — 适合赌徒,但并不适合需要真实流动性与可靠价格发现的严肃交易者。我们要提供的,是可用的流动性与去中心化的价格发现机制。

区块链与智能合约本身可以承担托管与结算职能,并在机制层面建立可验证的信任。但这一观念的推广并不容易,也非我们所长。我们的策略更直接:以产品与事实展示差异,让用户看到在繁杂的协议选择中,多数方案并不严谨,许多只是短期补丁(其中一些甚至仅基于本地价格)。这类机制或许更适合“Degen 式”参与,而不适合需要稳定交易体验与真实流动性的专业交易者。

Hyperliquid 的不同之处在于:我们从设计之初即围绕上述需求展开。为此,我们在技术上做了大量创新,并投入了一个季度的大部分时间进行集中开发。起初,我们也一度被 dYdX 的路径所吸引:链下撮合、链上无托管结算。但在进一步推演后,我们认为该模型存在结构性缺陷 — — 一个系统的去中心化程度,取决于其中最中心化的那一环。基于这一判断,我们无法接受该方案,因为它难以扩展至我们设想的规模与愿景。

因此,我们回到原点:必须实现完全去中心化。在我们的约束条件下,这几乎意味着别无选择 — — 只能自研一条公链。我们不倾向于绕行,也不盲从既有结论。外界普遍认为自建 L1 难度极高,我们的处理方式是先集中解决共识问题。 Tendermint 并不完美,但其成熟度高、经过大量实战检验。我们选择在其基础上构建,并由此推进到当前阶段。

为何 Hyperliquid 选择自建 L1,并将其视为关键的“纵向集成”决策

Jeff Yan:过去几年,L1 已成为行业中的重要叙事,许多大额投资也围绕其展开,例如 Solana、Avalanche 等所谓的 L1 项目。概念本身其实并不复杂:L1 指的就是一条区块链本体。与之相对的是“基于智能合约的实现路径” — — 即在另一条既有的 L1(例如以太坊、Solana)之上,通过智能合约实现交易所逻辑,并由该 L1 负责执行与结算。

这一点之所以重要,在于其中存在较为微妙的激励结构。许多团队愿意“建在某条 L1 上”,部分原因是这样更容易获得持有大量代币的 VC/基金的支持与宣传资源;而通用型智能合约 L1 的价值亦依赖应用生态承载,因此它们天然倾向于吸引开发者“基于我来部署合约”。相较之下,以 Tendermint 为基础的 Cosmos 系链更接近自我主权(self-sovereign)模型 — — 缺乏强烈的外部激励去推动其扩张,价值也并不直接回流到某个单一主体。

就我的亲身体验而言(两条路径我们都尝试过),很难想象仅将既有 L1 作为通用合约平台,就能构建出真正高质量的交易所,尤其是在衍生品场景、尤其是在订单簿模式下。某种意义上的“旁证”是 dYdX:作为公认的先行者,其在运行五年后也选择转向自建区块链。他们的动机或许包含法律层面的压力(我只能推测),但无论如何,其当前运行的架构显然并非完全去中心化;待新链就绪后,旧架构也将逐步退出。对我们而言,若目标是打造一套真正高质量的交易所,走 L1 路径才是更为正统且可扩展的方向。

举一个更具体的例子:如果将交易所完全实现为“智能合约”,就必然受到基础合约平台规则的强约束。以以太坊为例,交易与状态更新通常需要由用户交易触发。于是,对于永续合约交易所最基本的运营动作之一 — — 例如每 8 小时结算资金费 — — 一旦系统中存在 10 万个在持仓的“会话/仓位”,需要更新的存储槽数量在单个区块内根本无法容纳。你就不得不额外设计一套“由谁触发资金费结算”的机制:可能需要拍卖触发权限,设计激励与费用分配,向触发者补贴 Gas 成本等。更关键的是,这一过程往往无法原子化完成,最终实际效果就会变成“约每 8 小时结算一次”,但具体执行时点取决于当时参与者活跃程度,可能延后数分钟。对于策略交易者而言,很难围绕这种不确定性建立稳定的执行与风控框架。

而这类操作对所有永续合约交易所而言都属于“基础动作”。如果在自研链上实现,则可以显著简化:将资金费结算逻辑写入共识协议即可。例如规定:当新区块产出且其时间戳恰好满足自创世起每 8 小时的整数倍时,系统自动触发资金费结算并执行相应逻辑,整体实现会更直接、更可控。换言之,运营一家永续合约交易所,在工程本质上更接近于构建一条 L1,而不仅仅是编写几份智能合约。

为什么 Hyperliquid 认为订单簿 DEX 优于“费率分层”的流动性池模式?

Jeff Yan:费率分层这一点确实颇具代表性。你会看到,不少 AMM 正在缓慢地向订单簿形态“进化”。对许多 DeFi 从业者而言,这难免带来挫败感 — — 仿佛最终仍在重造轮子。过程中或许会产生局部创新,但从更底层的结构看,流动性池模型既有其“巧妙”之处,也带有某种近似“被过度包装”的意味。

之所以如此,是因为 AMM 在很大程度上源自当年的计算与存储约束。回到 2018 年(Uniswap 刚出现的阶段),链上可承载的算术运算极为有限,一笔交易往往只能更新极少量的存储状态,用户也无法接受过高的 Gas 成本。 AMM 正是在这种算力与存储高度受限的环境下,为了“勉强可用”而形成的折中方案。

它之所以能运转,某种意义上依赖于说服资金进入池子提供流动性。与此同时,将无常损失包装为一套营销叙事,在我看来是一种非常高明、但也值得质疑的做法:向零售用户强调“存进去不是交易,而是在获得收益”;即便可能产生损失,也被解释为“无常”的、可被忽略的成本。这种叙事是否充分揭示了风险,至少存在讨论空间。

从交易者视角看,AMM 池子的套利机会在机制上相对显性:围绕这些池子进行套利可以获取收益。如今这类交易已相当拥挤,但在早期阶段,它确实曾是具备明显正期望的策略。与订单簿市场不同,池子的流动性提供者往往并非专业做市商,而更多是零售 LP。许多人将资金放入池中后长期不再管理,依赖所谓“挖矿收益”维持参与。若缺乏有效管理与风险认知,在长期维度上,其期望收益可能并不理想,甚至可能持续被动承受不利选择带来的损耗。

“流动性挖矿”在早期通过激励强行拉入了流动性;当激励衰减后,部分资金可能仍停留在池中,甚至存在参与者对自身敞口缺乏持续关注的情况。这一结构本身难言可持续。有人可能反驳说“成交量依然很高”,但在你的论述框架里,这更可能与激励与营销机制有关,而非长期均衡下的自然结果。长期均衡中,真实可承受的流动性可能逐步下降,直到 LP 为覆盖不利选择所付出的隐性成本,被迫将费率抬升至更高水平;而费率一旦升高,零售流量又会被进一步抑制,从而形成负反馈循环。

在那种“实际可承受”的流动性水平下,若将收益与风险成本进行核算,结果往往并不理想。这也是我认为资金池模型难以长期成立的根本原因之一。

其所谓“升级版”可以理解为 GMX 及一系列“GMX 克隆”:它们不再依赖恒定函数曲线,而转向采用预言机价格。为了使交易发生时的预言机读数尽可能贴近“真实价格”,这类协议往往会设置诸多限制与权宜设计。然而即便如此,相关问题仍频繁出现 — — 例如,有人先在中心化交易所操纵价格,再在 GMX 上针对已被操纵的预言机报价进行交易获利。就机制层面而言,这些手段本质上仍更像是“止痛贴式”的补丁,而非从根本上解决价格发现与对手方信息优势的问题。

在我看来,随着近年在 L1 共识等底层技术方向的进展,我们终于不必再在“去中心化”与“可用交易形态”之间作出过度妥协:既能保持去中心化,又能够承载订单簿式交易。基于经验,这几乎是唯一被充分验证、能够实现真实价格发现并形成“真实市场”的路径。

自建 L1 是否会因跨链与法币出入金而拖慢价格发现

Jeff Yan:这确实是整个加密行业的共性问题,并不局限于 DeFi。即便在中心化交易所做套利,资金的充提链路仍运行在公链之上,一旦链上拥堵,转移效率就会显著下降。我们起步阶段选择聚焦永续合约,本质上是一次 80/20 的取舍:市场绝大部分交易量与价格发现都集中在永续上。在此基础上再做一次 80/20,就是先统一采用 USDC 作为保证金,把核心路径打通;后续再逐步引入多种稳定币以分散风险,并不困难。对多数用户而言,这一模式更顺畅:将 USDC 存入桥/链/合约体系后,即可在同一处对大量加密资产表达观点并进行交易。

就高波动资产的观点表达与价格发现而言,只要具备抵押品,就能够建立头寸并实施套利。典型场景是现货 — 永续套利:获取资金费并交易期现价差。在这一结构下,永续端完全可以在 Hyperliquid 上完成,而无需频繁搬动现货或 USDC。

当然,跨链问题本身仍需持续关注。当前已有不少值得关注的全链技术方向;我们已集成其中部分方案,并会持续支持相关演进。由于资源与优先级约束,我们不会亲自投入多链基础设施的“原始创新”,但终极目标是明确的:资产可来自任意源链,并通过可信最小化或去中心化的桥接方式抵押进入,从而直接作为 Hyperliquid 的保证金使用。

目前,无论通过 UI、Python SDK,还是直接调用原始 API 试用 Hyperliquid,端到端延迟大致在 100–300 毫秒之间;由于出块存在随机性,该数值并非完全确定。你可能会认为这比 Binance 的下单延迟慢一个数量级。但延迟的影响并非像手续费那样线性累加;就我们优先服务的核心用户群体 — — 零售用户 — — 而言,人类在 100 毫秒与数十毫秒之间几乎难以稳定分辨差异。

即便能够分辨,多数情况下也并不构成关键因素;他们更在意的是获得“即时”的交互反馈。在通常市场环境下,价格在 100 毫秒与 10 毫秒之间并不会发生实质性变化。

对绝大多数交易场景而言,这部分由区块时间引入的延迟可以近似视为零,因此通过运行自研 L1 基本可以将其控制在可接受范围内。相较之下,Ethereum 等链上超过 10 秒的确认时间会显著损害体验 — — 价格在 10 秒内可能发生较大波动。并且,从用户侧看,延迟改进的收益存在明显的边际递减。就订单簿速度而言,更关键的指标反而是 TPS;对应到去中心化交易所,具体就是每秒可处理的下单、撤单等操作数量。

确实,相较 Binance 等中心化交易所,去中心化交易所的吞吐往往会低一个数量级。

但在我看来,这一差距并不必然构成实质性问题 — — 计算能力持续提升,而当前性能在工程意义上已经“足够好”。我并不知道 Binance 撮合引擎的确切指标,假设其可处理 1,000,000 笔/秒,而我们自研 L1 的目标是 100,000 笔/秒,这并不能简单推出“Binance 好 10 倍”的结论。协议完全可以有意识地将上限设计在 100,000 TPS,这仍然足以支撑所覆盖资产的价格发现与大部分用户需求。的确,在极端波动时期,部分频繁重下单可能会延后数个区块,甚至十个区块才被链上处理。

但类似现象在中心化交易所同样会发生。因此,尽管数值上存在“一个数量级”的差距,却未必对应“一个数量级”的成本后果。

相反,如果将比较对象换成通用智能合约链,其吞吐可能只有 10 TPS,那么 10 与 100,000 之间的差距就会变得决定性。此外,这不仅是 TPS 的问题,也涉及工程取舍。 dYdX 一直强调链下订单簿路径 — — 据我了解,即便在 v4 版本中,其计划仍是由验证者各自运行订单簿,仅将结算放到链上。

理论上,这或许能带来一个数量级的 TPS 提升,但代价也相当高。会显著放大 MEV 空间,同时也会让“何为事实”变得更为含混 — — 在我看来,订单簿应当被视为系统状态的一部分;将其置于链下,会使系统整体更难推理、也更难验证。因此,我更倾向于接受少数几个数量级的性能折损,以换取鲁棒性、韧性与透明度的显著提升;在我看来,这些收益远大于成本。

再补充一点:我们也对最新的共识研究进行了系统调研。可以预见,共识将成为系统的主要瓶颈,但近年的新成果非常多,方向也很有价值。 Tendermint 的确相对“老”,其核心思想至少已有十年历史。学界在相关问题上积累深厚,只是许多较新的共识协议尚未达到可生产级。因此,我们目前选择 Tendermint 作为阶段性方案,但除共识之外的部分几乎全部自研:不依赖 Cosmos SDK,而是使用 Rust 从零实现高性能组件。

与此同时,我们已经完成了相关研究并会持续跟进。对我们而言,一旦出现更优且达到生产级的共识协议,将 Tendermint 替换为新方案的迁移成本并不高;在条件成熟时,我们预计至少可以获得 10 倍的性能提升。我们对技术路径保持乐观:目前自研部分与 PoC(概念验证)均已就绪,基准测试数据也表现良好。若非确认平台能够承载目标负载,我们也不会推进当前的市场推广与用户增长。

我所关注的是掌控、意志、成功、行动与决心 — — 这与我们“以做事立身”的方式高度契合,也使我们与许多团队拉开差距。我们设定的目标往往并不“保守”:例如,“能否在完全去中心化的前提下,做出一个不牺牲体验的 Binance?”多数人可能会认为这至少需要五年。但我们不预设结论,而是从第一性原理出发研究,并将其真正工程化落地。这种意志与执行力对交易同样关键:你既要有取胜的意愿,也要有盈利的动机;缺少任何一项,都很难走到最后。如今我们在建设一个更大的系统,这种“战车式”的推进方式就更重要 — — 市场确实需要它,但少有人愿意承担,部分原因是这件事本身确实很难。我们的选择很直接:由我们来做。

QQlink

暗号バックドアなし、妥協なし。ブロックチェーン技術に基づいた分散型ソーシャルおよび金融プラットフォームで、プライバシーと自由をユーザーの手に取り戻します。

© 2024 QQlink 研究開発チーム. 無断転載を禁じます。