परिपक्व वर्गीकारक: सपोर्ट वेक्टर मशीन (SVM) एक शक्तिशाली और परिपक्व बाइनरी (या बहुभिन्नरूपी) वर्गीकरण एल्गोरिथम है। यह अनुमान लगाना कि शेयर में वृद्धि होगी या गिरावट, एक विशिष्ट बाइनरी वर्गीकरण समस्या है।
अरैखिक क्षमता: कर्नेल फ़ंक्शन (जैसे आरबीएफ कर्नेल) का उपयोग करके, एसवीएम इनपुट सुविधाओं के बीच जटिल अरैखिक संबंधों को पकड़ सकता है, जो वित्तीय बाजार डेटा के लिए महत्वपूर्ण है।
फ़ीचर-संचालित: मॉडल की प्रभावशीलता काफी हद तक आपके द्वारा उसमें डाली गई “फ़ीचर्स” पर निर्भर करती है। अभी गणना किया गया अल्फ़ा फ़ैक्टर एक अच्छी शुरुआत है, और हम पूर्वानुमान क्षमता को बेहतर बनाने के लिए ऐसे और फ़ीचर्स बना सकते हैं।
इस बार मैंने 3 फीचर रूपरेखाओं के साथ शुरुआत की:
1: उच्च आवृत्ति आदेश प्रवाह विशेषताएँ:
alpha_1min: पिछले मिनट में सभी टिक्स के आधार पर गणना की गई ऑर्डर प्रवाह असंतुलन कारक।
alpha_5min: पिछले 5 मिनट में सभी टिक्स के आधार पर ऑर्डर प्रवाह असंतुलन कारक की गणना की जाती है।
alpha_15min: पिछले 15 मिनट में सभी टिक्स के आधार पर ऑर्डर प्रवाह असंतुलन कारक की गणना की जाती है।
ofi_1min (ऑर्डर फ़्लो असंतुलन): 1 मिनट की अवधि में (खरीद मात्रा / बिक्री मात्रा) का अनुपात। यह अल्फ़ा से ज़्यादा प्रत्यक्ष है।
vol_per_trade_1min: 1 मिनट के भीतर प्रति ट्रेड औसत वॉल्यूम। बाज़ार पर बड़े ऑर्डर के प्रभाव का संकेत।
2: मूल्य और अस्थिरता विशेषताएँ: log_return_5min: पिछले 5 मिनट में लघुगणकीय वापसी दर, log(Pt / P{t-5min}). अस्थिरता_15 मिनट: पिछले 15 मिनट के लॉग रिटर्न का मानक विचलन, अल्पकालिक अस्थिरता का एक माप। atr_14 (औसत ट्रू रेंज): पिछले 14 1-मिनट कैंडलस्टिक्स पर आधारित एटीआर मूल्य, एक क्लासिक अस्थिरता संकेतक। rsi_14 (सापेक्ष शक्ति सूचकांक): यह पिछले 14 1-मिनट कैंडलस्टिक्स के आरएसआई मूल्यों के आधार पर ओवरबॉट और ओवरसोल्ड स्थितियों का एक उपाय है।
3: समय विशेषताएँ: दिन का घंटा: वर्तमान घंटा (0-23)। बाज़ार अलग-अलग समयावधियों (जैसे, एशियाई/यूरोपीय/अमेरिकी सत्र) में अलग-अलग व्यवहार करते हैं। day_of_week: सप्ताह का दिन (0-6)। सप्ताहांत और कार्यदिवसों में उतार-चढ़ाव के अलग-अलग पैटर्न होते हैं।
def calculate_features_and_labels(klines):
"""
核心函数
"""
features = []
labels = []
# 为了计算RSI等指标,我们需要价格序列
close_prices = [k['close'] for k in klines]
# 从第30根K线开始,因为需要足够的前置数据
for i in range(30, len(klines) - PREDICT_HORIZON):
# 1. 价格与波动率特征
price_change_15m = (klines[i]['close'] - klines[i-15]['close']) / klines[i-15]['close']
volatility_30m = np.std(close_prices[i-30:i])
# 计算RSI
diffs = np.diff(close_prices[i-14:i+1])
gains = np.sum(diffs[diffs > 0]) / 14
losses = -np.sum(diffs[diffs < 0]) / 14
rs = gains / (losses + 1e-10)
rsi_14 = 100 - (100 / (1 + rs))
# 2. 时间特征
dt_object = datetime.fromtimestamp(klines[i]['ts'] / 1000)
hour_of_day = dt_object.hour
day_of_week = dt_object.weekday()
# 组合所有特征
current_features = [price_change_15m, volatility_30m, rsi_14, hour_of_day, day_of_week]
features.append(current_features)
# 3. 数据标注
future_price = klines[i + PREDICT_HORIZON]['close']
current_price = klines[i]['close']
if future_price > current_price * (1 + SPREAD_THRESHOLD):
labels.append(0) # 涨
elif future_price < current_price * (1 - SPREAD_THRESHOLD):
labels.append(1) # 跌
else:
labels.append(2) # 横盘
फिर तीन श्रेणियों का उपयोग करके बढ़ते, गिरते और बग़ल में अंतर करें।
फीचर स्क्रीनिंग का मुख्य विचार: “अच्छे साथियों” को खोजें और “बुरे साथियों” को हटाएँ
हमारा लक्ष्य ऐसी विशेषताओं का एक समूह खोजना है जो:
def run_analysis_report(X, y, clf, scaler):
Log("--- 模型分析报告 ---", "info")
Log("1. 特征重要性 (代理模型: 随机森林):")
rf = RandomForestClassifier(n_estimators=50, random_state=42); rf.fit(X, y)
importances = sorted(zip(g_feature_names, rf.feature_importances_), key=lambda x: x[1], reverse=True)
for name, importance in importances: Log(f" - {name}: {importance:.4f}")
Log("2. 特征与标签的互信息:"); mi_scores = mutual_info_classif(X, y)
mi_scores = sorted(zip(g_feature_names, mi_scores), key=lambda x: x[1], reverse=True)
for name, score in mi_scores: Log(f" - {name}: {score:.4f}")
Log("3. 历史数据回测表现:"); y_pred = clf.predict(scaler.transform(X)); accuracy = accuracy_score(y, y_pred)
Log(f" - **历史回测总胜率: {accuracy * 100:.2f}%**", "success")
Log("4. 混淆矩阵 (行:真实, 列:预测):"); cm = confusion_matrix(y, y_pred)
Log(" 预测涨(0) 预测跌(1) 预测平(2)"); Log(f"真实涨(0): {cm[0] if len(cm) > 0 else [0,0,0]}")
Log(f"真实跌(1): {cm[1] if len(cm) > 1 else [0,0,0]}"); Log(f"真实平(2): {cm[2] if len(cm) > 2 else [0,0,0]}")
profit_chart = Chart({'title': {'text': f'历史回测净值曲线 (胜率: {accuracy*100:.2f}%)'}}); profit_chart.reset(); balance = 1
for i in range(len(y)):
if y_pred[i] == y[i] and y[i] != 2: balance *= (1 + 0.01)
elif y_pred[i] != y[i] and y_pred[i] != 2: balance *= (1 - 0.01)
profit_chart.add(i, balance)
Log("--- 报告结束, 5秒后进入实盘预测 ---", "info"); Sleep(5000)
प्रक्रिया इस प्रकार है:
डेटा एकत्र करना
विशेषता का महत्व
सुविधाओं और लेबलों के बीच पारस्परिक जानकारी और बैकटेस्ट जानकारी

मैंने शुरू में सोचा था कि 65% जीत दर काफ़ी होगी, लेकिन मुझे उम्मीद नहीं थी कि यह 81.98% तक पहुँच जाएगी। मेरी पहली प्रतिक्रिया होनी चाहिए: “यह बहुत बढ़िया है, लेकिन यह सच होने के लिए बहुत अच्छा है। इसमें ज़रूर कुछ ऐसा होगा जिसकी खोज की जानी चाहिए।”
1विश्लेषण रिपोर्ट की गहन व्याख्या, रिपोर्ट की सामग्री की एक-एक करके व्याख्या:
2वास्तविक जीत दर 81.98% से कम क्यों हो सकती है?
अब हमारे पास एक प्रारंभिक, फिर भी संभावित रूप से विशाल, “अल्फ़ा मॉडल” है। हालाँकि हम 81.98% के आँकड़ों को भविष्य के लिए एक यथार्थवादी भविष्यवाणी के रूप में सीधे तौर पर नहीं समझ सकते, फिर भी यह एक मज़बूत सकारात्मक संकेत है, जो दर्शाता है कि आँकड़ों में पूर्वानुमान योग्य पैटर्न मौजूद हैं, और हमारे ढाँचे ने उन्हें सफलतापूर्वक पकड़ लिया है! अब हमें ऐसा लग रहा है जैसे हमें पहाड़ की तलहटी में उच्च-गुणवत्ता वाले सोने के अयस्क का पहला टुकड़ा मिल गया हो। हमारा अगला कदम इसे तुरंत बेचना नहीं है, बल्कि पूरे पहाड़ का अधिक कुशलतापूर्वक और स्थिर खनन करने के लिए अधिक विशिष्ट उपकरणों और तकनीकों (विशेषताओं का अनुकूलन और मापदंडों का समायोजन) का उपयोग करना है।
अब आइए युद्ध के कोहरे को “सूक्ष्म जगत” में पेश करें - ऑर्डर प्रवाह और ऑर्डर बुक विशेषताएँ चरण 1: डेटा संग्रहण को उन्नत करें - गहन चैनलों की सदस्यता लें ऑर्डर बुक डेटा प्राप्त करने के लिए, WebSocket कनेक्शन विधि को केवल aggTrade (सौदों) की सदस्यता लेने से aggTrade और depth दोनों की सदस्यता लेने में संशोधित किया जाना चाहिए। इसके लिए हमें अधिक सामान्य मल्टी-स्ट्रीम सदस्यता URL का उपयोग करना होगा। चरण 2: फ़ीचर इंजीनियरिंग को उन्नत करें - “समुद्र, भूमि और वायु” के लिए एक त्रिमूर्ति फ़ीचर मैट्रिक्स बनाएँ हम calculate_features_and_labels फ़ंक्शन में निम्नलिखित नई सुविधाएँ जोड़ेंगे:
यह नया फीचर मैट्रिक्स एक संयुक्त लड़ाकू कमान की तरह है, जो एक साथ “समुद्र (मूल्य प्रवृत्ति)”, “भूमि (बाजार की स्थिति)” और “वायु (लेनदेन प्रभाव)” से वास्तविक समय की खुफिया जानकारी प्राप्त करता है, और इसकी निर्णय लेने की क्षमता पहले से कहीं अधिक बेहतर होगी। कोड इस प्रकार है:
import json
import math
import time
import websocket
import threading
from datetime import datetime
import numpy as np
from sklearn import svm
from sklearn.preprocessing import StandardScaler
from sklearn.metrics import confusion_matrix, accuracy_score
from sklearn.feature_selection import mutual_info_classif
from sklearn.ensemble import RandomForestClassifier
# ========== 全局配置 ==========
TRAIN_BARS = 100
PREDICT_HORIZON = 15
SPREAD_THRESHOLD = 0.005
SYMBOL_FMZ = "ETH_USDT"
SYMBOL_API = SYMBOL_FMZ.replace('_', '').lower()
WEBSOCKET_URL = f"wss://fstream.binance.com/stream?streams={SYMBOL_API}@aggTrade/{SYMBOL_API}@depth20@100ms"
# ========== 全局状态变量 ==========
g_model, g_scaler = None, None
g_klines_1min, g_ticks, g_order_book_history = [], [], []
g_last_kline_ts = 0
g_feature_names = ['price_change_15m', 'volatility_30m', 'rsi_14', 'hour_of_day',
'alpha_15m', 'wobi_10s', 'spread_10s']
# ========== 特征工程与模型训练 ==========
def calculate_features_and_labels(klines, ticks, order_books_history, is_realtime=False):
features, labels = [], []
close_prices = [k['close'] for k in klines]
# 根据是训练还是实时预测,决定循环范围
start_index = 30
end_index = len(klines) - PREDICT_HORIZON if not is_realtime else len(klines)
for i in range(start_index, end_index):
kline_start_ts = klines[i]['ts']
# --- 特征计算部分 ---
price_change_15m = (klines[i]['close'] - klines[i-15]['close']) / klines[i-15]['close']
volatility_30m = np.std(close_prices[i-30:i])
diffs = np.diff(close_prices[i-14:i+1]); gains = np.sum(diffs[diffs > 0]) / 14; losses = -np.sum(diffs[diffs < 0]) / 14
rsi_14 = 100 - (100 / (1 + gains / (losses + 1e-10)))
dt_object = datetime.fromtimestamp(kline_start_ts / 1000)
ticks_in_15m = [t for t in ticks if t['ts'] >= klines[i-15]['ts'] and t['ts'] < kline_start_ts]
buy_vol = sum(t['qty'] for t in ticks_in_15m if t['side'] == 'buy'); sell_vol = sum(t['qty'] for t in ticks_in_15m if t['side'] == 'sell')
alpha_15m = (buy_vol - sell_vol) / (buy_vol + sell_vol + 1e-10)
books_in_10s = [b for b in order_books_history if b['ts'] >= kline_start_ts - 10000 and b['ts'] < kline_start_ts]
if not books_in_10s: wobi_10s, spread_10s = 0, 0.0
else:
wobis, spreads = [], []
for book in books_in_10s:
if not book['bids'] or not book['asks']: continue
bid_vol = sum(float(p[1]) for p in book['bids']); ask_vol = sum(float(p[1]) for p in book['asks'])
wobis.append(bid_vol / (bid_vol + ask_vol + 1e-10))
spreads.append(float(book['asks'][0][0]) - float(book['bids'][0][0]))
wobi_10s = np.mean(wobis) if wobis else 0; spread_10s = np.mean(spreads) if spreads else 0
current_features = [price_change_15m, volatility_30m, rsi_14, dt_object.hour, alpha_15m, wobi_10s, spread_10s]
features.append(current_features)
# --- 标签计算部分 ---
if not is_realtime:
future_price = klines[i + PREDICT_HORIZON]['close']; current_price = klines[i]['close']
if future_price > current_price * (1 + SPREAD_THRESHOLD): labels.append(0)
elif future_price < current_price * (1 - SPREAD_THRESHOLD): labels.append(1)
else: labels.append(2)
return np.array(features), np.array(labels)
def run_analysis_report(X, y, clf, scaler):
Log("--- 模型分析报告 ---", "info")
Log("1. 特征重要性 (代理模型: 随机森林):")
rf = RandomForestClassifier(n_estimators=50, random_state=42); rf.fit(X, y)
importances = sorted(zip(g_feature_names, rf.feature_importances_), key=lambda x: x[1], reverse=True)
for name, importance in importances: Log(f" - {name}: {importance:.4f}")
Log("2. 特征与标签的互信息:"); mi_scores = mutual_info_classif(X, y)
mi_scores = sorted(zip(g_feature_names, mi_scores), key=lambda x: x[1], reverse=True)
for name, score in mi_scores: Log(f" - {name}: {score:.4f}")
Log("3. 历史数据回测表现:"); y_pred = clf.predict(scaler.transform(X)); accuracy = accuracy_score(y, y_pred)
Log(f" - **历史回测总胜率: {accuracy * 100:.2f}%**", "success")
Log("4. 混淆矩阵 (行:真实, 列:预测):"); cm = confusion_matrix(y, y_pred)
Log(" 预测涨(0) 预测跌(1) 预测平(2)"); Log(f"真实涨(0): {cm[0] if len(cm) > 0 else [0,0,0]}")
Log(f"真实跌(1): {cm[1] if len(cm) > 1 else [0,0,0]}"); Log(f"真实平(2): {cm[2] if len(cm) > 2 else [0,0,0]}")
profit_chart = Chart({'title': {'text': f'历史回测净值曲线 (胜率: {accuracy*100:.2f}%)'}}); profit_chart.reset(); balance = 1
for i in range(len(y)):
if y_pred[i] == y[i] and y[i] != 2: balance *= (1 + 0.01)
elif y_pred[i] != y[i] and y_pred[i] != 2: balance *= (1 - 0.01)
profit_chart.add(i, balance)
Log("--- 报告结束, 5秒后进入实盘预测 ---", "info"); Sleep(5000)
def train_and_analyze():
global g_model, g_scaler, g_klines_1min, g_ticks, g_order_book_history
MIN_REQUIRED_BARS = 30 + PREDICT_HORIZON
if len(g_klines_1min) < MIN_REQUIRED_BARS:
Log(f"K线数量({len(g_klines_1min)})不足以进行特征工程,需要至少 {MIN_REQUIRED_BARS} 根。", "warning"); return False
Log("开始训练模型 (V2.2)...")
X, y = calculate_features_and_labels(g_klines_1min, g_ticks, g_order_book_history)
if len(X) < 50 or len(set(y)) < 3:
Log(f"有效训练样本不足(X: {len(X)}, 类别: {len(set(y))}),无法训练。", "warning"); return False
scaler = StandardScaler(); X_scaled = scaler.fit_transform(X)
clf = svm.SVC(kernel='rbf', C=1.0, gamma='scale'); clf.fit(X_scaled, y)
g_model, g_scaler = clf, scaler
Log("模型训练完成!", "success")
run_analysis_report(X, y, g_model, g_scaler)
return True
def aggregate_ticks_to_kline(ticks):
if not ticks: return None
return {'ts': ticks[0]['ts'] // 60000 * 60000, 'open': ticks[0]['price'], 'high': max(t['price'] for t in ticks), 'low': min(t['price'] for t in ticks), 'close': ticks[-1]['price'], 'volume': sum(t['qty'] for t in ticks)}
def on_message(ws, message):
global g_ticks, g_klines_1min, g_last_kline_ts, g_order_book_history
try:
payload = json.loads(message)
data = payload.get('data', {}); stream = payload.get('stream', '')
if 'aggTrade' in stream:
trade_data = {'ts': int(data['T']), 'price': float(data['p']), 'qty': float(data['q']), 'side': 'sell' if data['m'] else 'buy'}
g_ticks.append(trade_data)
current_minute_ts = trade_data['ts'] // 60000 * 60000
if g_last_kline_ts == 0: g_last_kline_ts = current_minute_ts
if current_minute_ts > g_last_kline_ts:
last_minute_ticks = [t for t in g_ticks if t['ts'] >= g_last_kline_ts and t['ts'] < current_minute_ts]
if last_minute_ticks:
kline = aggregate_ticks_to_kline(last_minute_ticks); g_klines_1min.append(kline)
g_ticks = [t for t in g_ticks if t['ts'] >= current_minute_ts]
g_last_kline_ts = current_minute_ts
elif 'depth' in stream:
book_snapshot = {'ts': int(data['E']), 'bids': data['b'], 'asks': data['a']}
g_order_book_history.append(book_snapshot)
if len(g_order_book_history) > 5000: g_order_book_history.pop(0)
except Exception as e: Log(f"OnMessage Error: {e}")
def start_websocket():
ws = websocket.WebSocketApp(WEBSOCKET_URL, on_message=on_message)
wst = threading.Thread(target=ws.run_forever); wst.daemon = True; wst.start()
Log("WebSocket多流订阅已启动...")
# ========== 主程序入口 ==========
def main():
global TRAIN_BARS
exchange.SetContractType("swap")
start_websocket()
Log("策略启动,进入数据收集中...")
main.last_predict_ts = 0
while True:
if g_model is None:
# --- 训练模式 ---
if len(g_klines_1min) >= TRAIN_BARS:
if not train_and_analyze():
Log("模型训练或分析失败,将增加50根K线后重试...", "error")
TRAIN_BARS += 50
else:
LogStatus(f"正在收集K线数据: {len(g_klines_1min)} / {TRAIN_BARS}")
else:
# --- **新功能:实时预测模式** ---
if len(g_klines_1min) > 0 and g_klines_1min[-1]['ts'] > main.last_predict_ts:
# 1. 标记已处理,防止重复预测
main.last_predict_ts = g_klines_1min[-1]['ts']
kline_time_str = datetime.fromtimestamp(main.last_predict_ts / 1000).strftime('%H:%M:%S')
Log(f"检测到新K线 ({kline_time_str}),准备进行实时预测...")
# 2. 检查是否有足够历史数据来为这根新K线计算特征
if len(g_klines_1min) < 30: # 至少需要30根历史K线
Log("历史K线不足,无法为当前新K线计算特征。", "warning")
continue
# 3. 计算最新K线的特征
# 我们只计算最后一条数据,所以传入 is_realtime=True
latest_features, _ = calculate_features_and_labels(g_klines_1min, g_ticks, g_order_book_history, is_realtime=True)
if latest_features.shape[0] == 0:
Log("无法为最新K线生成有效特征。", "warning")
continue
# 4. 标准化并预测
last_feature_vector = latest_features[-1].reshape(1, -1)
last_feature_scaled = g_scaler.transform(last_feature_vector)
prediction = g_model.predict(last_feature_scaled)[0]
# 5. 展示预测结果
prediction_text = ['**上涨**', '**下跌**', '盘整'][prediction]
Log(f"==> 实时预测结果 ({kline_time_str}): 未来 {PREDICT_HORIZON} 分钟可能 {prediction_text}", "success" if prediction != 2 else "info")
# 在这里,您可以根据 prediction 的结果,添加您的开平仓交易逻辑
# 例如: if prediction == 0: exchange.Buy(...)
else:
LogStatus(f"模型已就绪,等待新K线... 当前K线数: {len(g_klines_1min)}")
Sleep(1000) # 每秒检查一次是否有新K线
इस कोड के लिए बहुत सारी K-लाइन गणनाओं की आवश्यकता होती है यह रिपोर्ट बहुत मूल्यवान है, क्योंकि यह हमें मॉडल के “विचार” और “चरित्र” के बारे में बताती है।
फिर आगे क्या होगा? “ट्रेडिंग सिग्नल स्टेट मशीन” का परिचय यह इस अपग्रेड का मुख्य और सबसे चतुर हिस्सा है। हम रणनीति की वर्तमान “पोज़िशन” स्थिति को प्रबंधित करने के लिए एक वैश्विक स्टेट वैरिएबल, जैसे g_active_signal, पेश करेंगे (ध्यान दें कि यह केवल एक वर्चुअल पोज़िशन स्थिति है और इसमें वास्तविक ट्रेडिंग शामिल नहीं है)। इस स्टेट मशीन का कार्य तर्क इस प्रकार है:
इस सरल स्टेट मशीन के साथ, हमने आवश्यकताओं को पूरी तरह से पूरा कर लिया है: एक संकेत, एक पूर्ण अवलोकन चक्र, और इस अवधि के दौरान कोई हस्तक्षेप जानकारी नहीं।
”` import json import math import time import websocket import threading from datetime import datetime import numpy as np from sklearn import svm from sklearn.preprocessing import StandardScaler from sklearn.metrics import confusion_matrix, accuracy_score from sklearn.feature_selection import mutual_info_classif from sklearn.ensemble import RandomForestClassifier
TRAIN_BARS = 200 #需要更多初始数据 PREDICT_HORIZON = 15 # 回归15分钟预测周期 SPREAD_THRESHOLD = 0.005 # 适配15分钟周期的涨跌阈值 SYMBOL_FMZ = “ETH_USDT” SYMBOL_API = SYMBOLFMZ.replace(’’, “).lower() WEBSOCKET_URL = f”wss://fstream.binance.com/stream?streams={SYMBOL_API}@aggTrade/{SYMBOL_API}@depth20@100ms”
g_model, g_scaler = None, None g_klines_1min, g_ticks, g_order_book_history = [], [], [] g_last_kline_ts = 0 g_feature_names = [‘price_change_15m’, ‘volatility_30m’, ‘rsi_14’, ‘hour_of_day’, ‘alpha_15m’, ‘wobi_10s’, ‘spread_10s’]
g_active_signal = {‘active’: False, ‘start_ts’: 0, ‘prediction’: -1}
def calculate_features_and_labels(klines, ticks, order_books_history, is_realtime=False): features, labels = [], [] close_prices = [k[‘close’] for k in klines]
start_index = 30
end_index = len(klines) - PREDICT_HORIZON if not is_realtime else len(klines)
for i in range(start_index, end_index):
kline_start_ts = klines[i]['ts']
price_change_15m = (klines[i]['close'] - klines[i-15]['close']) / klines[i-15]['close']
volatility_30m = np.std(close_prices[i-30:i])
diffs = np.diff(close_prices[i-14:i+1]); gains = np.sum(diffs[diffs > 0]) / 14; losses = -np.sum(diffs[diffs < 0]) / 14
rsi_14 = 100 - (100 / (1 + gains / (losses + 1e-10)))
dt_object = datetime.fromtimestamp(kline_start_ts / 1000)
ticks_in_15m = [t for t in ticks if t['ts'] >= klines[i-15]['ts'] and t['ts'] < kline_start_ts]
buy_vol = sum(t['qty'] for t in ticks_in_15m if t['side'] == 'buy'); sell_vol = sum(t['qty'] for t in ticks_in_15m if t['side'] == 'sell')
alpha_15m = (buy_vol - sell_vol) / (buy_vol + sell_vol + 1e-10)
books_in_10s = [b for b in order_books_history if b['ts'] >= kline_start_ts - 10000 and b['ts'] < kline_start_ts]
if not books_in_10s: wobi_10s, spread_10s = 0, 0.0
else:
wobis, spreads = [], []
for book in books_in_10s:
if not book['bids'] or not book['asks']: continue
bid_vol = sum(float(p[1]) for p in book['bids']); ask_vol = sum(float(p[1]) for p in book['asks'])
wobis.append(bid_vol / (bid_vol + ask_vol + 1e-10))
spreads.append(float(book['asks'][0][0]) - float(book['bids'][0][0]))
wobi_10s = np.mean(wobis) if wobis else 0; spread_10s = np.mean(spreads) if spreads else 0
current_features = [price_change_15m, volatility_30m, rsi_14, dt_object.hour, alpha_15m, wobi_10s, spread_10s]
if not is_realtime:
future_price = klines[i + PREDICT_HORIZON]['close']; current_price = klines[i]['close']
if future_price > current_price * (1 + SPREAD_THRESHOLD):
labels.append(0); features.append(current_features)
elif future_price < current_price * (1 - SPREAD_THRESHOLD):
labels.append(1); features.append(current_features)
else:
features.append(current_features)
return np.array(features), np.array(labels)
def run_analysis_report(X, y, clf, scaler): Log(“— 模型分析报告 V2.5 (15分钟预测) —”, “info”) Log(“1. 特征重要性 (代理模型: 随机森林):”) rf = RandomForestClassifier(n_estimators=50, random_state=42); rf.fit(X, y) importances = sorted(zip(g_feature_names, rf.featureimportances), key=lambda x: x[1], reverse=True) for name, importance in importances: Log(f” - {name}: {importance:.4f}“) Log(“2. 特征与标签的互信息:”); mi_scores = mutual_info_classif(X, y) mi_scores = sorted(zip(g_feature_names, mi_scores), key=lambda x: x[1], reverse=True) for name, score in mi_scores: Log(f” - {name}: {score:.4f}“) Log(“3. 历史数据回测表现:”); y_pred = clf.predict(scaler.transform(X)); accuracy = accuracy_score(y, y_pred) Log(f” - 历史回测总胜率: {accuracy * 100:.2f}%”, “success”) Log(“4. 混淆矩阵 (行:真实, 列:预测):”); cm = confusion_matrix(y, y_pred) Log(” 预测涨(0) 预测跌(1)“); Log(f”真实涨(0): {cm[0] if len(cm) > 0 else [0,0]}“) Log(f”真实跌(1): {cm[1] if len(cm) > 1 else [0,0]}“) profit_chart = Chart({‘title’: {‘text’: f’历史回测净值曲线 (胜率: {accuracy*100:.2f}%)‘}}); profit_chart.reset(); balance = 1 for i in range(len(y)): if y_pred[i] == y[i]: balance *= (1 + 0.01) else: balance *= (1 - 0.01) profit_chart.add(i, balance) Log(”— 报告结束, 5秒后进入实盘预测 —“, “info”); Sleep(5000)
def train_and_analyze(): global g_model, g_scaler, g_klines_1min, g_ticks, g_order_book_history MIN_REQUIRED_BARS = 30 + PREDICT_HORIZON if len(g_klines_1min) < MIN_REQUIRED_BARS: Log(f”K线数量({len(g_klines_1min)})不足以进行特征工程,需要至少 {MIN_REQUIRED_BARS} 根。”, “warning”); return False Log(“开始训练模型 (V2.5)…”) X, y = calculate_features_and_labels(g_klines_1min, g_ticks, g_order_book_history) if len(X) < 20 or len(set(y)) < 2: Log(f”有效涨跌样本不足(X: {len(X)}, 类别: {len(set(y))}),无法训练。”, “warning”); return False scaler = StandardScaler(); X_scaled = scaler.fit_transform(X) clf = svm.SVC(kernel=‘rbf’, C=1.0, gamma=‘scale’); clf.fit(X_scaled, y) g_model, g_scaler = clf, scaler Log(“模型训练完成!”, “success”) run_analysis_report(X, y, g_model, g_scaler) return True
def aggregate_ticks_to_kline(ticks): if not ticks: return None return {‘ts’: ticks[0][‘ts’] // 60000 * 60000, ‘open’: ticks[0][‘price’], ‘high’: max(t[‘price’] for t in ticks), ‘low’: min(t[‘price’] for t in ticks), ‘close’: ticks[-1][‘price’], ‘volume’: sum(t[‘qty’] for t in ticks)}
def on_message(ws, message): global g_ticks, g_klines_1min, g_last_kline_ts, g_order_book_history try: payload = json.loads(message) data = payload.get(‘data’, {}); stream = payload.get(‘stream’, “) if ‘aggTrade’ in stream: trade_data = {‘ts’: int(data[’T’]), ‘price’: float(data[‘p’]), ‘qty’: float(data[‘q’]), ‘side’: ‘sell’ if data[’m’] else ‘buy’} g_ticks.append(trade_data) current_minute_ts = trade_data[‘ts’] // 60000 * 60000 if g_last_kline_ts == 0: g_last_kline_ts = current_minute_ts if current_minute_ts > g_last_kline_ts: last_minute_ticks = [t for t in g_ticks if t[‘ts’] >= g_last_kline_ts and t[‘ts’] < current_minute_ts] if last_minute_ticks: kline = aggregate_ticks_to_kline(last_minute_ticks); g_klines_1min.append(kline) g_ticks = [t for t in g_ticks if t[‘ts’] >= current_minute_ts] g_last_kline_ts = current_minute_ts elif ‘depth’ in stream: book_snapshot = {‘ts’: int(data[‘E’]), ‘bids’: data[‘b’], ‘asks’: data[‘a’]} g_order_book_history.append(book_snapshot) if len(g_order_book_history) > 5000: g_order_book_history.pop(0) except Exception as e: Log(f”OnMessage Error: {e}“)
def start_websocket(): ws = websocket.WebSocketApp(WEBSOCKET_URL, on_message=on_message) wst = threading.Thread(target=ws.run_forever); wst.daemon = True; wst.start() Log(“WebSocket多流订阅已启动…”)
def main(): global TRAIN_BARS, g_active_signal exchange.SetContractType(“swap”) start_websocket() Log(“策略启动 ,进入数据收集中…”) main.last_predict_ts = 0
while True:
if g_model is None:
if len(g_klines_1min) >= TRAIN_BARS:
if not train_and_analyze():
Log(f"模型训练失败,当前目标 {TRAIN_BARS} 根K线。将增加50根后重试...", "error")
TRAIN_BARS += 50
else:
LogStatus(f"正在收集K线数据: {len(g_klines_1min)} / {TRAIN_BARS}")
else:
if not g_active_signal['active']:
if len(g_klines_1min) > 0 and g_klines_1min[-1]['ts'] > main.last_predict_ts:
main.last_predict_ts = g_klines_1min[-1]['ts']
kline_time_str = datetime.fromtimestamp(main.last_predict_ts / 1000).strftime('%H:%M:%S')
if len(g_klines_1min) < 30:
LogStatus("历史K线不足,无法预测。等待更多数据..."); continue
latest_features, _ = calculate_features_and_labels(g_klines_1min, g_ticks, g_order_book_history, is_realtime=True)
if latest_features.shape[0] == 0:
LogStatus(f"({kline_time_str}) 无法生成特征,跳过..."); continue