घटना संग्रहण पुनर्विकास - CSV प्रारूप फ़ाइल आयात का समर्थन करता है

लेखक:छोटे सपने, बनाया गयाः 2020-05-23 15:44:47, अद्यतन किया गयाः 2023-10-08 19:48:40

img

केस कलेक्टर री-अपग्रेड कंक्रीट CSV प्रारूप फ़ाइल आयात का समर्थन करता है और अनुकूलित डेटा स्रोत प्रदान करता है

नवीनतम उपयोगकर्ता को अपने CSV प्रारूप फ़ाइलों को डेटा स्रोत के रूप में रखने की आवश्यकता है, ताकि आविष्कारक को क्वांटिफाइड ट्रेडिंग प्लेटफॉर्म के रीट्रेसिंग सिस्टम का उपयोग करने के लिए अनुमति दी जा सके। आविष्कारक को क्वांटिफाइड ट्रेडिंग प्लेटफॉर्म के रीट्रेसिंग सिस्टम की सुविधाएं हैं, जो संक्षिप्त और कुशल हैं, ताकि जब तक उनके पास डेटा है, तब तक रीट्रेसिंग की जा सके।

डिजाइन विचार

डिजाइन का विचार वास्तव में बहुत सरल है, हम केवल पिछले बाजार कलेक्टर के आधार पर थोड़ा बदलते हैं, हम बाजार कलेक्टर के लिए एक पैरामीटर जोड़ते हैं।isOnlySupportCSVयह नियंत्रित करने के लिए कि क्या केवल सीएसवी फ़ाइलों को डेटा स्रोत के रूप में पुनर्मूल्यांकन प्रणाली को प्रदान किया जाता है और एक पैरामीटर जोड़ा जाता हैfilePathForCSV...........................isOnlySupportCSVक्या पैरामीटर सेट हैTrueयह परिवर्तन मुख्य रूप से उन डेटा स्रोतों के उपयोग के बारे में निर्णय लेने के लिए किया गया है जिन्हें आप अपने द्वारा एकत्रित करते हैं, और CSV फ़ाइलों में डेटा।Providerवर्गdo_GETफ़ंक्शन में।

सीएसवी फाइल क्या है?

कॉमा-विभाजित मान (CSV, जिसे कभी-कभी वर्ण-विभाजित मान भी कहा जाता है, क्योंकि वर्ण-विभाजित मान भी एक कॉमा नहीं हो सकते हैं) एक फ़ाइल है जो तालिका डेटा (संख्या और पाठ) को शुद्ध पाठ में संग्रहीत करती है। शुद्ध पाठ का अर्थ है कि फ़ाइल एक वर्ण अनुक्रम है, जिसमें कोई डेटा नहीं है जिसे द्विआधारी संख्या की तरह खोला जाना चाहिए। CSV फ़ाइल किसी भी संख्या के रिकॉर्ड से बनी होती है, जो किसी प्रकार के विनिमय के साथ रिकॉर्ड के बीच में विभाजित होती है; प्रत्येक रिकॉर्ड एक फ़ील्ड से बना होता है, और खंडों को अलग करने वाले अन्य वर्ण या स्ट्रिंग होते हैं, सबसे आम रूप से कॉमा या वर्णमाला होते हैं। आमतौर पर, सभी रिकॉर्ड में एक ही पैराग्राफ अनुक्रम होता है। यह आमतौर पर एक शुद्ध पाठ फ़ाइल होती है।

सीएसवी फ़ाइल प्रारूप के लिए कोई सामान्य मानक नहीं है, लेकिन एक नियम है, आमतौर पर एक रिकॉर्ड लाइन के लिए, पहली क्रिया शीर्षक; प्रत्येक पंक्ति में डेटा में अल्पविराम का उपयोग किया जाता है।

उदाहरण के लिए, हमने जो CSV फ़ाइलें परीक्षण के लिए उपयोग की हैं, वे लॉग के साथ खुलती हैं जो इस तरह दिखती हैंःimg

ध्यान दें कि CSV फ़ाइल की पहली पंक्ति तालिका का शीर्षक है।

,open,high,low,close,vol

हम इस तरह के डेटा को पार्सल करने के लिए तैयार हैं, और फिर एक प्रारूप बनाने के लिए जो कि रीसेट सिस्टम को डेटा स्रोत के अनुकूलन की आवश्यकता है, जो कि हमारे पिछले लेख में कोड में संसाधित किया गया है, बस थोड़ा संशोधित किया गया है।

संशोधित कोड

import _thread
import pymongo
import json
import math
import csv
from http.server import HTTPServer, BaseHTTPRequestHandler
from urllib.parse import parse_qs, urlparse

def url2Dict(url):
    query = urlparse(url).query  
    params = parse_qs(query)  
    result = {key: params[key][0] for key in params}  
    return result

class Provider(BaseHTTPRequestHandler):
    def do_GET(self):
        global isOnlySupportCSV, filePathForCSV
        try:
            self.send_response(200)
            self.send_header("Content-type", "application/json")
            self.end_headers()

            dictParam = url2Dict(self.path)
            Log("自定义数据源服务接收到请求,self.path:", self.path, "query 参数:", dictParam)
            
            # 目前回测系统只能从列表中选择交易所名称,在添加自定义数据源时,设置为币安,即:Binance
            exName = exchange.GetName()                                     
            # 注意,period为底层K线周期
            tabName = "%s_%s" % ("records", int(int(dictParam["period"]) / 1000))  
            priceRatio = math.pow(10, int(dictParam["round"]))
            amountRatio = math.pow(10, int(dictParam["vround"]))
            fromTS = int(dictParam["from"]) * int(1000)
            toTS = int(dictParam["to"]) * int(1000)

            # 要求应答的数据
            data = {
                "schema" : ["time", "open", "high", "low", "close", "vol"],
                "data" : []
            }
            
            if isOnlySupportCSV:
                # 处理CSV读取,filePathForCSV路径
                listDataSequence = []
                with open(filePathForCSV, "r") as f:
                    reader = csv.reader(f)
                    # 获取表头
                    header = next(reader)
                    headerIsNoneCount = 0
                    if len(header) != len(data["schema"]):
                        Log("CSV文件格式有误,列数不同,请检查!", "#FF0000")
                        return 
                    for ele in header:
                        for i in range(len(data["schema"])):
                            if data["schema"][i] == ele or ele == "":
                                if ele == "":
                                    headerIsNoneCount += 1
                                if headerIsNoneCount > 1:
                                    Log("CSV文件格式有误,请检查!", "#FF0000")
                                    return 
                                listDataSequence.append(i)
                                break
                    
                    # 读取内容
                    while True:
                        record = next(reader, -1)
                        if record == -1:
                            break
                        index = 0
                        arr = [0, 0, 0, 0, 0, 0]
                        for ele in record:
                            arr[listDataSequence[index]] = int(ele) if listDataSequence[index] == 0 else (int(float(ele) * amountRatio) if listDataSequence[index] == 5 else int(float(ele) * priceRatio))
                            index += 1
                        data["data"].append(arr)
                
                Log("数据:", data, "响应回测系统请求。")
                self.wfile.write(json.dumps(data).encode())
                return 
            
            # 连接数据库
            Log("连接数据库服务,获取数据,数据库:", exName, "表:", tabName)
            myDBClient = pymongo.MongoClient("mongodb://localhost:27017")
            ex_DB = myDBClient[exName]
            exRecords = ex_DB[tabName]
            
            # 构造查询条件:大于某个值{'age': {'$gt': 20}} 小于某个值{'age': {'$lt': 20}}
            dbQuery = {"$and":[{'Time': {'$gt': fromTS}}, {'Time': {'$lt': toTS}}]}
            Log("查询条件:", dbQuery, "查询条数:", exRecords.find(dbQuery).count(), "数据库总条数:", exRecords.find().count())
            
            for x in exRecords.find(dbQuery).sort("Time"):
                # 需要根据请求参数round和vround,处理数据精度
                bar = [x["Time"], int(x["Open"] * priceRatio), int(x["High"] * priceRatio), int(x["Low"] * priceRatio), int(x["Close"] * priceRatio), int(x["Volume"] * amountRatio)]
                data["data"].append(bar)
            
            Log("数据:", data, "响应回测系统请求。")
            # 写入数据应答
            self.wfile.write(json.dumps(data).encode())
        except BaseException as e:
            Log("Provider do_GET error, e:", e)


def createServer(host):
    try:
        server = HTTPServer(host, Provider)
        Log("Starting server, listen at: %s:%s" % host)
        server.serve_forever()
    except BaseException as e:
        Log("createServer error, e:", e)
        raise Exception("stop")

def main():
    LogReset(1)
    if (isOnlySupportCSV):
        try:
        # _thread.start_new_thread(createServer, (("localhost", 9090), ))         # 本机测试
            _thread.start_new_thread(createServer, (("0.0.0.0", 9090), ))         # VPS服务器上测试
            Log("开启自定义数据源服务线程,数据由CSV文件提供。", "#FF0000")
        except BaseException as e:
            Log("启动自定义数据源服务失败!")
            Log("错误信息:", e)
            raise Exception("stop")
        while True:
            LogStatus(_D(), "只启动自定义数据源服务,不收集数据!")
            Sleep(2000)
    
    exName = exchange.GetName()
    period = exchange.GetPeriod()
    Log("收集", exName, "交易所的K线数据,", "K线周期:", period, "秒")
    
    # 连接数据库服务,服务地址 mongodb://127.0.0.1:27017 具体看服务器上安装的mongodb设置
    Log("连接托管者所在设备mongodb服务,mongodb://localhost:27017")
    myDBClient = pymongo.MongoClient("mongodb://localhost:27017")   
    # 创建数据库
    ex_DB = myDBClient[exName]
    
    # 打印目前数据库表
    collist = ex_DB.list_collection_names()
    Log("mongodb ", exName, " collist:", collist)
    
    # 检测是否删除表
    arrDropNames = json.loads(dropNames)
    if isinstance(arrDropNames, list):
        for i in range(len(arrDropNames)):
            dropName = arrDropNames[i]
            if isinstance(dropName, str):
                if not dropName in collist:
                    continue
                tab = ex_DB[dropName]
                Log("dropName:", dropName, "删除:", dropName)
                ret = tab.drop()
                collist = ex_DB.list_collection_names()
                if dropName in collist:
                    Log(dropName, "删除失败")
                else :
                    Log(dropName, "删除成功")
    
    # 开启一个线程,提供自定义数据源服务
    try:
        # _thread.start_new_thread(createServer, (("localhost", 9090), ))     # 本机测试
        _thread.start_new_thread(createServer, (("0.0.0.0", 9090), ))         # VPS服务器上测试
        Log("开启自定义数据源服务线程", "#FF0000")
    except BaseException as e:
        Log("启动自定义数据源服务失败!")
        Log("错误信息:", e)
        raise Exception("stop")
    
    # 创建records表
    ex_DB_Records = ex_DB["%s_%d" % ("records", period)]
    Log("开始收集", exName, "K线数据", "周期:", period, "打开(创建)数据库表:", "%s_%d" % ("records", period), "#FF0000")
    preBarTime = 0
    index = 1
    while True:
        r = _C(exchange.GetRecords)
        if len(r) < 2:
            Sleep(1000)
            continue
        if preBarTime == 0:
            # 首次写入所有BAR数据
            for i in range(len(r) - 1):
                bar = r[i]
                # 逐根写入,需要判断当前数据库表中是否已经有该条数据,基于时间戳检测,如果有该条数据,则跳过,没有则写入
                retQuery = ex_DB_Records.find({"Time": bar["Time"]})
                if retQuery.count() > 0:
                    continue
                
                # 写入bar到数据库表
                ex_DB_Records.insert_one({"High": bar["High"], "Low": bar["Low"], "Open": bar["Open"], "Close": bar["Close"], "Time": bar["Time"], "Volume": bar["Volume"]})                
                index += 1
            preBarTime = r[-1]["Time"]
        elif preBarTime != r[-1]["Time"]:
            bar = r[-2]
            # 写入数据前检测,数据是否已经存在,基于时间戳检测
            retQuery = ex_DB_Records.find({"Time": bar["Time"]})
            if retQuery.count() > 0:
                continue
            
            ex_DB_Records.insert_one({"High": bar["High"], "Low": bar["Low"], "Open": bar["Open"], "Close": bar["Close"], "Time": bar["Time"], "Volume": bar["Volume"]})
            index += 1
            preBarTime = r[-1]["Time"]
        LogStatus(_D(), "preBarTime:", preBarTime, "_D(preBarTime):", _D(preBarTime/1000), "index:", index)
        # 增加画图展示
        ext.PlotRecords(r, "%s_%d" % ("records", period))
        Sleep(10000)
        

परीक्षण चलाएँ

सबसे पहले, हम बाजार कलेक्टर रोबोट को चालू करते हैं, हम रोबोट को एक एक्सचेंज जोड़ते हैं और रोबोट को चालू करते हैं। पैरामीटर कॉन्फ़िगरेशनःimg

img

और फिर हमने एक परीक्षण रणनीति बनाईः

function main() {
    Log(exchange.GetRecords())
    Log(exchange.GetRecords())
    Log(exchange.GetRecords())
}

यह एक सरल रणनीति है, केवल तीन बार के-लाइन डेटा प्राप्त करें और प्रिंट करें।

पुनः परीक्षण पृष्ठ, पुनः परीक्षण प्रणाली के लिए डेटा स्रोत को एक कस्टम डेटा स्रोत के रूप में सेट किया गया है, और पता एक सर्वर का पता है जो कि बाजार कलेक्टर रोबोट द्वारा चलाया जाता है। चूंकि हमारे CSV फ़ाइल में डेटा 1 मिनट की K लाइन है। इसलिए जब पुनः परीक्षण किया जाता है, तो हम K लाइन चक्र को 1 मिनट के लिए सेट करते हैं।

img

एक बार जब आप क्लिक करते हैं, तो एक डेटा रिक्वेस्ट प्राप्त होती है।img

पुनः परीक्षण प्रणाली निष्पादन नीति के पूरा होने के बाद, डेटा स्रोत में K-लाइन डेटा के आधार पर K-लाइन चार्ट उत्पन्न किया जाता है।img

तुलना फ़ाइलों में डेटाःimg

img

RecordsCollector (कस्टम डेटा स्रोत के लिए अपग्रेड, CSV डेटा फ़ाइल के लिए डेटा स्रोत का समर्थन)

इस पोस्ट में, हम आपको अपने ब्लॉग के बारे में बताते हैं।


संबंधित

अधिक

भाईक्या व्यवस्थापक सर्वर पर पायथन स्थापित करना आवश्यक है?

स्पाडा खेलने के लिएअब, यह कस्टम डेटा स्रोत ब्राउज़र के माध्यम से फिर से जांचता है, और डेटा की सटीकता में समस्या है, तो आप कोशिश कर सकते हैं

एआईकेपीएम-/upload/asset/19cfcf5244f5e2cd73173.png /upload/asset/19c100ceb1eb25a38a970.png मैं रोबोट को जोड़ता हूं, मुझे पता है कि मुझे पता कैसे भरना चाहिए, मैंने सर्वर का पता दर्ज किया है, पोर्ट 9090 है, और कलेक्टर ने जवाब नहीं दिया है।

विक्सकृपया पूछें कि मैंने होस्ट सर्वर पर कस्टम CSV डेटा स्रोत क्यों सेट किया है, पृष्ठ अनुरोध के साथ डेटा वापस आ रहा है, और फिर पुनः परीक्षण में कोई डेटा वापस नहीं आ रहा है, जब डेटा को सीधे केवल दो डेटा के रूप में सेट किया जाता है, तो httpsserver टर्मिनल अनुरोध में प्राप्त कर सकता है, /upload/asset/1691b2d9549fcec81c12a.png /upload/asset/168f8050b3db4a84d7e2f.png /upload/asset/16a67eaa598e95b11edb9.png /upload/asset/169c6c4c3d286587b3e.ng /upload/asset/169e8dcdbf9c0c544pbac8.ng

विक्सकृपया पूछें कि मैंने होस्ट सर्वर पर कस्टम सीएसवी डेटा स्रोत क्यों सेट किया है, पृष्ठ अनुरोध के साथ डेटा वापस आ रहा है, फिर पुनः परीक्षण में कोई डेटा वापस नहीं आया है, और कोई अनुरोध नहीं किया है httpsserver टर्मिनल में /upload/asset/1691b2d9549fcec81c12a.png /upload/asset/168f8050b3db4a84d7e2f.png /upload/asset/16a67eaa598e95b11edb9.png /upload/asset/169c6c4c3d28658795b3e.png /upload/asset/169e8ddbf9c0c544png

qq89520कृपया मुझे बताएं कि पैरामीटर कैसे सेट किए जाते हैं?

उपदेशयह एक बहुत ही उच्च स्तरीय है, इसलिए यह किसी भी सिक्के को मापने में सक्षम है, शायद स्टॉक भी।

डसाइडासी 666

छोटे सपनेमुझे लगता है कि मुझे Python की आवश्यकता है।

स्पाडा खेलने के लिएयह एक सिस्टम बग है, और इसे ठीक कर दिया गया है।

छोटे सपनेएपीआई दस्तावेज में सटीकता के बारे में जानकारी के लिए, आप इसे देख सकते हैं।

छोटे सपनेलेख, कोड को समझने की आवश्यकता है. यहाँ CSV फ़ाइलों के बारे में बात की जा रही है, जो डेटा स्रोत के रूप में हैं, जो कि रीसेट सिस्टम को डेटा प्रदान करते हैं.

छोटे सपनेएपीआई दस्तावेज़ में वर्णन देखें।

विक्सक्या एक्सचेंज.गेटडाटा ()) विधि का उपयोग करके कस्टम डेटा को कस्टम डेटा में बदल दिया जा सकता है?

छोटे सपनेयह सेवा, जो कस्टम डेटा स्रोत प्रदान करती है, को सर्वर पर होना चाहिए और यह सार्वजनिक आईपी होना चाहिए; स्थानीय सेवा पुनर्विचार प्रणाली तक पहुंच नहीं है।

विक्सकृपया पूछें कि स्थानीय रूप से http सर्वर पर स्थानीय रूप से डेटा को कैसे पुनर्प्राप्त किया जा सकता है, क्या स्थानीय रूप से पुनर्प्राप्त करने के लिए कस्टम डेटा स्रोतों को पुनर्प्राप्त करने का समर्थन नहीं करता है? मैंने स्थानीय रूप से पुनर्प्राप्त करने के लिए एक्सचेंजों को जोड़ाः [{"ईड":"Huobi","currency":"ETH_USDT","feeder":"http://127.0.0.1:9090"}] यह पैरामीटर, और रोबोट के आईपी को बदलने के लिए भी सर्वर पर कोई अनुरोध नहीं है

छोटे सपनेबहुत अधिक डेटा है, वेब पेज लोड नहीं हो सकता है, और इसके अलावा डेमो, आपके शोध के बाद, यह ठीक होना चाहिए, मुझे लगता है कि आपने गलत सेटअप किया है।

विक्समैं csv डेटा एक मिनट K लाइन अन्य मुद्राओं का डेटा है, और फिर चूंकि पुनरावृत्ति के समय लेनदेन जोड़े को यादृच्छिक रूप से नहीं चुना जा सकता है, इसलिए रोबोट और पुनरावृत्ति के लिए चुने गए एक्सचेंज को huobi के रूप में सेट किया गया है, BTC-USDT के रूप में, यह अनुरोध डेटा मैं कभी-कभी रोबोट पक्ष पर अनुरोध प्राप्त कर सकता हूं, लेकिन पुनरावृत्ति पक्ष पर डेटा प्राप्त नहीं कर सकता है, और मैंने csv के टाइमलाइन को सेकंड से मिलीसेकंड में बदल दिया है। यह भी डेटा प्राप्त नहीं कर सकता है। मुझे नहीं पता कि स्थानीय रूप से पुनरावृत्ति डेटा को अनुकूलित करने का कोई तरीका है, जब रणनीति पैरामीटर अनुकूलित किए जाते हैं तो वेब पेज क्रैश हो जाता है।

छोटे सपनेBTC_USDT के लिए लेनदेन, आप किस बारे में बात कर रहे हैं? क्या इस परिभाषा के लिए कोई डेटा की आवश्यकता है? उदाहरण के लिए, क्या समय के कुछ हिस्सों को मिलीसेकंड और सेकंड दोनों में देखा जा सकता है?

छोटे सपनेयह बहुत बड़ा डेटा है, मैंने परीक्षण के दौरान परीक्षण किया है।

विक्सबहुत कम डेटा प्राप्त किया जा सकता है, लेकिन जब मैं एक साल से अधिक समय के लिए एक मिनट के डेटा के लिए एक सीएसवी फ़ाइल निर्दिष्ट करता हूं, तो यह पता चला कि यह प्राप्त नहीं किया जा सकता है, क्या बहुत अधिक डेटा का कोई प्रभाव है? तो क्या यह स्थानीय रूप से अनुकूलित डेटा स्रोत खोलने और स्थानीय रूप से पुनः परीक्षण करने के लिए स्थानीय रूप से किया जा सकता है?

विक्समैं वर्तमान में अपने रोबोट पर HUOBI एक्सचेंज को कॉन्फ़िगर कर रहा हूं, और फिर ट्रेडिंग जोड़ी भी सेट है BTC-USDT, और यह रीसेट होने पर भी कॉन्फ़िगर किया गया है, और फिर रीसेट कोड एक exchange.GetRecords))) फ़ंक्शन का उपयोग करता है, क्या इस परिभाषित डेटा की कोई आवश्यकता है?

छोटे सपनेआप ब्राउज़र के किनारे पर हो सकते हैं क्योंकि आपने निर्दिष्ट क्वेरी पैरामीटर लिखे हैं, उत्तर प्रणाली रोबोट का जवाब नहीं दे सकती है, यह बताती है कि रोबोट ने अनुरोध स्वीकार नहीं किया है, यह बताती है कि उत्तर देने के दौरान उस स्थान को गलत तरीके से कॉन्फ़िगर किया गया था, जांच और डिबगिंग में समस्या मिल सकती है।

छोटे सपनेयदि आप अपने CSV फ़ाइल को पढ़ना चाहते हैं, तो आप इस मार्ग को सेट कर सकते हैं।