Sunday 5 November 2017

Hochfrequenz Handelssystem Entwicklung


TSL AUTOMATISCH DESIGNS, TESTS UND WRITES HANDELSYSTEME UND BENÖTIGT KEINE PROGRAMMIERUNG. BITTE ÜBERPRÜFEN SIE DIE 6 MINUTE DEMO HIER. Raquo JANUAR 2017 UPDATE: TSL erzeugt vollständig OPEN CODE-Handelsstrategien. TSL ist keine Black Box. Die Mathematik, Variablen, Logik, Signalerzeugung, Vorverarbeitung usw. werden in OPEN CODE exportiert. TSL ist sehr einfach zu bedienen, weshalb wir Kunden von Anfängern in der technischen Analyse und Handelsstrategien zu PhDs in Informatik, Wirtschaft, Maschinen lernen und AI. Unsere 6-minütige Demo fasst zusammen, wie einfach TSL ist. Wenn Sie diese drei Schritte durchführen können, können Sie verwenden und produktiv mit TSL. Go to the TSL demo raquo In der 2016 Ausgabe 3 von Futures Truth bleibt TSL an der Spitze der Liste der Trading Systems, die auf Sequestered Data ausgewertet werden. TSL verfügt über das 1 und 2 Bond System, 2 der Top 10 eMini SP Systeme (die einzigen 2 ES-Systeme TSL im Tracking), das 4 Natural Gas System (von 1 eingereichten) und die 1 und 9 Systeme seit Release Date , Und diese Systeme waren Maschinen-entworfen, nicht menschlich entworfen, bereits 2007. Futures Wahrheit ist ein CTA, hat einen Stab der Trading Systemdesigner, Spuren über 700 Handelssystem-Marktmodelle, die von über 80 weltweiten Handelsstrategie-Quants eingereicht wurden und gewesen ist Tracking Trading Systems seit 1985. TSLs Kunden reichen von Anfänger bis PhD Quant seit TSL erfordert keine Programmierung. Gehen Sie auf die Futures Truth Website raquo Weitere historische Berichte können in Futures Truths Berichte sowie in TSL-Präsentationsmaterial gefunden werden. Zur Vergangenheit Futures Truth Bericht Zusammenfassung raquo Lesen Sie die Meinung Briefe von Futures Truth und anderen Entwicklern und Händlern hier: Gehen Sie zum Futures Truth Opinion Letter raquo Zahlreiche neue Features für 2016 wurden TSL einschließlich In-SampleOut-of-Sample Scatter Plots hinzugefügt Mit Wilcoxon-Tests, Design-Time Adjustable Solutions (DAS), DayTrade Diskrete Bars (DTDB), SuperBuffer erhöht, SubSystem Usage Reports und eine bald angekündigte Optionen-Test Integration Feature. Bitte schauen Sie sich unsere neuesten Flash-Demos an: Zum TSL Flash Demos raquo TSL IST BITTE, DEN RELEASE VON DTDB ANNOUNCE: DTDB steht für Day Trade Diskrete Bars. Dieses Paket ermöglicht den Handel einzelner diskreter Bars auf individueller Balkenbasis. Die Eingabe auf einem Limit, Markt oder Stop, wird der Handel in der Regel am Ende einer Zeit, Volumen, Bereich, etc. Typ bar beenden. Einmal entworfen, mit dem TSL System Stats Bericht kann ein Benutzer bestimmen, die beste Tageszeit, Tag der Woche, Tag des Monats, Tag der Woche im Monat, Woche des Jahres und Monat des Jahres zum Handel. Das Filtern auf diese Weise erfasst den Geldfluss früh und spät im Monat oder Quartal, das beispielsweise am Kapitalmarktvolumen beobachtet wurde. Weiterhin ist bekannt, dass die Intraday-Volatilität eine U-Form mit hoher Volatilität aufweist, die früh und spät am Tag auftritt. Dieser Effekt kann mit Hilfe von Custom Design Sessions und dem Systemstats-Berichtsfilterungsansatz angestrebt werden. Die Merkmale für das Algorithmusdesign, das kurzfristige und daytrading Bewegungen auf dem Markt unter Verwendung TSL erfasst, ist erheblich und bieten eine reiche Umwelt für Entdeckung und Entwurf an. Weitere Informationen finden Sie in der DTDB-Flash-Demo. Gehen Sie auf die DAS-Flash-Demos raquo TSL IS BLEIBT, DIE RELEASE VON DAS ANNOUNCE: TSL ist einfach zu bedienen, aber DAS nimmt Benutzerfreundlichkeit auf eine andere Ebene. DAS geht über EVORUN hinaus, indem es ein höheres Maß an Kontrolle über die automatische Designchoreographie zwischen dem linearen Automatischen Maschinencode mit der genetischen Programmiermaschine und den integrierten Handelssimulationsroutinen, die TSL innewohnen, bewirkt. DAS ermöglicht es dem Benutzer, die Auswirkungen verschiedener Handelskriterien weitaus schneller als zuvor mit einer direkten Kontrolle über den Motor während der Design-Zeit zu bewerten. DAS nutzt die ALPHA-Erzeugungsfähigkeiten der TSL-Code-Schreibmaschine auf einer Stufe aus, die zuvor nicht erreichbar war. Mithilfe von DAS können Benutzer nun während des Entwurfslaufs den Lauf in Entwurfszeit leiten und umleiten, indem sie nicht einfach den Lauf konfigurieren und dann den Lauf ausführen. EVORUN bietet dem Benutzer einen automatischen Multi-Batch-Lauf-Mechanismus, der eine längere Ausführung ermöglicht, die viele Handels - und Simulationsvarianten umfasst, die während des Laufs erkundet werden sollen. DAS verbindet jedoch den menschlichen Konstrukteur mit der Design-Engine und ermöglicht so eine Vielzahl von Sofort-Szenarien Zu erforschen. Der konzeptionelle Durchbruch der TSLs DAS ist kreativ und einzigartig in diesem Geschäft und bietet dem Anwender ALPHA Design und Produktionskapazitäten, von denen wir nur vor ein paar Jahren geträumt haben konnten, bemerkt TSL-Präsident Michael Barna. Der Plan ist jetzt, dass DAS offiziell für Kunden auf oder vor der November International Trader Expo in Las Vegas, wo TSL wird mehrere Vorträge über TSL, EVORUN und DAS werden. Neue DAS-Videos finden Sie hier-Demo 57 und 58: Zur DAS-Flash-Demo raquo Superpuffer-Update: Innerhalb der patentierten LAIMGP-Handelssysteme werden für die Implementierung während des Laufs gespeichert. Bisher wurden 30 Best Trading System Programme zur Umsetzung zur Verfügung gestellt, wenn der Lauf beendet wurde. TSL hat dieses Best Trading Systems Program Puffer auf 300 erhöht. So kann ein Benutzer aus einer viel größeren Liste von Handelssystemen auswählen, wenn der Lauf beendet wird. Dieser erhöhte Puffer wird für Basic Runs, EVORUN und DAS verfügbar sein. Bitte lesen Sie unten für Informationen über DAS. Am Ende des Tages (EOD) Handelssysteme sind die einfachste und schnellste Maschine Design. Auch in einem Portfolio vieler Märkte zeichnet sich der TSL-Motor durch patentierte Register-GP-Manipulationen und Hochgeschwindigkeitssimulationen, Fitness - und Übersetzungsalgorithmen aus. Unsere GP-Technologie ist gut dokumentiert in der führenden Universität Lehrbuch über genetische Programmierung von einem der TSL-Partner, Frank Francone geschrieben. Besonders wichtig ist die Tatsache, dass TSL Machine Designed Trading Algorithmen nach 8 Jahren von Sequestered Data unabhängigen Tests und Bewertungen mehr Top Performance Ratings als jedes andere Entwicklungsunternehmen belegen - 5 der Top 10 seit Release Date, 3 der Top 10 Systeme Für die letzten 12 Monate und 2 der Top 10 eMini SP-Systeme. Ende des Tages Handelssysteme sind sehr beliebt, aber Intraday-Handelssysteme appellieren an die mehr Risiko nachteilige Händler und Interesse an kürzeren Term-Trading-Systeme hat in den letzten Monaten zugenommen. Vielleicht aufgrund der Sorge um höhere Zinsen, Energie - und Rohstoffpreiskollaps, geopolitische Unsicherheit, Terrorismus oder die jüngste Marktvolatilität sind viele Händler weniger bereit, Positionen über Nacht zu halten. Die Logik hierbei ist, dass mit Übernachtrisiko der Grad der Exposition und damit die Chance für höhere Absenkungen erhöht wird. Natürlich könnte die Intraday-Volatilität kollabieren oder expandieren, was zu stummen Renditen oder erheblichem Risiko führt, insbesondere für den direktionalen Kurzzeit-Trader. Nichtsdestoweniger hat eine Börsennotierung nicht über Nacht einen großen Reiz, besonders wenn die Handelskosten kontrolliert werden können und die Alpha-Produktion des Handelssystems ausreichend ist. TSL hat eine große Reihe von Day-Trading-Funktionen, einschließlich kurzfristige Fitness-Funktionen, Preprocessors und Daytrading bestimmte Trading-Typen. Die TSL-Maschinenbenutzer können die Handelsfrequenz, die durchschnittlichen Handelsziele, die Handelszeiten, die Drawdown-Ziele und viele andere Designziele auswählen. Zusätzlich werden die Eingabeeinstellungen für TradeStation und MultiCharts exportiert, was eine einfache Importierung auf diese Plattformen ermöglicht. TSL freut sich, bekannt geben zu können, dass CSI COMMODITY SYSTEMS, INC. Und TSL eine Vereinbarung getroffen haben, um unseren Kunden ein Portfolio von Rohstoffdaten zu liefern, die speziell für TSL Machine Learning entwickelt wurden. Um diese Daten zu erhalten, ist ein CSI-Datenabonnement erforderlich. Kein anderer Hersteller stellt diese speziell entwickelten Daten zur Verfügung. Diese täglichen Daten ermöglichen eine verbesserte Trading-Strategie-Design mit TSL und ist das Ergebnis der jahrelangen Forschung und Entwicklung von Daten Anforderungen. Ohne korrekte Daten sind robuste Trading-Strategie-Designs sehr schwer zu erreichen. Diese Datenbestände werden als Teil der CSI-Datenanwendung heruntergeladen und installiert. Helper-Dateien wie. DOPs und Attributes. INI-Dateien werden von TSL vormontiert, um einen einfachen Datenimport in TradeStation zu ermöglichen. Andere Plattformen, die ASCII-, MetaStock - oder CSI-Preisdaten lesen können, können diese Daten auch für die Verwendung mit TSL laden. Kontaktieren Sie TSL, um mehr über diese neuen Trading System-Konstruktionsdaten zu erfahren. Es wurde gezeigt, dass CSI die genauesten Rohstoffdaten zur Verfügung hat. Gehen Sie zum CSI-Datenreport raquo Für diejenigen von uns, die in Silicon Valley leben und arbeiten, sponsert TSL eine MEETUP Gruppe für Leute, die an Maschinen-Lernen interessiert sind, das auf Handelsstrategien angewendet wird, in denen wir verschiedene Anwendungen und Anpassungen der TSL Plattform erforschen werden. Sie können sich hier anmelden und andere Trading-Profis treffen, die mit TSL und Machine Learning arbeiten. Join the Silicon Valley Machine Learning für Handelsstrategien MeetUp Group raquo TSL freut sich, TSL Version 1.3.2 Portfolios, Pairs und Optionen und die neuesten 2015 Build für Single Market direktionalen Systeme freizugeben. Kontaktieren Sie uns für Informationen über diese neuesten Builds, die auf gerichtete, lange oder kurze, Daytrading, Fitness-APIs und neue Eintrag, Risiko-und Exit-Funktionen zu konzentrieren. Die neuesten Futures Truth Berichte zeigen noch TSL Machine Learning entworfen Trading-Strategien am besten bewertet auf Sequestered Daten 7 Jahre nach ihrer Entwürfe wurden eingefroren und veröffentlicht für unabhängige Tracking, die auf Robustheit in der Zukunft für diese TSL Machine Designed Strategies. QUANT SYSTEMS LAB UPDATE: TSL bleibt die wichtigste Plattform der Wahl für die professionelle und nonprofessionelle Händler. Quant Systems Labor ist jedoch ein High-End-, institutionelle Ebene Maschine Lernplattform bietet Funktionen besser geeignet für die fortgeschrittene quant Programmierer, die routinemäßig eine Vielzahl von APIs und Programmiersprachen und Umgebungen verwendet. QSLs-Funktionen sind in keiner anderen Trading-Strategie-Entwicklungsplattform in der Welt gefunden. QSL umfasst auch alle reichen Entwicklungsfunktionen, die in der Basis-TSL-Plattform gefunden werden. QSL wird derzeit entwickelt. RML und TSL suchen aktiv nach Partnerschaften mit Institutionen, die diese Entwicklungs - und Anwendungsumgebung in einer Richtung steuern möchten, die für ihre Ziele und Wünsche in Bezug auf Handelssysteme, Forschungs - und Entwicklungs - und Implementierungsumgebungen geeignet ist. Dies ist eine großartige Zeit, um Ihre eigenen Anforderungen an die nächste Welle in Machine Learning angewendet auf Trading-Strategie-Design zu injizieren. Kontaktieren Sie TSL oder RML direkt für weitere Informationen über diese einzigartige und spannende neue Entwicklung. TSL ist ein Machine Learning-Algorithmus, der automatisch Trading Systems schreibt und die von dieser Maschine erstellten Handelssysteme werden von Futures Truth am besten bewertet und auf Sequestered Data ausgewertet. Es ist keine Programmierung erforderlich. Kein anderes Handelssystem-Tool in der Welt hat dieses Niveau erreicht. TSL ist eine bemerkenswerte Plattform angesichts der Tatsache, dass die Trading-Systeme von der TSL-Maschine vor über 7 Jahren entworfen sind immer noch am besten von Futures Truth bewertet. TSL verwendet eine patentierte automatische Induktion von Maschinencode mit genetischer Programmierung Engine mit sehr hohen Geschwindigkeiten und TSL produziert Produktions-Code, Reduzierung oder Beseitigung der Notwendigkeit für Trading System Programmierung Bemühungen und technische Analyse Know-how. Die Executive-Brief und Demo unten befindet sich ein Überblick über diese leistungsfähige Trading-Strategie Produktions-Tool. Es ist wichtig anzumerken, dass TSL eine unbegrenzte Anzahl von Handelsstrategien auf jedem Markt, jeden Zeitrahmen, Tageshandel oder am Ende des Tages, sowie Portfolios, Paare und Optionen, wieder ohne Programmierung. Kunden reichen von Anfänger bis PhD-Ebene Quant Forscher und Entwickler, nationale und internationale, sowie CTAsCPOs, Hedge-Fonds und Prop-Shops. Jetzt, mit 7 Jahren Erfahrung im Dienste von Handelskunden, hat TSL ein hohes Maß an Erfahrung in Machine Learning erworben, wie auf Trading Systems angewendet. TSL bietet One-on-One-Training und Beratung ohne zusätzliche Kosten für die Kunden, um sicherzustellen, dass Kunden das Beste aus der TSL-Engine. 6-monatiges TSL-Design eines eMini-Systems finden Sie hier: View the TSL Executive Brief: raquo Trading System Lab reduziert die Komplexität des Trading-Strategie-Designs auf wenige Einstellungen und Mausklicks, spart Zeit, Geld und Programmierung. Dieser Self Designing Trading Strategy Algorithmus verwendet ein fortschrittliches, patentiertes, registerbasiertes genetisches Programm (nicht zu verwechseln mit einem genetischen Algorithmus), das nirgendwo anders auf der Welt verfügbar ist. Diese Maschine entworfene Handelsstrategien blieben robust durch die extremen Finanzschmelze Jahre und die anschließende Erholung. Dieser Paradigmenwechsel zeigte, dass ein richtig ausgewählter und entwickelter Lernalgorithmus automatisch robuste Handelsstrategien entwickeln kann. Die LAIMGP wurde von RML Technologies, Inc. entwickelt und die Simulation, Vorverarbeitung, Übersetzung, Fitness-Routinen und Integration wurde durch Trading System Lab (TSL) erreicht. TSL lizenziert das gesamte Paket an Einzelpersonen, Eigenhandelsunternehmen und Hedgefonds. Vorverarbeiten Sie Ihre Daten, führen Sie die erweiterten genetischen Programm und dann auf Ihre Handelsplattform zu implementieren. Wir Demo diesen Prozess in einer einfachen 6 Minuten Flash-Demo im Link unten verfügbar. Alle TSL Handelsstrategien werden von der Maschine vollständig in offenen Code verbreitet exportiert. TSL-Strategien wurden Dritter Leistung bewertet auf sequenzielle Daten. Argumente für die Verwendung von Out of Sample (OOS) - Daten sind in der Regel zentriert um die mögliche akklimatisierte Nutzung dieser gehaltenen Daten in den Entwicklungsprozessen. Wenn dies geschieht, sind die Blinddaten nicht mehr blind, sondern beschädigt. Um diese Möglichkeit zu eliminieren, stellte TSL maschinengestützte Strategien für den Test auf Sequestered Data bereit. Das bedeutet, dass die Strategie-Performance-Messung in der Zukunft stattfindet. Da die ausgegebenen Daten nicht vorhanden sind, wenn die Strategien entworfen wurden, gibt es keine Möglichkeit, dass diese Bewertungsdaten versehentlich im Entwicklungsprozess verwendet werden können. Strategien, die von der TSL Maschine produziert wurden, wurden auf Sequestered Data durch den unabhängigen Dritten, Futures Truth getestet und sind am besten bewertet und schlagen die meisten anderen menschlichen oder manuell gestalteten Handelssysteme. NEU Hier ist, wie Sie TSL entwickelte Systeme in einem C oder C OMSEMS: View the TSL C Short: raquo Für diejenigen unter Ihnen, die das LinkedIn Automated Trading Strategies Group Webinar von Trading System Lab mit dem Titel: WHO DESIGNS BESSER HANDEL STRATEGIES A HUMAN verpasst Oder eine MASCHINE können Sie es hier herunterladen: Download der TSL Webinar: raquo Die freie Zeit ist vorbei für das neue Kindle Book mit unserem Artikel mit dem Titel: Machine Designed Trading Systems, aber Sie können diese kostengünstige Kindle Book hier herunterladen: Downloaden Sie das Kindle Book Raquo TSL ist nun offiziell auf der Silicon Valley Map. Silicon Valley Map und TSL-Position (6 Uhr Position) raquo TSL ist eine Maschine, die Algorithmen, Vorwärtsgänge, Backtests, Multi-Runs, EVORUNS und Export-Code in einer Vielzahl von Sprachen entwirft. Soweit nach vorn Robustheit, TSL hält zahlreiche Top-Rankings mit Maschine entwickelt Handel Algorithmen, wie von der unabhängigen Berichterstattung Unternehmen, Futures Truth berichtet. Diese (maschinell gestalteten) Systeme übertrafen, im Vorwärtsgang, die meisten oder alle anderen (manuell entworfenen) verfolgten Systeme und enthalten Schlupf und Provision in der Prüfung. (Siehe Referenzen unten) Der Paradigmenwechsel ist, dass diese Systeme von einer Maschine und nicht von einem Menschen entworfen wurden, und die TSL-Maschine entwirft Millionen von Systemen mit sehr hohen Raten mit einem fortschrittlichen, exklusiven, patentierten Algorithmus (LAIMGP) Design-Handelssysteme. Trader ohne Programmierkenntnisse können die TSL-Plattform ausführen, die Handelsalgorithmen erstellen und in einer Vielzahl von Handelsplattformen wie TradeStation, MultiCharts und spezialisierten OMSEMS einsetzen. Programmierer und Quants können noch mehr erweiterte Arbeit, da die Terminal-Sets vollständig anpassbar sind. TSL ist in der Lage, Multidaten-DNA in ihren Präprozessoren zu verwenden. Siehe Demo 48, wo wir den CBOE Volatility Index (VIX) zum Maschinenentwurf eines eMini SP Handelssystems verwenden. Diese Art von Design-Arbeit ist einfach, in TSL zu erreichen, da der Präprozessor ist vollständig anpassbar mit Ihren einzigartigen Mustern und Indikatoren in einem einzigen oder mehreren Datenstrom Design. Verbesserte Preprocessoren haben gezeigt, dass sie eine zusätzliche Steigerung der Trading System Performance bieten. Wie hat die TSL-Software, die Software Machine out-Design anderen menschlichen Einreichungen zu FT ohne Programmierung schreibt Wie funktionieren Maschine entworfen Trading Systems tatsächlich funktionieren Unsere Entwicklungs-Chronologie ist gut abgedeckt in unseren White Papers und Flash-Demos auf der TSL-Website. Die LinkedIn WEBINAR finden Sie hier: Zum LinkedIn WEBINAR raquo Das 2015 OUANTLABS WEBINAR finden Sie hier: Zum 2015 QUANTLABS WEBINAR raquo Das 2014 OUANTLABS WEBINAR finden Sie hier: Zum 2014 QUANTLABS WEBINAR raquo Was Ist die optimale Bar Größe zu handeln 100 Tick, 15 Minuten, täglich. TSLs neues EVORUN-Modul ermöglicht es, Strategien zu konstruieren, während Iteration über Bar Größe, Handelstyp, Preprocessor, Trading Frequency und Fitness-Funktion in einem Multirun. EVORUN und TSL Version 1.3 Demos 51 und 52 sind jetzt hier verfügbar: Gehen Sie zu TSL Demos raquo ALLE TSL-STRATEGIEN SIND VOLL IN OPEN CODE. WOLLEN SIE EIN BUCH AUF DEM TSL GENETISCHEN PROGRAMM LESEN Frank Francone co-authored das Universitätslehrbuch Genetisches Programmieren: Eine Einleitung (Die Morgan Kaufman Reihe in der künstlichen Intelligenz). TSL hat mehrere HFT-Projekte im Gange auf verschiedenen colocated Servern in der Nähe von Austausch-Matching-Motoren. TSL-maschinengestützte Strategien können auf auftragsbasierten Daten oder in Unter-Sekunden-Bars implementiert werden. Siehe Demo 50. Weitere Informationen erhalten Sie von TSL. Mit Hilfe von OneMarketData kann TSL Auto-Design High Frequency Trading-Strategien. Demo 50 zeigt ein Beispiel unter Verwendung von 250 Millisekunden Granularität Orderbuch Daten, die mit OneMarketDatas OneTick Complex Event Processing Orderbuch Aggregator erstellt wurden. TSL ist eine stochastische, evolutionäre, multirun, Trading-Strategie Autodesigner, produziert und exportiert portable Code in einer Vielzahl von Sprachen. Dies ist eine komplette End-to-End-Trading-System-Design-Plattform und wird autodesign High Frequency Trading Systems, Day Trading, EOD, Paare, Portfolios und Optionen Trading Systems in wenigen Minuten ohne Programmierung. Siehe Thesen, White Papers, PPT-Präsentationen und andere Unterlagen im Literaturlink auf der linken Seite. Sehen Sie sich die Flash-Demos auf der linken Seite für ein komplettes Briefing über diese neue Technologie. Die TSL-Plattform produziert maschinell gestaltete Trading-Strategien mit sehr hohen Raten dank Registerniveau Auswertungen. Keine andere Trading-Strategie-Entwicklungsplattform auf dem Markt bietet diese Ebene der Macht. Das LAIMGP-genetische Programm innerhalb der TSL ist heute einer der leistungsstärksten Algorithmen und arbeitet mit Raten viel schneller als konkurrierende Algorithmen. Mit TSL werden Handelssysteme und Code für Sie in Sprachen einschließlich C, JAVA, Assembler, EasyLanguage und andere durch Übersetzer geschrieben. Frank Francone, Präsident von RML Technologies, Inc. hat eine Flash-Demo mit dem Titel Genetic Programming for Predictive Modeling vorbereitet. RML produziert die Discipulus Genetic Programming Engine, die innerhalb von TSL verwendet wird. Dieses Tutorial ist ein ausgezeichneter Weg, um über Discipulus lernen und wird eine Grundlage für Ihr weiteres Verständnis der TSLs Auto-Design von Trading System Paradigm Shift. TSL vereinfacht den Datenimport, die Vorverarbeitung und das Design von Trading-Systemen mit Trading System Performance als Fitness. Stellen Sie sicher, dass Sie die TSL-Demos sehen, da die TSL-Plattform speziell für den Handelssystementwurf bestimmt ist. Laden Sie die Discipulus Tutorial raquo Die Technologie im Trading System Lab verwendet wird 60 bis 200 mal schneller als andere Algorithmen. Siehe White Papers auf Geschwindigkeitsstudien bei SAIC hier: Gehen Sie zu White Papers raquo Telefon: 1-408-356-1800 E-Mail: (geschützt) Hochfrequenz-Handelssystem Design und Prozess-Management Hochfrequenz-Handelssystem Design und Prozess-Management Berater: Roy E. Welsch. Abteilung: Systemdesign und Managementprogramm. Herausgeber: Massachusetts Institute of Technology Datum der Herausgabe: 2009 Handelsunternehmen sind heutzutage sehr stark auf Data Mining, Computermodellierung und Softwareentwicklung angewiesen. Financial Analysts erfüllen viele ähnliche Aufgaben wie die in der Software-und Fertigungsindustrie. Allerdings hat die Finanzbranche noch nicht in vollem Umfang verabschiedet High-Standard-Systeme Engineering Frameworks und Prozess-Management-Ansätze, die erfolgreich in der Software-und Fertigungsindustrie waren. Viele der traditionellen Methoden des Produktdesigns, der Qualitätskontrolle, der systematischen Innovation und der kontinuierlichen Verbesserung, die in Ingenieurdisziplinen gefunden werden, können auf den Finanzbereich angewendet werden. Diese Arbeit zeigt, wie das Wissen aus Ingenieurdisziplinen das Design und Prozessmanagement von Hochfrequenz-Handelssystemen verbessern kann. Hochfrequenz-Handelssysteme sind rechnerisch. Diese Systeme sind automatische oder halbautomatische Softwaresysteme, die von Natur aus komplex sind und ein hohes Maß an Konstruktionsgenauigkeit erfordern. Der Entwurf eines Hochfrequenz-Handelssystems verbindet mehrere Felder, darunter quantitative Finanzen, Systemdesign und Software-Engineering. In der Finanzbranche, wo mathematische Theorien und Handelsmodelle relativ gut recherchiert sind, ist die Fähigkeit, diese Entwürfe in echten Handelspraktiken umzusetzen, eines der Schlüsselelemente der Wettbewerbsfähigkeit einer Wertpapierfirma. Die Fähigkeit, Investmentideen effizient und effizient in leistungsfähige Handelssysteme zu verwandeln, kann einer Investmentfirma einen enormen Wettbewerbsvorteil verschaffen. (Fortsetzung) Diese Diplomarbeit enthält eine detaillierte Studie, die sich aus Hochfrequenzsystemen, Systemmodellen und - grundsätzen sowie Prozessmanagement zusammensetzt Für die Systementwicklung. Besonderes Augenmerk wird auf Backtesting und Optimierung gelegt, die als die wichtigsten Bestandteile beim Aufbau eines Handelssystems gelten. Diese Forschung baut System-Engineering-Modelle, die den Entwicklungsprozess zu führen. Es verwendet auch experimentelle Handelssysteme zur Überprüfung und Validierung von Grundsätzen, die in dieser Arbeit behandelt werden. Schließlich kommt diese These zu dem Schluss, dass systemtechnische Grundlagen und Rahmenbedingungen der Schlüssel zum Erfolg für die Durchführung hochfrequenter Handelssysteme oder quantitativer Investitionssysteme sein können. Thesis (S. M.) - Massachusetts Institut für Technologie, System Design und Management-Programm, 2009. Cataloged aus PDF-Version der Arbeit. Enthält bibliographische Hinweise (S. 78-79). Schlüsselwörter: System Design and Management Program. Mein KontoBest-Programmiersprache für algorithmische Handelssysteme Eine der häufigsten Fragen, die ich im QS-Beutel bekomme, ist: Was ist die beste Programmiersprache für den algorithmischen Handel. Die kurze Antwort ist, dass es keine beste Sprache. Strategieparameter, Leistung, Modularität, Entwicklung, Resiliency und Kosten müssen berücksichtigt werden. Dieser Artikel wird skizzieren die notwendigen Komponenten einer algorithmischen Handelssystemarchitektur und wie Entscheidungen über die Umsetzung beeinflussen die Wahl der Sprache. Zuerst werden die Hauptkomponenten eines algorithmischen Handelssystems betrachtet, wie die Forschungsinstrumente, der Portfoliooptimierer, der Risikomanager und die Ausführungsmaschine. Anschließend werden verschiedene Handelsstrategien untersucht und auf die Gestaltung des Systems eingegangen. Insbesondere werden die Handelshäufigkeit und das voraussichtliche Handelsvolumen diskutiert. Sobald die Handelsstrategie ausgewählt worden ist, ist es notwendig, das gesamte System zu gestalten. Dies beinhaltet die Wahl der Hardware, des Betriebssystems und der Systemresistenz gegenüber seltenen, potentiell katastrophalen Ereignissen. Während die Architektur in Erwägung gezogen wird, muss auf die Leistung - sowohl auf die Forschungsinstrumente als auch auf die Live-Ausführungsumgebung - geachtet werden. Was ist das Handelssystem zu tun, bevor die Entscheidung über die beste Sprache, mit der ein automatisiertes Handelssystem zu schreiben, ist es notwendig, die Anforderungen zu definieren. Ist das System wird rein Ausführungsbasis Will das System erfordern ein Risikomanagement oder Portfolio-Bau-Modul Wird das System erfordern eine leistungsstarke Backtester Für die meisten Strategien kann das Handelssystem in zwei Kategorien aufgeteilt werden: Forschung und Signal-Generierung. Die Forschung befasst sich mit der Bewertung einer Strategieleistung gegenüber historischen Daten. Der Prozess der Bewertung einer Handelsstrategie gegenüber früheren Marktdaten wird als Backtesting bezeichnet. Die Datengröße und die algorithmische Komplexität werden einen großen Einfluss auf die Rechenintensität des Backtests haben. CPU-Geschwindigkeit und Parallelität sind oft die begrenzenden Faktoren bei der Optimierung der Durchführungsgeschwindigkeit. Die Signalerzeugung betrifft die Erzeugung eines Satzes von Handelssignalen aus einem Algorithmus und das Senden solcher Befehle an den Markt, üblicherweise über eine Vermittlung. Für bestimmte Strategien ist ein hohes Leistungsniveau erforderlich. IO-Probleme wie Netzwerkbandbreite und Latenz sind oft der limitierende Faktor bei der Optimierung von Ausführungssystemen. So kann die Wahl der Sprachen für jede Komponente Ihres gesamten Systems ganz anders sein. Art, Häufigkeit und Umfang der Strategie Die Art der verwendeten algorithmischen Strategie hat erhebliche Auswirkungen auf die Gestaltung des Systems. Es wird notwendig sein, die Märkte zu betrachten, die gehandelt werden, die Konnektivität zu externen Datenanbietern, die Häufigkeit und das Volumen der Strategie, der Kompromiss zwischen der Leichtigkeit der Entwicklung und der Leistungsoptimierung sowie jegliche benutzerdefinierte Hardware einschließlich der gemeinsamen Sitzung Server, GPUs oder FPGAs, die erforderlich sein könnten. Die Technologieentscheidungen für eine niederfrequente US-Aktienstrategie werden sich weitgehend von denen eines hochfrequenten statistischen Arbitrage-Strategiehandels auf dem Futures-Markt unterscheiden. Vor der Wahl der Sprache müssen viele Datenanbieter ausgewertet werden, die sich auf die vorliegende Strategie beziehen. Es wird notwendig sein, die Konnektivität zu dem Anbieter, die Struktur von beliebigen APIs, die Aktualität der Daten, die Speicheranforderungen und die Ausfallsicherheit in Anbetracht eines Offline-Vendors zu prüfen. Es ist auch ratsam, schnellen Zugriff auf mehrere Anbieter zu haben. Verschiedene Instrumente haben alle ihre eigenen Speicherquirks, wobei Beispiele davon mehrere Tickersymbole für Aktien und Verfallsdaten für Futures (ganz zu schweigen von spezifischen OTC-Daten) umfassen. Dies muss in der Plattform-Design berücksichtigt werden. Häufigkeit der Strategie ist wahrscheinlich einer der größten Treiber, wie der Technologie-Stack definiert werden. Strategien, die Daten häufiger als minutiös oder sekundär verwenden, erfordern eine beträchtliche Betrachtung hinsichtlich der Leistung. Eine Strategie, die zweite Balken überschreitet (d. H. Tick-Daten), führt zu einem leistungsgetriebenen Design als die primäre Anforderung. Für Hochfrequenzstrategien muss eine erhebliche Menge an Marktdaten gespeichert und ausgewertet werden. Software wie HDF5 oder kdb werden häufig für diese Rollen verwendet. Um die umfangreichen Datenmengen für HFT-Anwendungen zu verarbeiten, muss ein ausgereiftes Backtester - und Ausführungssystem eingesetzt werden. CC (möglicherweise mit einigen Assembler) ist wahrscheinlich der stärkste Sprachkandidat. Ultra-Hochfrequenz-Strategien werden fast sicher erfordern spezielle Hardware wie FPGAs, Austausch Co-Location und kernalnetwork Interface-Tuning. Forschungssysteme Forschungssysteme umfassen typischerweise eine Mischung aus interaktiver Entwicklung und automatisiertem Scripting. Ersteres findet oft in einer IDE wie Visual Studio, MatLab oder R Studio statt. Letztere umfassen umfangreiche numerische Berechnungen über zahlreiche Parameter und Datenpunkte. Dies führt zu einer Sprachauswahl, die eine einfache Umgebung zum Testen von Code bereitstellt, aber auch eine ausreichende Leistung bietet, um Strategien über mehrere Parameterabmessungen auszuwerten. Typische IDEs in diesem Bereich sind Microsoft Visual CC, das umfangreiche Debugging-Dienstprogramme, Codevollzugsfunktionen (über Intellisense) und einfache Übersichten über den gesamten Projektstapel (über die Datenbank ORM, LINQ) MatLab enthält. Die für umfangreiche numerische lineare Algebra und vectorized Operationen, sondern in einer interaktiven Konsole Weise R Studio. Die die statistische Sprachkonsole R in einer vollwertigen IDE-Eclipse-IDE für Linux-Java und C und semi-proprietären IDEs wie Enthought Canopy für Python, die Datenanalyse-Bibliotheken wie NumPy enthalten, umschließt. SciPy Scikit-lernen und Pandas in einer einzigen interaktiven (Konsolen-) Umgebung. Für das numerische Backtesting sind alle obigen Sprachen geeignet, obwohl es nicht notwendig ist, ein GUIIDE zu verwenden, da der Code im Hintergrund ausgeführt wird. Die Hauptbetrachtung in diesem Stadium ist die der Ausführungsgeschwindigkeit. Eine kompilierte Sprache (wie C) ist oft nützlich, wenn die Dimension des Backtesting-Parameters groß ist. Denken Sie daran, dass es notwendig ist, von solchen Systemen vorsichtig zu sein, wenn dies der Fall ist. Interpretierte Sprachen wie Python nutzen oft Hochleistungsbibliotheken wie NumPypandas für den Backtesting-Schritt, um einen angemessenen Grad an Wettbewerbsfähigkeit mit kompilierten Äquivalenten beizubehalten. Letztlich wird die für das Backtesting gewählte Sprache durch spezifische algorithmische Bedürfnisse sowie die Bandbreite der in der Sprache verfügbaren Bibliotheken bestimmt (weiter unten). Die Sprache, die für die Backtester - und Forschungsumgebungen verwendet wird, kann jedoch vollständig unabhängig von denjenigen sein, die in den Bereichen Portfolio-Konstruktion, Risikomanagement und Ausführungskomponenten verwendet werden. Portfolio-Konstruktion und Risikomanagement Die Komponenten des Portfoliokonstruktions - und Risikomanagements werden von den Handelspartnern oft übersehen. Das ist fast immer ein Fehler. Diese Instrumente bieten den Mechanismus, durch den das Kapital erhalten bleibt. Sie versuchen nicht nur, die Anzahl der riskanten Wetten zu lindern, sondern auch die Abwanderung der Trades selbst zu minimieren und so die Transaktionskosten zu senken. Ausgefeilte Versionen dieser Komponenten können erhebliche Auswirkungen auf die Qualität und Wirtschaftlichkeit der Rentabilität haben. Es ist unkompliziert, eine stabile Strategie zu schaffen, da der Portfoliokonstruktionsmechanismus und der Risikomanager einfach modifiziert werden können, um mehrere Systeme zu behandeln. Sie sollten daher zu Beginn des Entwurfs eines algorithmischen Handelssystems als wesentliche Komponenten betrachtet werden. Die Aufgabe des Portfolio-Bau-System ist es, eine Reihe von gewünschten Trades zu nehmen und produzieren die Menge der tatsächlichen Trades, minimieren churn, halten Exposures zu verschiedenen Faktoren (wie Sektoren, Asset-Klassen, Volatilität etc.) und optimieren die Zuweisung von Kapital an verschiedene Strategien in einem Portfolio. Portfolio-Konstruktion reduziert oft auf eine lineare Algebra Problem (wie eine Matrix-Faktorisierung) und damit die Leistung ist stark abhängig von der Wirksamkeit der numerischen linearen Algebra-Implementierung zur Verfügung. Gemeinsame Bibliotheken sind uBLAS. LAPACK und NAG für C. MatLab besitzt auch umfangreich optimierte Matrixoperationen. Python nutzt NumPySciPy für solche Berechnungen. Ein häufig ausgeglichenes Portfolio erfordert eine kompilierte (und gut optimierte) Matrixbibliothek, um diesen Schritt auszuführen, um das Handelssystem nicht zu verkleinern. Das Risikomanagement ist ein weiterer äußerst wichtiger Bestandteil eines algorithmischen Handelssystems. Das Risiko kann in vielen Formen auftreten: Erhöhte Volatilität (obwohl dies für bestimmte Strategien als wünschenswert angesehen werden kann), erhöhte Korrelationen zwischen Assetklassen, Gegenpartei-Default, Serverausfällen, Black Swan-Ereignissen und unentdeckten Bugs im Handelscode wenige. Risikomanagementkomponenten versuchen, die Effekte einer übermäßigen Volatilität und Korrelation zwischen den Vermögensklassen und ihren nachfolgenden Auswirkungen auf das Handelskapital vorwegzunehmen. Oft reduziert dies auf eine Reihe von statistischen Berechnungen wie Monte Carlo Stresstests. Dies ist sehr ähnlich zu den rechnerischen Bedürfnissen einer Derivate-Preis-Engine und als solche CPU-gebunden werden. Diese Simulationen sind sehr parallelisierbar (siehe unten) und bis zu einem gewissen Grad ist es möglich, Hardware auf das Problem zu werfen. Ausführungssysteme Die Aufgabe des Ausführungssystems besteht darin, gefilterte Handelssignale von den Portfolio-Bau - und Risikomanagementkomponenten zu empfangen und an eine Brokerage oder andere Mittel des Marktzugangs zu senden. Für die Mehrheit der Einzelhandel algorithmischen Handelsstrategien beinhaltet dies eine API oder FIX-Verbindung zu einem Brokerage wie Interactive Brokers. Die primären Erwägungen bei der Entscheidung über eine Sprache beinhalten die Qualität der API, die Verfügbarkeit der Sprachverpackung für eine API, die Ausführungshäufigkeit und den erwarteten Schlupf. Die Qualität der API bezieht sich darauf, wie gut sie dokumentiert ist, welche Art von Leistung sie bereitstellt, ob sie auf eine eigenständige Software zugreifen muss oder ob ein Gateway kopflos aufgebaut werden kann (d. h. keine GUI). Im Fall von Interactive Brokers muss das Trader WorkStation-Tool in einer GUI-Umgebung ausgeführt werden, um auf deren API zuzugreifen. Ich musste einmal eine Desktop-Ubuntu-Edition auf einem Amazon-Cloud-Server installieren, um auf interaktive Broker remote zuzugreifen, rein aus diesem Grund. Die meisten APIs bieten eine C-andor-Java-Schnittstelle. In der Regel ist es Aufgabe der Community, sprachspezifische Wrapper für C, Python, R, Excel und MatLab zu entwickeln. Beachten Sie, dass mit jedem zusätzlichen Plugin (vor allem API-Wrapper) gibt es Spielraum für Bugs in das System kriechen. Teste immer Plugins dieser Art und sorge dafür, dass sie aktiv gepflegt werden. Ein lohnendes Maß ist zu sehen, wie viele neue Updates zu einer Codebase in den letzten Monaten gemacht wurden. Execution frequency is of the utmost importance in the execution algorithm. Note that hundreds of orders may be sent every minute and as such performance is critical. Slippage will be incurred through a badly-performing execution system and this will have a dramatic impact on profitability. Statically-typed languages (see below) such as CJava are generally optimal for execution but there is a trade-off in development time, testing and ease of maintenance. Dynamically-typed languages, such as Python and Perl are now generally fast enough. Always make sure the components are designed in a modular fashion (see below) so that they can be swapped out out as the system scales. Architectural Planning and Development Process The components of a trading system, its frequency and volume requirements have been discussed above, but system infrastructure has yet to be covered. Those acting as a retail trader or working in a small fund will likely be wearing many hats. It will be necessary to be covering the alpha model, risk management and execution parameters, and also the final implementation of the system. Before delving into specific languages the design of an optimal system architecture will be discussed. Separation of Concerns One of the most important decisions that must be made at the outset is how to separate the concerns of a trading system. In software development, this essentially means how to break up the different aspects of the trading system into separate modular components. By exposing interfaces at each of the components it is easy to swap out parts of the system for other versions that aid performance, reliability or maintenance, without modifying any external dependency code. This is the best practice for such systems. For strategies at lower frequencies such practices are advised. For ultra high frequency trading the rulebook might have to be ignored at the expense of tweaking the system for even more performance. A more tightly coupled system may be desirable. Creating a component map of an algorithmic trading system is worth an article in itself. However, an optimal approach is to make sure there are separate components for the historical and real-time market data inputs, data storage, data access API, backtester, strategy parameters, portfolio construction, risk management and automated execution systems. For instance, if the data store being used is currently underperforming, even at significant levels of optimisation, it can be swapped out with minimal rewrites to the data ingestion or data access API. As far the as the backtester and subsequent components are concerned, there is no difference. Another benefit of separated components is that it allows a variety of programming languages to be used in the overall system. There is no need to be restricted to a single language if the communication method of the components is language independent. This will be the case if they are communicating via TCPIP, ZeroMQ or some other language-independent protocol. As a concrete example, consider the case of a backtesting system being written in C for number crunching performance, while the portfolio manager and execution systems are written in Python using SciPy and IBPy . Performance Considerations Performance is a significant consideration for most trading strategies. For higher frequency strategies it is the most important factor. Performance covers a wide range of issues, such as algorithmic execution speed, network latency, bandwidth, data IO, concurrencyparallelism and scaling. Each of these areas are individually covered by large textbooks, so this article will only scratch the surface of each topic. Architecture and language choice will now be discussed in terms of their effects on performance. The prevailing wisdom as stated by Donald Knuth. one of the fathers of Computer Science, is that premature optimisation is the root of all evil. This is almost always the case - except when building a high frequency trading algorithm For those who are interested in lower frequency strategies, a common approach is to build a system in the simplest way possible and only optimise as bottlenecks begin to appear. Profiling tools are used to determine where bottlenecks arise. Profiles can be made for all of the factors listed above, either in a MS Windows or Linux environment. There are many operating system and language tools available to do so, as well as third party utilities. Language choice will now be discussed in the context of performance. C, Java, Python, R and MatLab all contain high-performance libraries (either as part of their standard or externally) for basic data structure and algorithmic work. C ships with the Standard Template Library, while Python contains NumPySciPy. Common mathematical tasks are to be found in these libraries and it is rarely beneficial to write a new implementation. One exception is if highly customised hardware architecture is required and an algorithm is making extensive use of proprietary extensions (such as custom caches). However, often reinvention of the wheel wastes time that could be better spent developing and optimising other parts of the trading infrastructure. Development time is extremely precious especially in the context of sole developers. Latency is often an issue of the execution system as the research tools are usually situated on the same machine. For the former, latency can occur at multiple points along the execution path. Databases must be consulted (disknetwork latency), signals must be generated (operating syste, kernal messaging latency), trade signals sent (NIC latency) and orders processed (exchange systems internal latency). For higher frequency operations it is necessary to become intimately familiar with kernal optimisation as well as optimisation of network transmission. This is a deep area and is significantly beyond the scope of the article but if an UHFT algorithm is desired then be aware of the depth of knowledge required Caching is very useful in the toolkit of a quantitative trading developer. Caching refers to the concept of storing frequently accessed data in a manner which allows higher-performance access, at the expense of potential staleness of the data. A common use case occurs in web development when taking data from a disk-backed relational database and putting it into memory. Any subsequent requests for the data do not have to hit the database and so performance gains can be significant. For trading situations caching can be extremely beneficial. For instance, the current state of a strategy portfolio can be stored in a cache until it is rebalanced, such that the list doesnt need to be regenerated upon each loop of the trading algorithm. Such regeneration is likely to be a high CPU or disk IO operation. However, caching is not without its own issues. Regeneration of cache data all at once, due to the volatilie nature of cache storage, can place significant demand on infrastructure. Another issue is dog-piling . where multiple generations of a new cache copy are carried out under extremely high load, which leads to cascade failure. Dynamic memory allocation is an expensive operation in software execution. Thus it is imperative for higher performance trading applications to be well-aware how memory is being allocated and deallocated during program flow. Newer language standards such as Java, C and Python all perform automatic garbage collection . which refers to deallocation of dynamically allocated memory when objects go out of scope . Garbage collection is extremely useful during development as it reduces errors and aids readability. However, it is often sub-optimal for certain high frequency trading strategies. Custom garbage collection is often desired for these cases. In Java, for instance, by tuning the garbage collector and heap configuration, it is possible to obtain high performance for HFT strategies. C doesnt provide a native garbage collector and so it is necessary to handle all memory allocationdeallocation as part of an objects implementation. While potentially error prone (potentially leading to dangling pointers) it is extremely useful to have fine-grained control of how objects appear on the heap for certain applications. When choosing a language make sure to study how the garbage collector works and whether it can be modified to optimise for a particular use case. Many operations in algorithmic trading systems are amenable to parallelisation . This refers to the concept of carrying out multiple programmatic operations at the same time, i. e in parallel. So-called embarassingly parallel algorithms include steps that can be computed fully independently of other steps. Certain statistical operations, such as Monte Carlo simulations, are a good example of embarassingly parallel algorithms as each random draw and subsequent path operation can be computed without knowledge of other paths. Other algorithms are only partially parallelisable. Fluid dynamics simulations are such an example, where the domain of computation can be subdivided, but ultimately these domains must communicate with each other and thus the operations are partially sequential. Parallelisable algorithms are subject to Amdahls Law. which provides a theoretical upper limit to the performance increase of a parallelised algorithm when subject to N separate processes (e. g. on a CPU core or thread ). Parallelisation has become increasingly important as a means of optimisation since processor clock-speeds have stagnated, as newer processors contain many cores with which to perform parallel calculations. The rise of consumer graphics hardware (predominently for video games) has lead to the development of Graphical Processing Units (GPUs), which contain hundreds of cores for highly concurrent operations. Such GPUs are now very affordable. High-level frameworks, such as Nvidias CUDA have lead to widespread adoption in academia and finance. Such GPU hardware is generally only suitable for the research aspect of quantitative finance, whereas other more specialised hardware (including Field-Programmable Gate Arrays - FPGAs) are used for (U)HFT. Nowadays, most modern langauges support a degree of concurrencymultithreading. Thus it is straightforward to optimise a backtester, since all calculations are generally independent of the others. Scaling in software engineering and operations refers to the ability of the system to handle consistently increasing loads in the form of greater requests, higher processor usage and more memory allocation. In algorithmic trading a strategy is able to scale if it can accept larger quantities of capital and still produce consistent returns. The trading technology stack scales if it can endure larger trade volumes and increased latency, without bottlenecking . While systems must be designed to scale, it is often hard to predict beforehand where a bottleneck will occur. Rigourous logging, testing, profiling and monitoring will aid greatly in allowing a system to scale. Languages themselves are often described as unscalable. This is usually the result of misinformation, rather than hard fact. It is the total technology stack that should be ascertained for scalability, not the language. Clearly certain languages have greater performance than others in particular use cases, but one language is never better than another in every sense. One means of managing scale is to separate concerns, as stated above. In order to further introduce the ability to handle spikes in the system (i. e. sudden volatility which triggers a raft of trades), it is useful to create a message queuing architecture. This simply means placing a message queue system between components so that orders are stacked up if a certain component is unable to process many requests. Rather than requests being lost they are simply kept in a stack until the message is handled. This is particularly useful for sending trades to an execution engine. If the engine is suffering under heavy latency then it will back up trades. A queue between the trade signal generator and the execution API will alleviate this issue at the expense of potential trade slippage. A well-respected open source message queue broker is RabbitMQ . Hardware and Operating Systems The hardware running your strategy can have a significant impact on the profitability of your algorithm. This is not an issue restricted to high frequency traders either. A poor choice in hardware and operating system can lead to a machine crash or reboot at the most inopportune moment. Thus it is necessary to consider where your application will reside. The choice is generally between a personal desktop machine, a remote server, a cloud provider or an exchange co-located server. Desktop machines are simple to install and administer, especially with newer user friendly operating systems such as Windows 78, Mac OSX and Ubuntu. Desktop systems do possess some significant drawbacks, however. The foremost is that the versions of operating systems designed for desktop machines are likely to require rebootspatching (and often at the worst of times). They also use up more computational resources by the virtue of requiring a graphical user interface (GUI). Utilising hardware in a home (or local office) environment can lead to internet connectivity and power uptime problems. The main benefit of a desktop system is that significant computational horsepower can be purchased for the fraction of the cost of a remote dedicated server (or cloud based system) of comparable speed. A dedicated server or cloud-based machine, while often more expensive than a desktop option, allows for more significant redundancy infrastructure, such as automated data backups, the ability to more straightforwardly ensure uptime and remote monitoring. They are harder to administer since they require the ability to use remote login capabilities of the operating system. In Windows this is generally via the GUI Remote Desktop Protocol (RDP). In Unix-based systems the command-line Secure SHell (SSH) is used. Unix-based server infrastructure is almost always command-line based which immediately renders GUI-based programming tools (such as MatLab or Excel) to be unusable. A co-located server, as the phrase is used in the capital markets, is simply a dedicated server that resides within an exchange in order to reduce latency of the trading algorithm. This is absolutely necessary for certain high frequency trading strategies, which rely on low latency in order to generate alpha. The final aspect to hardware choice and the choice of programming language is platform-independence. Is there a need for the code to run across multiple different operating systems Is the code designed to be run on a particular type of processor architecture, such as the Intel x86x64 or will it be possible to execute on RISC processors such as those manufactured by ARM These issues will be highly dependent upon the frequency and type of strategy being implemented. Resilience and Testing One of the best ways to lose a lot of money on algorithmic trading is to create a system with no resiliency . This refers to the durability of the sytem when subject to rare events, such as brokerage bankruptcies, sudden excess volatility, region-wide downtime for a cloud server provider or the accidental deletion of an entire trading database. Years of profits can be eliminated within seconds with a poorly-designed architecture. It is absolutely essential to consider issues such as debuggng, testing, logging, backups, high-availability and monitoring as core components of your system. It is likely that in any reasonably complicated custom quantitative trading application at least 50 of development time will be spent on debugging, testing and maintenance. Nearly all programming languages either ship with an associated debugger or possess well-respected third-party alternatives. In essence, a debugger allows execution of a program with insertion of arbitrary break points in the code path, which temporarily halt execution in order to investigate the state of the system. The main benefit of debugging is that it is possible to investigate the behaviour of code prior to a known crash point . Debugging is an essential component in the toolbox for analysing programming errors. However, they are more widely used in compiled languages such as C or Java, as interpreted languages such as Python are often easier to debug due to fewer LOC and less verbose statements. Despite this tendency Python does ship with the pdb. which is a sophisticated debugging tool. The Microsoft Visual C IDE possesses extensive GUI debugging utilities, while for the command line Linux C programmer, the gdb debugger exists. Testing in software development refers to the process of applying known parameters and results to specific functions, methods and objects within a codebase, in order to simulate behaviour and evaluate multiple code-paths, helping to ensure that a system behaves as it should. A more recent paradigm is known as Test Driven Development (TDD), where test code is developed against a specified interface with no implementation. Prior to the completion of the actual codebase all tests will fail. As code is written to fill in the blanks, the tests will eventually all pass, at which point development should cease. TDD requires extensive upfront specification design as well as a healthy degree of discipline in order to carry out successfully. In C, Boost provides a unit testing framework. In Java, the JUnit library exists to fulfill the same purpose. Python also has the unittest module as part of the standard library. Many other languages possess unit testing frameworks and often there are multiple options. In a production environment, sophisticated logging is absolutely essential. Logging refers to the process of outputting messages, with various degrees of severity, regarding execution behaviour of a system to a flat file or database. Logs are a first line of attack when hunting for unexpected program runtime behaviour. Unfortunately the shortcomings of a logging system tend only to be discovered after the fact As with backups discussed below, a logging system should be given due consideration BEFORE a system is designed. Both Microsoft Windows and Linux come with extensive system logging capability and programming languages tend to ship with standard logging libraries that cover most use cases. It is often wise to centralise logging information in order to analyse it at a later date, since it can often lead to ideas about improving performance or error reduction, which will almost certainly have a positive impact on your trading returns. While logging of a system will provide information about what has transpired in the past, monitoring of an application will provide insight into what is happening right now . All aspects of the system should be considered for monitoring. System level metrics such as disk usage, available memory, network bandwidth and CPU usage provide basic load information. Trading metrics such as abnormal pricesvolume, sudden rapid drawdowns and account exposure for different sectorsmarkets should also be continuously monitored. Further, a threshold system should be instigated that provides notification when certain metrics are breached, elevating the notification method (email, SMS, automated phone call) depending upon the severity of the metric. System monitoring is often the domain of the system administrator or operations manager. However, as a sole trading developer, these metrics must be established as part of the larger design. Many solutions for monitoring exist: proprietary, hosted and open source, which allow extensive customisation of metrics for a particular use case. Backups and high availability should be prime concerns of a trading system. Consider the following two questions: 1) If an entire production database of market data and trading history was deleted (without backups) how would the research and execution algorithm be affected 2) If the trading system suffers an outage for an extended period (with open positions) how would account equity and ongoing profitability be affected The answers to both of these questions are often sobering It is imperative to put in place a system for backing up data and also for testing the restoration of such data. Many individuals do not test a restore strategy. If recovery from a crash has not been tested in a safe environment, what guarantees exist that restoration will be available at the worst possible moment Similarly, high availability needs to be baked in from the start. Redundant infrastructure (even at additional expense) must always be considered, as the cost of downtime is likely to far outweigh the ongoing maintenance cost of such systems. I wont delve too deeply into this topic as it is a large area, but make sure it is one of the first considerations given to your trading system. Choosing a Language Considerable detail has now been provided on the various factors that arise when developing a custom high-performance algorithmic trading system. The next stage is to discuss how programming languages are generally categorised. Type Systems When choosing a language for a trading stack it is necessary to consider the type system . The languages which are of interest for algorithmic trading are either statically - or dynamically-typed . A statically-typed language performs checks of the types (e. g. integers, floats, custom classes etc) during the compilation process. Such languages include C and Java. A dynamically-typed language performs the majority of its type-checking at runtime. Such languages include Python, Perl and JavaScript. For a highly numerical system such as an algorithmic trading engine, type-checking at compile time can be extremely beneficial, as it can eliminate many bugs that would otherwise lead to numerical errors. However, type-checking doesnt catch everything, and this is where exception handling comes in due to the necessity of having to handle unexpected operations. Dynamic languages (i. e. those that are dynamically-typed) can often lead to run-time errors that would otherwise be caught with a compilation-time type-check. For this reason, the concept of TDD (see above) and unit testing arose which, when carried out correctly, often provides more safety than compile-time checking alone. Another benefit of statically-typed languages is that the compiler is able to make many optimisations that are otherwise unavailable to the dynamically - typed language, simply because the type (and thus memory requirements) are known at compile-time. In fact, part of the inefficiency of many dynamically-typed languages stems from the fact that certain objects must be type-inspected at run-time and this carries a performance hit. Libraries for dynamic languages, such as NumPySciPy alleviate this issue due to enforcing a type within arrays. Open Source or Proprietary One of the biggest choices available to an algorithmic trading developer is whether to use proprietary (commercial) or open source technologies. There are advantages and disadvantages to both approaches. It is necessary to consider how well a language is supported, the activity of the community surrounding a language, ease of installation and maintenance, quality of the documentation and any licensingmaintenance costs. The Microsoft. NET stack (including Visual C, Visual C) and MathWorks MatLab are two of the larger proprietary choices for developing custom algorithmic trading software. Both tools have had significant battle testing in the financial space, with the former making up the predominant software stack for investment banking trading infrastructure and the latter being heavily used for quantitative trading research within investment funds. Microsoft and MathWorks both provide extensive high quality documentation for their products. Further, the communities surrounding each tool are very large with active web forums for both. The. NET software allows cohesive integration with multiple languages such as C, C and VB, as well as easy linkage to other Microsoft products such as the SQL Server database via LINQ. MatLab also has many pluginslibraries (some free, some commercial) for nearly any quantitative research domain. There are also drawbacks. With either piece of software the costs are not insignificant for a lone trader (although Microsoft does provide entry-level version of Visual Studio for free). Microsoft tools play well with each other, but integrate less well with external code. Visual Studio must also be executed on Microsoft Windows, which is arguably far less performant than an equivalent Linux server which is optimally tuned. MatLab also lacks a few key plugins such as a good wrapper around the Interactive Brokers API, one of the few brokers amenable to high-performance algorithmic trading. The main issue with proprietary products is the lack of availability of the source code. This means that if ultra performance is truly required, both of these tools will be far less attractive. Open source tools have been industry grade for sometime. Much of the alternative asset space makes extensive use of open-source Linux, MySQLPostgreSQL, Python, R, C and Java in high-performance production roles. However, they are far from restricted to this domain. Python and R, in particular, contain a wealth of extensive numerical libraries for performing nearly any type of data analysis imaginable, often at execution speeds comparable to compiled languages, with certain caveats. The main benefit of using interpreted languages is the speed of development time. Python and R require far fewer lines of code (LOC) to achieve similar functionality, principally due to the extensive libraries. Further, they often allow interactive console based development, rapidly reducing the iterative development process. Given that time as a developer is extremely valuable, and execution speed often less so (unless in the HFT space), it is worth giving extensive consideration to an open source technology stack. Python and R possess significant development communities and are extremely well supported, due to their popularity. Documentation is excellent and bugs (at least for core libraries) remain scarce. Open source tools often suffer from a lack of a dedicated commercial support contract and run optimally on systems with less-forgiving user interfaces. A typical Linux server (such as Ubuntu) will often be fully command-line oriented. In addition, Python and R can be slow for certain execution tasks. There are mechanisms for integrating with C in order to improve execution speeds, but it requires some experience in multi-language programming. While proprietary software is not immune from dependencyversioning issues it is far less common to have to deal with incorrect library versions in such environments. Open source operating systems such as Linux can be trickier to administer. I will venture my personal opinion here and state that I build all of my trading tools with open source technologies. In particular I use: Ubuntu, MySQL, Python, C and R. The maturity, community size, ability to dig deep if problems occur and lower total cost ownership (TCO) far outweigh the simplicity of proprietary GUIs and easier installations. Having said that, Microsoft Visual Studio (especially for C) is a fantastic Integrated Development Environment (IDE) which I would also highly recommend. Batteries Included The header of this section refers to the out of the box capabilities of the language - what libraries does it contain and how good are they This is where mature languages have an advantage over newer variants. C, Java and Python all now possess extensive libraries for network programming, HTTP, operating system interaction, GUIs, regular expressions (regex), iteration and basic algorithms. C is famed for its Standard Template Library (STL) which contains a wealth of high performance data structures and algorithms for free. Python is known for being able to communicate with nearly any other type of systemprotocol (especially the web), mostly through its own standard library. R has a wealth of statistical and econometric tools built in, while MatLab is extremely optimised for any numerical linear algebra code (which can be found in portfolio optimisation and derivatives pricing, for instance). Outside of the standard libraries, C makes use of the Boost library, which fills in the missing parts of the standard library. In fact, many parts of Boost made it into the TR1 standard and subsequently are available in the C11 spec, including native support for lambda expressions and concurrency. Python has the high performance NumPySciPyPandas data analysis library combination, which has gained widespread acceptance for algorithmic trading research. Further, high-performance plugins exist for access to the main relational databases, such as MySQL (MySQLC), JDBC (JavaMatLab), MySQLdb (MySQLPython) and psychopg2 (PostgreSQLPython). Python can even communicate with R via the RPy plugin An often overlooked aspect of a trading system while in the initial research and design stage is the connectivity to a broker API. Most APIs natively support C and Java, but some also support C and Python, either directly or with community-provided wrapper code to the C APIs. In particular, Interactive Brokers can be connected to via the IBPy plugin. If high-performance is required, brokerages will support the FIX protocol . Conclusion As is now evident, the choice of programming language(s) for an algorithmic trading system is not straightforward and requires deep thought. The main considerations are performance, ease of development, resiliency and testing, separation of concerns, familiarity, maintenance, source code availability, licensing costs and maturity of libraries. The benefit of a separated architecture is that it allows languages to be plugged in for different aspects of a trading stack, as and when requirements change. A trading system is an evolving tool and it is likely that any language choices will evolve along with it.

No comments:

Post a Comment