Tuesday 21 February 2017

Maschinenlernen Optionen Handel

Ich bin nicht sehr sicher, ob diese Frage hier passt. Ich habe vor kurzem angefangen, Lesen und Lernen über maschinelles Lernen. Kann jemand werfen etwas Licht auf, wie man über sie gehen oder vielmehr kann jeder ihre Erfahrungen und einige grundlegende Hinweise darüber, wie man über sie gehen oder atleast starten Anwendung, um einige Ergebnisse aus Datensätzen zu sehen Wie ehrgeizig klingt auch, darüber zu erwähnen Standard-Algorithmen, die versucht werden sollten oder angeschaut, während dies zu tun. Ja, es scheint ein grundlegender Irrtum, dass jemand kommen kann und lernen einige maschinelle Lernen oder AI-Algorithmen, stellen Sie sie als Black Box, hit go, und lehnen Sie sich zurück, während sie in Rente gehen. Mein Rat an Sie: Erlernen Sie Statistiken und maschinelles Lernen zuerst, dann sorgen Sie, wie man sie auf ein gegebenes Problem anwendet. Es gibt kein freies Mittagessen hier. Datenanalyse ist harte Arbeit. Lesen Sie die Elemente des statistischen Lernens (das pdf ist kostenlos auf der Website verfügbar), und nicht versuchen, ein Modell zu bauen, bis Sie zumindest die ersten 8 Kapitel verstehen. Sobald Sie die Statistik und maschinelles Lernen verstehen, dann müssen Sie lernen, wie man Backtest und bauen ein Handelsmodell, Buchhaltung für Transaktionskosten, etc., die ein ganz anderer Bereich ist. Nachdem Sie einen Griff auf die Analyse und die Finanzen haben, dann wird es etwas offensichtlich, wie man es anwenden. Der gesamte Punkt dieser Algorithmen versucht, einen Weg zu finden, um ein Modell an Daten anzupassen und eine geringe Vorspannung und Varianz in der Vorhersage zu erzeugen (d. h. dass der Trainings - und Testvorhersagefehler gering und ähnlich ist). Hier ist ein Beispiel für ein Trading-System mit einem Support-Vektor-Maschine in R. aber nur im Hinterkopf behalten, dass Sie sich selbst einen riesigen Bärendienst tun, wenn Sie nicht die Zeit verbringen, um die Grundlagen zu verstehen, bevor Sie versuchen, etwas Esoterik anzuwenden. Nur um ein unterhaltsames Update hinzufügen: Ich habe vor kurzem über diese Meister-These: Ein Novel Algorithmic Trading Framework Anwendung von Evolution und Machine Learning für Portfolio-Optimierung (2012). Es ist eine umfangreiche Überprüfung der verschiedenen maschinellen Lernansätze im Vergleich zu Buy-and-Hold. Nach fast 200 Seiten erreichen sie die grundlegende Schlussfolgerung: Kein Handelssystem konnte die Benchmark bei Transaktionskosten übertreffen. Unnötig zu sagen, dies bedeutet nicht, dass es nicht getan werden kann (ich havent verbrachte jede Zeit Überprüfung ihrer Methoden, um die Gültigkeit des Ansatzes zu sehen), aber es sicherlich bietet einige weitere Beweise für die nicht-freie Mittagessen Theorem. Antwortete am 1. Februar um 18:48 Jase Als einer der Autoren der erwähnten master39s These kann ich meine eigene Arbeit zitieren und sagen: "Wenn jemand tatsächlich profitables Ergebnis erzielt, gibt es keinen Anreiz, sie zu teilen, da sie ihren Vorteil negieren würde Obwohl unsere Ergebnisse die Markthypothese unterstützen könnten, kann sie die Existenz von Systemen, die funktionieren, nicht ausschließen. Es könnte sein, wie Wahrscheinlichkeitstheorie: quot Es wird spekuliert, dass Durchbrüche im Bereich der Wahrscheinlichkeitstheorie mehrmals passiert ist, aber nie geteilt. Dies könnte aufgrund seiner praktischen Anwendung in gambling. quot Dann wieder, vielleicht ist dies alles moderne Alchemie. Ndash Ich habe nur versucht, genetische Programmierung und einige neuronale Netze, und. Ich habe nur versucht, genetische Programmierung und einige neuronale Netze, und Ich persönlich denke, dass das Lernen aus Erfahrung Niederlassung scheint die meisten Potenzial haben. GPGA und neuronale Netze scheinen die am häufigsten erforschten Methoden für die Zwecke der Börsenvorhersagen sein, aber wenn Sie einige Data Mining auf Predict Wall Street zu tun. Könnten Sie in der Lage, einige Sentiment-Analyse zu tun. Verbringen Sie einige Zeit lernen über die verschiedenen MLAI-Techniken, finden Sie einige Marktdaten und versuchen, einige dieser Algorithmen implementieren. Jeder wird seine Stärken und Schwächen haben, aber Sie können die Vorhersagen jedes Algorithmus zu einer zusammengesetzten Vorhersage kombinieren (ähnlich wie die Gewinner des NetFlix-Preises). Einige Ressourcen: Hier sind einige Ressourcen, die Sie vielleicht in: The Chatter: Der allgemeine Konsens unter den Händlern ist, dass Künstliche Intelligenz ist ein Voodoo-Wissenschaft, können Sie nicht einen Computer vorhersagen Aktienkurse und youre sicher, Ihr Geld zu verlieren, wenn Sie versuchen Es zu tun. Dennoch werden die gleichen Leute Ihnen sagen, dass nur über die einzige Möglichkeit, Geld an der Börse zu machen ist, zu bauen und zu verbessern auf Ihre eigene Trading-Strategie und folgen es eng (was nicht wirklich eine schlechte Idee ist). Die Idee der AI-Algorithmen ist nicht zu bauen Chip und lassen Sie ihn für Sie handeln, sondern um den Prozess der Erstellung von Strategien zu automatisieren. Es ist ein sehr langwieriger Prozess und auf keinen Fall ist es einfach :). Minimierung von Overfitting: Wie bereits erwähnt, ist ein grundlegendes Problem mit AI-Algorithmen eine Überformatierung (aka datamining bias): Wenn Sie einen Satz von Daten angeben, kann Ihr Algorithmus ein Muster finden, das für das Trainingsset besonders relevant ist. Aber es kann nicht relevant sein, in der Test-Set. Es gibt mehrere Möglichkeiten, das Overfitting zu minimieren: Verwenden Sie ein Validierungsset. Es gibt keine Rückmeldung an den Algorithmus, aber es erlaubt Ihnen zu erkennen, wann Ihr Algorithmus potenziell anfängt zu overfit (d. H. Sie können das Training beenden, wenn youre overfitting zu viel). Verwenden Sie Online-Maschine lernen. Es weitgehend eliminiert die Notwendigkeit für Back-Testing und es ist sehr anwendbar für Algorithmen, die versuchen, Marktvorhersagen zu machen. Ensemble Lernen. Bietet Ihnen eine Möglichkeit, mehrere Maschinen lernen Algorithmen und kombinieren ihre Vorhersagen. Die Annahme ist, dass verschiedene Algorithmen die Daten in einem bestimmten Bereich überschätzen können, aber die korrekte Kombination ihrer Vorhersagen wird eine bessere Vorhersagekraft haben. Zwei Aspekte des statistischen Lernens sind nützlich für den Handel 1. Zuerst die oben erwähnten: Einige statistische Methoden konzentrierten sich auf die Arbeit an Live-Datasets. Es bedeutet, dass Sie wissen, dass Sie nur eine Stichprobe von Daten beobachten und Sie extrapolieren möchten. Sie haben also mit in der Probe und aus der Probe Probleme, Überbeanspruchung und so weiter. Von diesem Gesichtspunkt aus, Data-Mining ist mehr auf tote Datasets konzentriert (dh Sie können sehen, fast alle Daten, haben Sie eine in Probe nur Problem) als statistische Lernen. Da es sich bei dem statistischen Lernen um die Arbeit am Live-Dataset handelt, mussten die angewandten mathematischen Methoden, die sich mit ihnen befassten, auf ein Zwei-Skalen-Problem fokussieren: links X ampamp Ftheta (Xn, xi) ampamp L (pi (Xn), n) Wobei X der (multidimensionale) Zustandsraum ist, um zu studieren (Sie haben darin Ihre erklärenden Variablen und die, die vorherzusagen sind), F enthält die Dynamik von X, die einige Parameter theta benötigen. Die Zufälligkeit von X kommt von der Innovation xi, die i. i.d. Das Ziel des statistischen Lernens besteht darin, eine Methodik L ith aufzubauen, die eine Teilbeobachtung pi von X aufnimmt und schrittweise eine Schätzung von thatsa von theta anpasst, so dass wir alles wissen werden, was auf X benötigt wird. Wenn Sie über die Verwendung von statistischem Lernen nachdenken Die Parameter einer linearen Regression. Können wir den Zustandsraum folgendermaßen modellieren: underbrace yx end right) left begin ein amp b amp 1 1 amp 0 amp 0 end rechter cdot underbrace x 1 epsilon end right), der es erlaubt, (n) an jedem n zu beobachten Hier theta (a, b). Dann müssen Sie einen Weg finden, um schrittweise eine Schätzung der Theta mit unseren Beobachtungen zu bauen. Warum nicht ein Gradientabstieg auf den L2-Abstand zwischen y und der Regression: C (Hut a, Hut b) n sum (yk - (Hut a, xk Hut b)) 2 Hier ist gamma ein Gewichtungsschema. In der Regel eine schöne Art und Weise, um eine Schätzung zu erstellen ist es, richtig schreiben die Kriterien zu minimieren und zu implementieren eine Gradientenabfahrt, die das Lernsystem L produzieren wird. Zurück zu unserem ursprünglichen generischen Problem. (X, hattheta) konvergieren, und wir müssen wissen, wie man Schätzschemata L baut, die gegen das ursprüngliche Theta konvergieren. Um Ihnen Hinweise auf solche mathematischen Ergebnisse zu geben, können wir nun auf den zweiten Aspekt des statistischen Lernens zurückgreifen, der für quant tradersstrategists sehr interessant ist: 2. Die Ergebnisse, mit denen die Effizienz statistischer Lernmethoden belegt wird, Handel Algorithmen. Um zu sehen, dass es genug ist, um wieder das gekoppelte dynamische System zu lesen, das es erlaubt, statistisches Lernen zu schreiben: links M ampamp Frho (Mn, xi) ampamp L (pi (Mn), n) Ende rechts. Nun sind M Marktvariablen, rho liegt PnL zugrunde, L ist eine Handelsstrategie. Ersetzen Sie einfach die Minimierung von Kriterien durch Maximierung der PnL. Siehe zB Optimaler Split von Aufträgen über Liquiditätspools: ein stochastischer Algorithmusansatz von: Gilles Pags, Sophie Laruelle, Charles-Albert Lehalle. In diesem Papier zeigen Autoren, wer diesen Ansatz zu verwenden, um optimal zu teilen eine Bestellung über verschiedene dunkle Pools gleichzeitig lernen die Fähigkeit der Pools zur Verfügung stellen Liquidität und die Nutzung der Ergebnisse für den Handel. Die statistischen Lernwerkzeuge können verwendet werden, um iterative Handelsstrategien (die meisten von ihnen sind iterativ) zu bauen und ihre Effizienz zu beweisen. Die kurze und brutale Antwort ist: Sie nicht. Erstens, weil ML und Statistik ist nicht etwas, das Sie gut in ein oder zwei Jahren Befehl können. Mein empfohlener Zeithorizont, um etwas Nicht-Triviales zu lernen, ist 10 Jahre. ML nicht ein Rezept, um Geld zu verdienen, sondern nur ein anderes Mittel, um die Realität zu beobachten. Zweitens, weil jeder gute Statistiker weiß, dass das Verständnis der Daten und der Problem-Domain ist 80 der Arbeit. Deshalb haben Sie Statistiker mit Schwerpunkt auf Physik Datenanalyse, auf Genomik, auf sabermetrics etc. Für den Datensatz, Jerome Friedman, Co-Autor von ESL zitiert oben ist ein Physiker und hat immer noch eine Höflichkeit Position bei SLAC. Also studiere Statistik und Finanzen für ein paar Jahre. Sei geduldig. Gehen Sie Ihren eigenen Weg. Die Laufleistung kann variieren. Ich stimme voll und ganz zu. Nur weil Sie wissen, Maschinen-Lernen und Statistiken, es bedeutet nicht, dass Sie wissen, wie man es für die Finanzierung anzuwenden. Ndash Auch eine wichtige Sache zu erinnern ist, dass Sie gewonnen werden, um gegen Menschen zu handeln, werden Sie gegen andere künstliche Intelligenz-Algorithmen, die Ihre Trades Haufen sind, und sind wütend Berechnung der Chancen, dass die Kollektive yous würde durch einen hergestellten Rückgang ausgespäht und den geringfügigen Verlust bei der Schaffung einer Spikedip und täuschen all jene AI39s in Stoppen, und dann Rolling der Dip zurück in sie und fahren die Welle, verdienen Ihre Verluste. Die Börse ist ein Null-Summen-Spiel, behandeln Sie es wie die Eingabe eines Pro-Boxkampf, wenn Sie aren39t ein 20-jähriger Veteran, you39re gehen zu verlieren ndash Eine grundlegende Anwendung ist die Vorhersage der finanziellen Notlage. Holen Sie sich ein paar Daten mit einigen Unternehmen, die ausgefallen sind, und andere, die havent, mit einer Vielzahl von finanziellen Informationen und Verhältnisse. Verwenden Sie eine Maschine Lernmethode wie SVM, um zu sehen, wenn Sie vorhersagen können, welche Unternehmen standardmäßig und welche nicht. Verwenden Sie diese SVM in der Zukunft zu kurzen High-Wahrscheinlichkeit Ausfall Unternehmen und lange low-Wahrscheinlichkeit Ausfall Unternehmen, mit dem Erlös aus dem Leerverkäufe. Es gibt ein Sprichwort quotPicking Pennies bis vor Dampf Rollersquot. Sie tun das Äquivalent des Verkaufs eines Out-of-the-money setzen. In diesem Fall werden Sie machen kleine Gewinne für Jahre, dann bekommen total gereinigt, wenn der Markt schmilzt alle 10 Jahre oder so. Es gibt auch eine gleichwertige Strategie, die out-of-the-money Puts kauft: sie verlieren Geld für Jahre, dann machen eine Tötung, wenn der Markt schmilzt. Siehe Talab39s Der Schwarze Schwan. Ndash Contango Denken Sie daran, dass internationale Unternehmen haben Hunderte von Milliarden von Dollar und Mann Stunden auf die besten und hellsten künstliche Intelligenz Köpfe in den letzten 40 Jahren verbracht. I39ve gesprochen, um einige der Türme des Geistes verantwortlich für die Alphas über an der Zitadelle und Goldman Sachs, und die Hybris von Anfänger zu denken, sie können zusammen einen Algorithmus, der Zehe zu Fuß mit ihnen, und gewinnen wird, ist fast so dumm wie Ein Kind, das Ihnen sagt, dass er zum Mond springt. Viel Glück Kind, und achten Sie auf die Raum-Marsmenschen. Nicht zu sagen, neue Meister können nicht gemacht werden, aber die Chancen sind gegen Sie. Ndash Eric Leschinski Feb 13 16 at 2:00 Eine Möglichkeit lohnt sich zu erforschen ist die Unterstützung Vektor Maschine Lern-Tool auf der Metatrader 5-Plattform zu verwenden. Erstens, wenn Sie nicht vertraut mit, Metatrader 5 ist eine Plattform für Benutzer entwickelt, um algorithmischen Handel in Forex-und CFD-Märkte (Im nicht sicher, ob die Plattform kann erweitert werden, um Aktien und andere Märkte). Es wird typischerweise für technikanalysebasierte Strategien verwendet (d. h. unter Verwendung von Indikatoren, die auf historischen Daten basieren) und wird von Personen verwendet, die ihren Handel automatisieren möchten. Das Support Vector Machine Learning Tool wurde von einer der Benutzergemeinschaften entwickelt, um die Unterstützung von Vektor-Maschinen auf technische Indikatoren anzuwenden und zu beraten. Eine kostenlose Demo-Version des Tools können Sie hier herunterladen, wenn Sie weiter untersuchen möchten. Wie ich es verstehe, verwendet das Tool historische Preisdaten zu beurteilen, ob hypothetische Trades in der Vergangenheit erfolgreich gewesen wäre. Es nimmt dann diese Daten zusammen mit den historischen Werten aus einer Anzahl von anpassbaren Indikatoren (MACD, Oszillatoren usw.) und verwendet diese, um eine Unterstützungsvektormaschine zu trainieren. Dann verwendet es die trainierte Unterstützungsvektormaschine, um zukünftiges buysell Handel zu signalisieren. Eine bessere Beschreibung finden Sie unter dem Link. Ich habe mit ein wenig mit einigen sehr interessante Ergebnisse gespielt, aber wie bei allen algorithmischen Handelsstrategien empfehle ich solide backforward Tests, bevor er es auf dem Live-Markt. Antwortete, aber trotz der Verwendung als ein beliebtes Beispiel in der maschinellen Lernen, niemand hat jemals eine Börsenvorhersage erreicht. Es funktioniert nicht aus mehreren Gründen (zufällig zu Fuß von Fama und ein paar andere, rationale Entscheidungsfindung falsch, falsche Annahmen.), Aber die zwingendste ist, dass wenn es funktionieren würde jemand in der Lage, wahnsinnig reich zu werden Innerhalb von Monaten, im Grunde Besitz der ganzen Welt. Da dies nicht geschieht (und Sie können sicher sein, alle Bank haben es versucht), haben wir gute Beweise, dass es einfach nicht funktioniert. Außerdem: Wie denken Sie, dass Sie erreichen, was Zehntausende von Profis haben, indem sie die gleichen Methoden, die sie haben, sowie begrenzte Ressourcen und nur grundlegende Versionen ihrer Methoden zu beantworten, nur eine beiseite in Bezug auf Ihre Englisch: www. germnews. de/archive/dn/1997/11/25.html Grundsätzlich: Strategien haben Kapazitätsgrenzen, dh Ebenen, über die Ihre Marktwirkung das verfügbare Alpha übersteigen würde, auch wenn man davon ausgeht, dass Sie unbegrenztes Kapital hätten. I39m nicht sicher, was Sie mit einem quotstock Markt Vorhersagequot (Index-Futures ETF39s), aber sicherlich gibt es viele Menschen machen kurzfristige Vorhersagen, und profitieren von ihnen, jeden Tag in den Märkten. Ndash afekz Ich echo viel von dem, was Shane schrieb. Neben dem Lesen von ESL, würde ich vorschlagen, eine noch grundlegende Studie der Statistik zuerst. Darüber hinaus sind die Probleme, die ich in einer anderen Frage zu diesem Austausch skizzierte, von großer Bedeutung. Insbesondere ist das Problem der Datamining-Bias eine ernsthafte Straßensperre für jede auf Maschinenlern basierende Strategie. Der Begriff statistisches Arbitrage (stat-arb) umfasst eine Vielzahl von Anlagestrategien, die typischerweise darauf abzielen, eine statistische Gleichgewichtsbeziehung zwischen zwei oder mehr Wertpapieren zu nutzen . Das allgemeine Prinzip ist, daß jede Abweichung vom Gleichgewicht eine vorübergehende Wirkung ist und daß Wetten auf den Prozeß gelegt werden sollten, der sich dem Gleichgewicht wiederherstellt. Die wichtigste Einschränkung der Handelsstrategien von stat-arb-Paaren ist, dass mit zunehmender Divergenz aus dem Gleichgewicht der Handel wünschenswerter wird, aber an einem gewissen Punkt wird die Divergenz so groß werden, dass man zugeben muss, dass die Gleichgewichtsbeziehung nicht mehr existiert gebrochen. Natürlich ist es wünschenswert, die Leistungsfähigkeit der für die Bestimmung dieser Beziehungen verwendeten statistischen Werkzeuge zu schätzen und die Dauer eines beobachteten Gleichgewichts aus der Probe zu bestimmen. Dieser Beitrag untersucht die Befugnis der statistischen Tests im Zusammenhang mit dem Paarenhandel für die folgenden statistischen Tests ADF, BVR, HURST, PP, PGFF, JO-T und JO-E. Das allgemeine Prinzip ist, dass für zwei Bestände und bilden sie ein stationäres, und definitionsgemäß, bedeutet das Umwandlungspaar, wenn die folgende Gleichung gilt: If ist zwischen und dann und ist kointegriert, ist der Koeffizient der mittleren Reversion. Ein statistischer Test muss durchgeführt werden, um zu überprüfen, ob dies als Einheitswurzeltest bekannt ist. Wenn die Serie eine Einheit Wurzel enthält es isn8217t geeignet für Paare Handel. Es gibt mehrere Einheit Root-Tests, die jeweils einen anderen Test auf den Restprozess. Man könnte versucht sein, das AR (1) - Restmodell abzuschätzen und auf die Verwendung des herkömmlichen linearen Regressionsverfahrens, das das Standard-t-Verhältnis berechnet, zu überprüfen. Es wurde jedoch von Dicky und Fuller 1979 gezeigt, dass das t-Verhältnis nicht der t-Verteilung folgt, daher werden nichtstandardisierte Signifikanztests benötigt, die als Einheitswurzeltests bekannt sind. Wie bei jedem Modell gibt es Kompromisse bei der Bestimmung der Größe des Trainingsfensters, ein zu langes Fenster und das Modell kann irrelevante Daten enthalten und sich langsam auf die jüngsten Ereignisse einstellen, ein zu kurzes Fenster und das Modell reagiert nur auf aktuelle Ereignisse und vergisst Vergangene Ereignisse schnell. Dieser Kompromiß ist bei der Kointegrationstestproblematik problematisch, wurde in Clegg, M., Januar 2014, demonstriert. Auf der Beharrlichkeit der Kointegration in Paaren, die für eine feste Fenstergröße handeln, nimmt die Leistung der meisten Einheitswurzeltests ab, da sie von 1 abweicht Unten, für 250 Datenpunkte mit der Barrage von Kointegrationstests nur die Kointegration weniger als 25 der Zeit erkennen Intuitiv ist dies sinnvoll, je langsamer der Prozess ist, um die mehr Datenpunkte werden benötigt, um die Reversion sehen. Es ist etwas unerwünscht, dass die Leistung der Einheitswurzeltests in Abhängigkeit von den Eigenschaften des zugrundeliegenden Prozesses variiert, es ist jedoch nicht erforderlich für den erfolgreichen Paarhandel, dass alle kointegrierten Paare als solche identifiziert werden, die die variierende Leistungseigenschaft von Einheitswurzeltests sind Weitgehend irrelevant. Was interessanter ist, ist die falsch positive Rate, also Paare, die als Mittelwert wiederhergestellt werden, wenn sie nicht sind, und wie persistent die Resultate sind. Generieren Sie 1000 co-integrierte Zeitreihen mit und gleichmäßig in der Menge verteilt, und in der Menge nach Clegg ist dies ähnlich wie die Arten von Lager-Paare in der Praxis angetroffen. Wiederholen Sie dies für verschiedene Längen von Zeitreihen und testen Sie, um zu sehen, wie viele Zeitreihen korrekt als zusammen integrierte mittlere Wiederherstellung mit verschiedenen Tests für verschiedene pValues ​​klassifiziert werden. In der Mehrzahl der Tests übertreffen PP und PGFF die anderen Methoden. Wenn das Verfahren mit weniger als 0,85 stark rückgängig gemacht wurde, identifizierten die Versuche PP, PGFF, JO-E und JO-T das Verfahren als zusammen integriertes Mittel, das mehr als 75 der Zeit bei pValue 0,01 umkehrte. Bei einigen der schwächeren Wiederholungspaare mit mehr als 0,95 ist die Leistung der statistischen Tests mit nur 250 Datenpunkten beeinträchtigt. Es ist zu bedenken, dass 250 Datenpunkte annähernd die Anzahl der Handelstage in einem Jahr sind, und vielleicht gibt es einen Hinweis darauf, wie viel historische Daten in einer Paarhandelsstrategie benötigt werden. Falsche Positivtests Befolgen Sie die gleiche Prozedur, die für den Genauigkeitstest beschrieben wurde, aber wählte im Satz, um Zeitreihen zu erzeugen, die isn8217t co-integriert sind. Sehen Sie, welchen Prozentsatz der Pfade fälschlicherweise als zusammengefasste mittlere Rückkehr gemeldet wird. I8217ve nie gesehen diese Tabelle in einem Textbuch und war überrascht über die Ergebnisse, sowohl HURST und BVR-Bericht mehr falsche Positives als erhöht Je mehr der Prozess explodiert desto wahrscheinlicher ist der Test war ein falsch positives zeigen Zum Glück die anderen Tests verhalten sich in einem vernünftigen Mode mit wenigen falschen Positiven. Dieser Teil des Tutorials zur Verwendung des NEAT-Algorithmus erklärt, wie Genome überkreuzt werden in einer sinnvollen Art und Weise unter Beibehaltung ihrer topologischen Informationen und wie Speziation (Gruppe Genome in Arten) verwendet werden können, um schwache Genome mit neuen topologischen Informationen vorzeitig aus dem Gen ausgerottet zu schützen Bevor ihr Gewichtsraum optimiert werden kann. Der erste Teil dieses Tutorials finden Sie hier. Tracking Gene Geschichte durch Innovation Numbers Teil 1 zeigte zwei Mutationen, Link-Mutation und Knoten-Mutation, die beide neue Gene zum Genom hinzugefügt. Jedes Mal, wenn ein neues Gen erzeugt wird (durch eine topologische Innovation), wird eine globale Innovationszahl erhöht und diesem Gen zugeordnet. Die globale Innovationszahl verfolgt den historischen Ursprung jedes Gens. Wenn zwei Gene die gleiche Innovationszahl haben, dann müssen sie die gleiche Topologie repräsentieren (obwohl die Gewichte unterschiedlich sein können). Dies wird während des Gen-Crossover ausgenutzt. Genom Crossover (Paarung) Genom-Crossover nimmt zwei Eltern-Genome (nennen wir sie A und B) und schafft ein neues Genom (nennen wir es das Kind), wobei die stärksten Gene aus A und B alle topologischen Strukturen kopieren. Während der Crossover-Gene sind beide Genome mit ihrer Innovationszahl ausgerichtet. Für jede Innovationszahl wird das Gen aus dem am meisten passenden Elternteil ausgewählt und ins Kindgenom inseriert. Wenn beide Elterngenome die gleiche Fitness sind, dann wird das Gen zufällig aus beiden Elternteilen mit gleicher Wahrscheinlichkeit ausgewählt. Wenn die Innovationszahl nur in einem Elternteil vorhanden ist, dann ist dies als ein disjunktes oder überschüssiges Gen bekannt und stellt eine topologische Innovation dar, es wird auch in das Kind eingefügt. Das Bild unten zeigt den Crossover-Prozess für zwei Genome der gleichen Fitness. Die Speziation nimmt alle Genome in einem gegebenen Genompool auf und versucht, sie in verschiedene Gruppen zu teilen, die als Spezies bekannt sind. Die Genome in jeder Art haben ähnliche Eigenschaften. Eine Methode der Messung der Ähnlichkeit zwischen zwei Genomen ist erforderlich, wenn zwei Genome 8220similar8221 sind, sind sie von der gleichen Spezies. Eine natürliche Maßnahme, die verwendet werden würde, wäre eine gewichtete Summe der Anzahl der disjunkten Ampereüberschüsse (die topologische Unterschiede darstellen) und die Gewichtsdifferenz zwischen passenden Genen. Wenn die gewichtete Summe unterhalb einer Schwelle liegt, dann sind die Genome von der gleichen Spezies. Der Vorteil der Aufspaltung der Genome in Arten ist, dass während der genetischen Evolutionsstufe, wo Genome mit geringer Eignung getötet werden (vollständig aus dem Genompool entfernt), anstatt jedes Genom für sie zu bekämpfen, gegen jedes andere Genom im gesamten Genompool wir können Machen es für sie Kampf gegen Genome der gleichen Spezies. Auf diese Weise Arten, die aus einer neuen topologischen Innovation, die möglicherweise nicht eine hohe Fitness noch aufgrund der nicht mit it8217s Gewichte optimiert haben, werden überleben die Keulenbildung. Zusammenfassung des gesamten Prozesses Erstellen Sie ein Genom-Pool mit n zufällige Genome Nehmen Sie jedes Genom und wenden Sie sich auf Problem-Simulation und berechnen die Genom-Fitness Zuweisen Sie jedes Genom einer Spezies In jeder Spezies cull die Genome, die einige der schwächeren Genome Rasse jede Spezies (nach dem Zufall wählen Sie Genome In der Art entweder Crossover oder mutate) Wiederholen Sie alle der oben genannten Post navigationThis Post wird detailliert, was ich getan haben, um ca. 500k von Hochfrequenz-Handel von 2009 bis 2010. Da ich völlig unabhängig handelte und nicht mehr läuft mein Programm Irsquom glücklich, alles zu erzählen. Mein Handel war überwiegend in Russel 2000 und DAX-Futures-Kontrakten. Der Schlüssel zu meinem Erfolg war, glaube ich, nicht in einer ausgefeilten finanziellen Gleichung, sondern in der Gesamt-Algorithmus-Design, das viele einfache Komponenten und benutzte Maschine Lernen, um für maximale Rentabilität zu optimieren gebunden. Sie müssen nicht wissen, jede anspruchsvolle Terminologie hier, weil, wenn ich mein Programm Setup war alles auf Intuition basiert. (Andrew Ngrsquos erstaunliche Maschine Lernkurs war noch nicht verfügbar - btw, wenn Sie klicken, dass Link yoursquoll zu meinem aktuellen Projekt genommen werden: CourseTalk, ein Review-Site für MOOCs) Zuerst möchte ich nur zeigen, dass mein Erfolg war nicht einfach das Ergebnis von Glück. Mein Programm machte 1000-4000 Trades pro Tag (halb lang, halb kurz) und nie in Positionen von mehr als ein paar Verträge auf einmal bekommen. Dies bedeutete das zufällige Glück von einem bestimmten Handel gemittelt ziemlich schnell. Das Ergebnis war, ich habe nie mehr als 2000 an einem Tag verloren und hatte nie einen verlierenden Monat: (EDIT. Diese Zahlen sind nach Bezahlung Provisionen) Und herersquos ein Diagramm, um Ihnen ein Gefühl für die tägliche Variation. Beachten Sie dies schließt die letzten 7 Monate aus, weil - als die Figuren aufhörten zu gehen - verlor ich meine Motivation, sie einzutragen. Mein Handel Hintergrund Vor der Einrichtung meiner automatisierten Handelsprogramm Irsquod hatte 2 Jahre Erfahrung als ldquomanualrdquo Day Trader. Dies war wieder im Jahr 2001 - es war die frühen Tage des elektronischen Handels und es gab Möglichkeiten für ldquoscalpersrdquo gutes Geld zu machen. Ich kann nur beschreiben, was ich tat so ähnlich wie ein Videospiel spielen mit einer vermeintlichen Kante. Erfolgreich zu sein bedeutete, schnell zu sein, diszipliniert zu sein, und hatte eine gute intuitive Mustererkennung Fähigkeiten. Ich konnte rund 250k zu machen, meine Studenten Darlehen auszahlen und haben Geld übrig. Win In den nächsten fünf Jahren würde ich starten zwei Start-ups, Abholung einige Programmierkenntnisse auf dem Weg. Es wouldnrsquot sein bis spätes 2008, dass ich zurück in den Handel erhalten würde. Mit Geld, das vom Verkauf meiner ersten Inbetriebnahme niedrig läuft, lieferte Handel Hoffnungen von etwas schnellem Bargeld, während ich meinen folgenden Zug herausfand. Im Jahr 2008 war ich ldquomanuallyrdquo Day Trading Futures mit Software namens T4. Irsquod wünschte einige benutzerdefinierte Reihenfolge Eingabe Hotkeys, so dass nach der Entdeckung T4 hatte eine API, nahm ich auf die Herausforderung des Lernens C (die Programmiersprache erforderlich, um die API verwenden) und ging voran und baute mir einige Hotkeys. Nachdem ich meine Füße nass mit der API hatte ich bald größere Anstrengungen: Ich wollte den Computer lehren, für mich zu handeln. Die API stellte sowohl eine Stream von Marktdaten und eine einfache Möglichkeit, um Aufträge an die Börse zu senden - alles, was ich tun musste, war die Logik in der Mitte zu schaffen. Unten ist ein Screenshot eines T4-Handelsfensters. Was war cool ist, dass, wenn ich mein Programm arbeiten konnte ich konnte den Computer-Handel auf dieser exakt gleichen Schnittstelle zu sehen. Es war spannend und beängstigend, echte Aufträge zu sehen, die rein und raus gingen (von selbst mit meinem echten Geld). Das Design meines Algorithmus Von Anfang an war es mein Ziel, ein System so zu gründen, dass ich zuversichtlich sein konnte, dass Irsquod Geld verdiene, bevor es irgendwelche Live-Trades macht. Um dies zu erreichen, musste ich ein Handels-Simulations-Framework erstellen, das - so genau wie möglich - den Live-Handel simulieren würde. Während der Handel im Live-Modus erforderlich Verarbeitung Marktaktualisierungen durch die API gestreamt, erforderte Simulation-Modus Markt-Updates aus einer Datei. Um diese Daten zu sammeln, richte ich die erste Version meines Programms ein, um einfach eine Verbindung zur API herzustellen und Marktaktualisierungen mit Zeitstempeln aufzuzeichnen. Ich landete mit 4 Wochen im Wert von aktuellen Marktdaten zu trainieren und testen mein System auf. Mit einem grundlegenden Rahmen an Ort und Stelle hatte ich noch die Aufgabe, herauszufinden, wie man ein profitables Handelssystem zu machen. Wie sich herausstellt, würde mein Algorithmus in zwei unterschiedliche Komponenten zerfallen, die Irsquoll wiederum erforscht: Predicting Preisbewegungen und Making profitable Trades Predicting Preisbewegungen Vielleicht eine offensichtliche Komponente eines jeden Handelssystems ist in der Lage zu prognostizieren, wo die Preise bewegen wird. Und meine war keine Ausnahme. Ich definiert den aktuellen Preis als den Durchschnitt des Innenangebots und Innenangebot und ich habe das Ziel der Vorhersage, wo der Preis wäre in den nächsten 10 Sekunden. Mein Algorithmus müsste mit dieser Vorhersage Moment-für-Moment über den Handelstag kommen. Erstellen von Amp-Optimierung Indikatoren Ich habe eine Handvoll von Indikatoren, die eine aussagekräftige Fähigkeit, kurzfristige Preisbewegungen vorherzusagen erwiesen haben. Jeder Indikator produzierte eine Zahl, die entweder positiv oder negativ war. Ein Indikator war nützlich, wenn mehr als oft nicht eine positive Zahl mit dem Markt stieg und eine negative Zahl entsprach mit dem Markt sinkt. Mein System erlaubte mir, schnell zu bestimmen, wieviel prädiktive Fähigkeit jeder Indikator hatte, also konnte ich mit vielen verschiedenen Indikatoren experimentieren, um zu sehen, was funktionierte. Viele der Indikatoren hatten Variablen in den Formeln, die sie produzierten, und ich war in der Lage, die optimalen Werte für diese Variablen zu finden, indem wir nebeneinander Vergleiche von Ergebnissen mit unterschiedlichen Werten erzielten. Die Indikatoren, die am nützlichsten waren, waren alle relativ einfach und basierten auf den jüngsten Ereignissen auf dem Markt, auf dem ich handelte, sowie auf den Märkten der korrelierten Wertpapiere. Machen genaue Preisverschiebung Vorhersagen Indikatoren, die einfach prognostiziert eine aufwärts oder abwärts Preis Bewegung wasnrsquot genug. Ich musste genau wissen, wie viel Preisbewegung von jedem möglichen Wert eines jeden Indikators vorhergesagt wurde. Ich brauchte eine Formel, die einen Indikatorwert in eine Preisvorhersage umwandeln würde. Um dies zu erreichen, verfolgte ich vorhergesagte Preisbewegungen in 50 Eimern, die von der Reichweite abhingen, die der Indikatorwert fiel. Dieses erzeugte einzigartige Vorhersagen für jeden Eimer, den ich damals in Excel grafisch darstellen konnte. Wie Sie sehen können, steigt die erwartete Preisänderung mit steigendem Indikatorwert. Ausgehend von einem Diagramm wie diesem konnte ich eine Formel an die Kurve anpassen. Am Anfang habe ich diese ldquocurve fittingrdquo manuell, aber ich bald schrieb einige Code, um diesen Prozess zu automatisieren. Beachten Sie, dass nicht alle Anzeigekurven die gleiche Form hatten. Auch die Eimer wurden logarithmisch verteilt, um die Datenpunkte gleichmäßig zu verteilen. Schließlich ist zu beachten, dass negative Indikatorwerte (und ihre entsprechenden Preissenkungen) umgedreht und mit den positiven Werten verknüpft wurden. (Mein Algorithmus behandelte oben und unten genau dasselbe.) Kombinieren von Indikatoren für eine einzige Vorhersage Wichtig zu beachten war, dass jeder Indikator nicht völlig unabhängig war. Ich couldnrsquot einfach nur addieren Sie alle Vorhersagen, dass jeder Indikator individuell gemacht. Der Schlüssel war, um herauszufinden, die zusätzlichen prädiktiven Wert, dass jeder Indikator hatte über das, was bereits vorhergesagt wurde. Dieses wasnrsquot zu schwierig zu implementieren, aber es bedeutete, dass, wenn ich ldquocurve fittingrdquo mehrere Indikatoren gleichzeitig war, musste ich vorsichtig sein zu ändern, würde man die Vorhersagen eines anderen. Um alle möglichen Indikatoren gleichzeitig anzupassen, setze ich den Optimierer ein, um nur 30 des Weges zu den neuen Vorhersagekurven mit jedem Durchlauf Schritt zu setzen. Mit diesem 30 Sprung fand ich, dass sich die Vorhersagekurven innerhalb einiger Pässe stabilisieren würden. Mit jedem Indikator jetzt geben uns itrsquos zusätzliche Preisvorhersage könnte ich einfach fügen sie bis zu einer einzigen Vorhersage, wo der Markt in 10 Sekunden wäre zu produzieren. Warum die Vorhersage der Preise ist nicht genug Sie könnten denken, dass mit diesem Rand auf dem Markt war ich golden. Aber Sie müssen bedenken, dass der Markt aus Angeboten und Angeboten besteht - itrsquos nicht nur ein Marktpreis. Erfolg im Hochfrequenzhandel kommt, um immer gute Preise und itrsquos nicht so einfach. Die folgenden Faktoren machen die Schaffung eines rentablen Systems schwierig: Bei jedem Handel musste ich Provisionen an meinen Broker und die Börse bezahlen. Die Ausbreitung (Differenz zwischen dem Höchstgebot und dem niedrigsten Angebot) bedeutete, dass, wenn ich einfach zufällig kaufen und verkaufen sollte Irsquod eine Tonne Geld verlieren würde. Die meisten des Marktvolumens waren andere Bots, die nur einen Handel mit mir ausführen würden, wenn sie dachten, sie hätten einen statistischen Vorteil. Ein Angebot zu sehen, konnte nicht garantieren, dass ich es kaufen konnte. Als meine Bestellung an die Börse gekommen war, war es sehr möglich, dass dieses Angebot storniert worden wäre. Als kleiner Marktspieler gab es keine Möglichkeit, mit der Geschwindigkeit allein zu konkurrieren. Aufbau einer vollen Handelssimulation So hatte ich einen Rahmen, der mir erlaubt, Indikatoren zu hinterfragen und zu optimieren. Aber ich musste darüber hinausgehen - ich brauchte einen Rahmen, der es mir erlaubte, ein vollständiges Handelssystem zu testen und zu optimieren, wo ich Aufträge abschickte und in Positionen eintrat. In diesem Fall Irsquod optimieren für insgesamt PampL und zu einem gewissen Grad durchschnittliche PampL pro Handel. Dies wäre schwieriger und in mancher Hinsicht unmöglich, genau zu modellieren, aber ich tat, so gut ich konnte. Hier sind einige der Probleme, mit denen ich zu tun hatte: Wenn eine Bestellung an den Markt in der Simulation gesendet wurde, musste ich die Verzögerungszeit modellieren. Die Tatsache, dass mein System ein Angebot sah, bedeutete nicht, dass es es sofort kaufen konnte. Das System würde den Auftrag senden, etwa 20 Millisekunden warten und dann nur dann, wenn das Angebot noch da war, wurde es als ausgeführter Handel betrachtet. Dies war ungenau, weil die reale Verzögerungszeit war inkonsistent und nicht gemeldet. Als ich Angebote oder Angebote platzierte, musste ich mir den Handelsausführungsstrom anschauen (der von der API zur Verfügung gestellt wurde) und diese nutzen, um festzustellen, wann meine Bestellung ausgeführt worden wäre. Um dies zu tun, musste ich die Position meiner Bestellung in der Warteschlange verfolgen. (Itrsquos ein first-in first-out System.) Wieder könnte ich das nicht perfekt tun, aber ich habe eine beste Annäherung. Um meine Auftragsausführungssimulation zu verfeinern, was ich tat, war, meine Protokollakten vom Phasenhandeln durch die API zu nehmen und sie zu den Protokollakten zu vergleichen, die durch simulierten Handel von der exakt gleichen Zeitperiode erzeugt wurden. Ich war in der Lage, meine Simulation auf den Punkt zu bringen, dass es ziemlich genau war und für die Teile, die unmöglich waren, genau zu modellieren, sorgte ich mindestens zu Ergebnissen, die statistisch ähnlich waren (in den Metriken, die ich für wichtig halte). Profitables Handeln Mit einem Auftragssimulationsmodell konnte ich nun Aufträge im Simulationsmodus senden und einen simulierten Pampl sehen. Aber wie würde mein System wissen, wann und wo zu kaufen und zu verkaufen Die Preisprognosen waren ein Ausgangspunkt, aber nicht die ganze Geschichte. Was ich tat, war ein Scoring-System für jedes der 5 Preisniveaus auf das Angebot und Angebot zu schaffen. Diese beinhalteten eine Stufe über dem Innenangebot (für einen Kaufauftrag) und eine Ebene unter dem Innenangebot (für einen Verkaufsauftrag). Wenn die Punktzahl bei irgendeinem gegebenen Preisniveau über einem bestimmten Schwellenwert lag, was bedeutet, daß mein System einen aktiven Bidoffer dort haben sollte - unterhalb der Schwelle sollten dann alle aktiven Aufträge abgebrochen werden. Basierend auf diesem war es nicht ungewöhnlich, dass mein System würde ein Gebot auf dem Markt blinken dann sofort abbrechen. (Obwohl ich versuchte, diese als itrsquos ärgerlich als Heck zu jedermann mit Blick auf den Bildschirm mit menschlichen Augen - einschließlich mich zu minimieren.) Die Preisniveau-Scores wurden auf der Grundlage der folgenden Faktoren berechnet: Die Preisprognose (die wir früher besprochen). Das Preisniveau in Frage. (Innenstufen bedeuteten höhere Kursbewegungsvorhersagen waren erforderlich.) Die Anzahl der Verträge vor meiner Bestellung in der Warteschlange. (Weniger war besser.) Die Anzahl der Verträge hinter meiner Bestellung in der Warteschlange. (Mehr war besser.) Im Wesentlichen diese Faktoren dienten dazu, ldquosaferdquo Orten zu bidoffer zu identifizieren. Die Preisbewegungsvorhersage allein war nicht adäquat, weil sie nicht die Tatsache berücksichtigte, dass ich bei der Abgabe eines Gebots nicht automatisch gefüllt war - ich wurde nur gefüllt, wenn mir jemand verkaufte. Die Realität war, dass die bloße Tatsache, dass jemand zu einem bestimmten Preis an mich verkaufte, die statistischen Quoten des Handels änderte. Die Variablen, die in diesem Schritt verwendet wurden, waren alle einer Optimierung unterworfen. Dies geschah auf die gleiche Weise wie ich Variablen in den Kursbewegungsindikatoren optimierte, außer in diesem Fall optimierte ich für untere Zeile PampL. Was mein Programm ignoriert Beim Handel als Menschen haben wir oft starke Emotionen und Vorurteile, die zu weniger als optimalen Entscheidungen führen können. Natürlich wollte ich diese Vorurteile nicht kodifizieren. Hier sind einige Faktoren, die mein System ignoriert: Der Preis, dass eine Position eingegeben wurde - In einem Handelsbüro Itrsquos ziemlich häufig, um Gespräche über den Preis zu hören, bei denen jemand lang oder kurz ist, als ob das ihre zukünftige Entscheidungsfindung Wirkung sollte. Dies hat zwar eine gewisse Gültigkeit als Teil einer Risikominderungsstrategie, hat aber keinen Einfluss auf den künftigen Marktverlauf. Daher ignorierte mein Programm diese Informationen vollständig. Itrsquos das gleiche Konzept als Ignorieren versunkenen Kosten. Going Short vs austreten eine lange Position - Typischerweise würde ein Trader haben verschiedene Kriterien, die bestimmt, wo eine lange Position zu verkaufen, wo man kurz gehen zu verkaufen. Aber aus meiner Algorithmen Sicht gab es keinen Grund, eine Unterscheidung zu machen. Wenn mein Algorithmus erwartet eine Abwärtsbewegung Verkauf war eine gute Idee, unabhängig davon, ob es war derzeit lang, kurz, oder flach. Eine ldquodoubling uprdquo Strategie - Dies ist eine gemeinsame Strategie, wo die Händler kaufen mehr Lager für den Fall, dass es ursprünglichen Handel geht gegen sie. Dies führt zu Ihren durchschnittlichen Kaufpreis niedriger und es bedeutet, wenn (oder wenn) der Bestand dreht sich um Ihr Geld eingestellt werden, um Ihr Geld zurück in kürzester Zeit zu machen. Meiner Meinung nach ist dies wirklich eine schreckliche Strategie, es sei denn, deinsquore Warren Buffet. Yoursquore versuchte zu denken, dass es dir gut geht, weil die meisten deiner Trades Gewinner sind. Das Problem ist, wenn Sie verlieren verlieren Sie große. Der andere Effekt ist es macht es schwer zu beurteilen, wenn Sie tatsächlich eine Kante auf dem Markt haben oder einfach nur Glück haben. In der Lage zu überwachen und zu bestätigen, dass mein Programm hat in der Tat eine Kante war ein wichtiges Ziel. Da mein Algorithmus Entscheidungen auf die gleiche Weise getroffen hat, unabhängig davon, wo er in einen Handel eintrat oder ob er kurz oder lang war, setzte er gelegentlich einige große Verlusthandels (und einige große Gewinntrades) ein. Aber Sie sollten nicht denken, es gibt kein Risikomanagement. Um das Risiko zu bewältigen, erzwang ich eine maximale Positionsgröße von 2 Verträgen zu einer Zeit, gelegentlich stieß auf hohe Volumetage. Ich hatte auch eine maximale tägliche Verlustgrenze zum Schutz gegen alle unerwarteten Marktbedingungen oder einen Bug in meiner Software. Diese Grenzen wurden in meinem Code, sondern auch im Backend durch meine Broker durchgesetzt. Wie es passiert habe ich nie irgendwelche Probleme festgestellt. Den Algorithmus ausführen Von dem Moment an, als ich anfing, an meinem Programm zu arbeiten, benötigte ich ungefähr 6 Monate, bevor ich es zum Punkt der Rentabilität erhielt und anfing, es lebend zu laufen. Obwohl fair zu sein, eine erhebliche Menge an Zeit war das Erlernen einer neuen Programmiersprache. Während ich arbeitete, um das Programm zu verbessern, sah ich erhöhte Gewinne für jeden der folgenden vier Monate. Jede Woche würde ich mein System auf der Grundlage der vorherigen 4 Wochen Wert von Daten umschulen. Ich fand, dass dies die richtige Balance zwischen der Erfassung der jüngsten Markt Verhaltenstendenzen und versicherte, mein Algorithmus hatte genug Daten, um sinnvolle Muster. Als das Training begann mehr und mehr Zeit teilte ich es aus, so dass es von 8 virtuellen Maschinen mit amazon EC2 durchgeführt werden könnte. Die Ergebnisse wurden dann auf meiner lokalen Maschine koalesziert. Der Höhepunkt meines Handels war Oktober 2009, als ich fast 100k machte. Danach habe ich weiterhin die nächsten vier Monate zu versuchen, mein Programm trotz sinkenden Gewinn jeden Monat zu verbessern. Leider an diesem Punkt Ich denke Irsquod implementiert alle meine besten Ideen, weil nichts, was ich versucht schien, viel zu helfen. Mit der Frustration, nicht in der Lage, Verbesserungen und nicht mit einem Gefühl des Wachstums zu machen, begann ich darüber nachzudenken, eine neue Richtung. Ich emailed 6 verschiedene Hochfrequenzhandelsfirmen, um zu sehen, wenn theyrsquod am Kauf meiner Software interessiert sein und mich anstellen, um für sie zu arbeiten. Niemand antwortete. Ich hatte einige neue Startup Ideen, die ich arbeiten wollte, so dass ich nie verfolgt. UPDATE - Ich habe dies auf Hacker News gepostet und es hat viel Aufmerksamkeit bekommen. Ich möchte nur sagen, dass ich niemanden dafür plädiere, so etwas jetzt selbst zu tun. Sie brauchen ein Team von wirklich intelligenten Menschen mit einer Reihe von Erfahrungen, um jede Hoffnung auf Konkurrenz haben. Selbst wenn ich das tat, glaube ich, es war sehr selten für Einzelpersonen, Erfolg zu erzielen (obwohl ich von anderen gehört hatte). Es gibt einen Kommentar am Anfang der Seite, die manipulierte Statistiken erwähnt und bezieht sich auf mich als ein ldquoretail investorrdquo, die quants Würde ldquogleefully wählen offrdquo. Dies ist ein ziemlich unglücklicher Kommentar thatrsquos einfach nicht in der Realität basiert. Einstellung, die beiseite therersquos einige interessante Kommentare: news. ycombinatoritemid4748624 UPDATE 2 - Irsquove gepostet eine Follow-up-FAQ, dass einige häufige Fragen beantwortet Irsquove von Händlern über diesen Beitrag erhalten.


No comments:

Post a Comment