Wednesday, October 26, 2016

Handelsstrategie Data-Mining

Wie man Handelsstrategien mathematisch kodieren (. ZB Indizes, Devisen, Rohstoffe, Zinsen) Wenn Sie eine Reihe von verschiedenen ökonometrischen Daten können Sie versuchen, eine Formel zu finden, um zu sehen, ob es eine Beziehung in der Daten - zB ihr durch diese entdeckt Muster prognostiziert. Was ich hier fragen, ist ein wenig anders: Gibt es eine andere Art und Weise in dem Sinne, dass man für eine Formel f (suchen), so dass der gegebenen Form eine Handelsstrategie, in denen bestimmte Indikatoren gefunden werden, wenn zu gehen lange oder kurze (oder jegliche derivative Kombinationen)? Die Idee ist, dass die Formel selbst wohnt im n-dimensionalen Raum von Indikatoren / Handelsstrategien und versucht zu überleben, so gut er kann. Das muss ein Standardverfahren für Multiagentensystemen simuliert künstlichen Aktienmärkten sein. Ach, ich bin nicht in der Lage einen einfachen Ansatz, um genau das zu tun. Data Mining Die schnelle Entwicklung der Computertechnologie in den letzten Jahrzehnten hat sich Anlageexperten (und Amateure) mit der Fähigkeit, den Zugriff auf und Analyse enorme Mengen an Finanzdaten zur Verfügung gestellt. Zusätzlich sind die World Wide Web, E-Mail und Bulletin Boards machen es möglich, dass Menschen auf der ganzen Welt, um diese Informationen schnell zugreifen, ebenso wie ein Mittel zum Bürger, ihre Meinung zu äußern und zu interagieren. Infolgedessen haben einige der faszinierendsten Themen der Debatte in den letzten Jahren rund um die Praxis und Konsequenzen drehte "Data Mining". Data Mining beinhaltet die Suche durch Datenbanken für die Zusammenhänge und Muster, die aus den Ergebnissen, die erwartet würde, um zufällig oder in statistischer Bedingungen eintreten werden, abweichen. Die Praxis des Data Mining an und für sich ist weder gut noch schlecht, und der Einsatz von Data-Mining hat sich in vielen Branchen üblich. Zum Beispiel, in einem Versuch zur Verbesserung der Lebenserwartung Forscher könnte Data Mining nutzen, um Ursachen und Zusammenhänge mit Todesraten zu analysieren. Data Mining wird auch von Werbetreibenden und Marketing-Unternehmen verwendet werden, um die Verbraucher zu zielen. Aber vielleicht das bekannteste Gruppe von Daten Bergleute sind Aktienmarktforscher, die an künftigen Aktienkursentwicklung vorherzusagen, zu suchen. Die meisten, wenn nicht alle Stock Market Anomalies entdeckt worden (oder zumindest dokumentiert) über Data Mining in der Vergangenheit die Preise und damit verbundene (oder manchmal auch ohne Bezug) Variablen. Als Markt Schlagen Strategien werden über Data Mining entdeckt, gibt es eine Reihe von möglichen Problemen in den Sprung von einem Back-geprüft Strategie erfolgreich Investitionen in zukünftige realen Bedingungen. Das erste Problem ist die Bestimmung der Wahrscheinlichkeit, dass die Beziehungen aufgetreten zufällig oder ob die Anomalie kann einzigartig für die bestimmte Probe, die getestet wurde, sein. Statistiker gerne darauf hin, dass, wenn Sie die Daten lang genug quälen, wird es nichts zu gestehen. Das sich zu einem berüchtigten Beispiel ging David Leinweber Suche nach zufälligen Zusammenhänge auf den S & P 500. Peter Coy beschrieben Leinweber Feststellungen in einem Business Week Artikel mit dem Titel "Wer Minen Daten Katzengold schlagen" (6/16/97). Der Artikel diskutiert Data Mining, Michael Drosnin Buch Die Bibel-Code. und die Tatsache, dass Muster in Daten durch Zufall auftreten, insbesondere wenn Sie viele Faktoren zu berücksichtigen. Viele Fälle von Data-Mining sind immun gegen statistische Kontrolle oder Widerlegung. Bei der Beschreibung der Fallstricke von Data-Mining, Leinweber "über CD-ROM ein Vereinten Nationen gesiebt und entdeckte, dass historisch gesehen, die einzige beste Prädiktor für die Standard-P-500-Aktienindex war Butterproduktion in Bangladesch." Die Lektion, die nach Coy ist ein zu lernen "Formel, um die Daten aus der Vergangenheit passen nicht unbedingt jede Vorhersagewert passiert." Backtesting ist seit jeher ein Verdächtiger Klasse von Informationen. Wenn Sie nach hinten zu schauen, sind Sie nur gehen, um zu zeigen, was gut ist. Anomalien durch Data Mining entdeckt, gelten als bedeutsamer als die Zeitdauer zunimmt und wenn die Anomalie kann in von Stichproben über verschiedene Zeiträume und vergleichbaren Märkten (zum Beispiel an ausländischen Börsen) bestätigt werden. Wenn eine Anomalie in Backtests entdeckt, seine auch wichtig, um festzustellen, wie Kosten (Transaktionskosten, die Geld-Brief-verteilt, Schlagkosten für institutionelle Händler) würden die Renditen zu senken. Einige Anomalien sind einfach nicht realisierbar. Sehen Sie den Wert Linie Anomalie und Umsetzungsdefizit für mehr zu diesem Thema. Zusätzlich können Strategien, die in der Vergangenheit gearbeitet haben, einfach aufhören zu arbeiten, wie mehr Investoren beginnen, nach der Strategie zu investieren. Siehe die Efficient Market Hypothesis für mehr zu diesem Thema. Der Motley Dummkopf wurde von vielen für das Anbieten von Bildungsberatung für Privatanleger gelobt worden (zum Beispiel bietet das Motley Fool fundierte Empfehlungen in der Beratung von Investoren, um zu kaufen und halten Aktien, vorsichtig sein, Börsenmakler und Analysten von Interessenkonflikten zu sein und vorsichtig sein unrealistische Leistungsansprüche). Aber Der Motley Dummkopf ist "Foolish Four" Aktienstrategie und ihre grundlegenden Prinzipien haben Kritik auf sich gezogen. Im Jahr 1997 BYU-Professoren Statt McQueen und Steven Thorley coathored ein Papier in der Financial Analysts Journal (FAJ), die die immens populären Dogs of the Dow-Strategie (Abstract) in Frage gestellt. Nachdem bereits erhobenen Daten, um den Dow Hunde zu analysieren, folgten die Professoren up, indem Sie eine Fallstudie in Data Mining aus der Motley Fool die Foolish Four. McQueen und Thorley analysierte die Foolish Four wie in der beschriebenen Motley Dummkopf Investment Guide (MFIG), aber die Narren haben tatsächlich mehrere Variationen der Foolish Four (siehe auch die Foolish Four erklärt und Foolish Four Geschichte). Dass die Forschung führte zu einem anderen Artikel in der März / April 1999 Ausgabe der Financial Analysts Journal mit dem Titel "Mining Ein Schatz zum Verlieben." Im Geiste der unterhaltsamen und kreativen Schreibstil des Narren haben die Professoren ein "unbeschwerte" Version des Papiers (in Wordperfect) an der BYU-Server geschrieben. Die in der Studie verwendeten Daten können Sie hier herunterladen. McQueen und Thorley eine vollständige Darlegung der möglichen Gefahren des Data Mining und sie aus der Stichproben auf der Foolish Four durchgeführt. Die Professoren Grund, dass Data Mining kann durch die Komplexität der Handels Regel erfasst werden, das Fehlen einer kohärenten Geschichte oder Theorie, die Leistung der Out-of-Sample-Tests, und die Anpassung der Renditen für Risiko, Transaktionskosten und Steuern. Darüber hinaus machen sie geltend, dass die Foolish Four und Dow Ten Handelsregeln haben sich populär genug, um die Aktienkurse an der Wende des Jahres auswirken. Der Motley Dummkopf ist eine temperamentvolle Antwort auf die FAJ Papier in ihren Foolish Four Portfolio Berichte, die in ihrem 1999-Archiven zugänglich sind gebucht. Siehe Berichte vom 10.05. 11.5. 12.5. 13.5. 14.5. 17.5. 18.5. 19.5. 20.5. und 21.05. In diesen Reaktionen gehören mehrere Gegenargumente an die FAJ Papier und als auch Bestätigungen von gültigen Fragen in der Arbeit diskutiert. Während viele der Fragen strittig sind, der eigentliche Härtetest und kritische Feststellung der FAJ Papier war eine von Probe-Test für die Foolish Four Renditen von 1949 bis 1972. Während dieser Periode der Foolish Four kaum schlagen die Dow 30 um durchschnittlich 0,32% pro Jahr mit deutlich mehr Risiko. Nicht nur, dass die Strategie underperform Dow Hunde für die Zeit, aber nach Transaktionskosten und Bilanzierung von Risiko es wäre eindeutig die DJIA für den Zeitraum zurückgeblieben sind. Diese kritische Frage wurde kurz in den Bericht vom 14.5 diskutiert. Um dieses Problem in Perspektive zu setzen, sollten Sie einen Investor zu Beginn des Jahres 1973 im Rückblick auf die DJIA Leistung in den vorangegangenen 24 Jahren. Es ist schwierig, zu rationalisieren, wie ein Investor konnte zu diesem Zeitpunkt, dass die Foolish Four würde Markt schlagen Renditen in Zukunft bekannt sein. In anderen aus Beispieltest, McQueen und Thorley verwendet die Basisperiode 1973 -1996 in MFIG diskutiert, aber für die Neugewichtung statt Januar verwendet Juli. Unter diesen Bedingungen die Foolish Four Renditen schlagen den DJIA von nur 2,95% pro Jahr im Durchschnitt wesentlich niedriger als die 12,23% Vorteil gegenüber dem DJIA über Januar Rebalancing. Zur Verteidigung der Fools wurden mehrere Angaben zumindest in MFIG und auf der Webseite gemacht. Im Foolish Four Bericht vom 8/7/98. sie offenbart, dass die Rendite niedriger waren, als Rebalancing stattgefunden in den anderen Monaten als Januar. Zusätzlich kann in MFIG eine 25,5% Rendite Figur aus einem Zeitraum von zwanzig Jahren wird oft verwendet, aber sie haben zumindest erwähnen, dass sie bis ins Jahr 1961 und für den längeren Zeitraum erforscht die Zahlen fielen die Erträge um 18,35%. Auf der anderen Seite, sobald es offenbart, dass eine längere Zeit untersucht wurde, die Fortsetzung der stärker auf diesen Daten kann sicherlich als verdächtig angesehen werden, um zu zitieren kürzere Laufzeit Zahlen und Argumente stützen. Offenlegung und die Konzentration auf längerfristige Ergebnisse neigt dazu, die Glaubwürdigkeit des Arguments einer Datengruben erhöhen. Jason Zweig äußerte seine Meinung des Foolish Four und teilt seine eigenen Daten abgebaut "sehr dumm" und "Extra Dumb" Portfolios in False Profits vom Money Magazine (August, 1999). Auf der Morningstar-Website können Sie ebenfalls John Meinung Rekenthaler in nur foolin 'around sowie Anlageberater William Bernstein' s lesen Meinungen in einem Artikel mit dem Titel Abgebaut: Alle Mined (siehe auch Antwort James O'Shaughnessy 's und der anschließenden Aussprache) . Im Dezember 2000 kündigte Der Motley Dummkopf, dass sie die "Foolish Four" Aktienstrategie, die sie geschaffen hatte, nicht mehr zu vertreten. Siehe Re-Denken der Foolish Four für die Logik hinter der Scherz nicht mehr Empfehlung einer Strategie, die sie jahrelang über ihre Website und Bücher angepriesen hatte. Bewegen Sie sich auf einem anderen Data Mining-Debatte, William Brock. Josef Lakonishok. und Blake LeBaron (BLL) veröffentlichte einen Artikel mit dem Titel "Simple Technische Trading-Regeln und die stochastischen Eigenschaften der Lizenzkosten", in der Ausgabe des Journal of Finance Dezember 1992. Die Studie ist eine der wenigen wissenschaftlichen Arbeiten, um eine erfolgreiche Handelsstrategie Dokument auf der Grundlage der technischen Analyse (siehe technische Anomalien für eine vollständige Diskussion des Artikels). Die Professoren zeigten, dass beide gleitenden Durchschnitte und Unterstützungs - und Widerstandswerkzeuge Vorhersagewert gegenüber dem Dow Jones Industrial Average für den Zeitraum 1897-1986 hatten. Daten-Snooping, Technischer Handel Rule Performance, und die Bootstrap ist ein Artikel, der BLL Papier greift und wird in der Oktober-Ausgabe 1999 des Journal of Finance angezeigt. In dem Artikel, Ryan Sullivan, Allan Timmermann und Halbert Weiß (STW) Versuch, den Effekt der Daten-Snooping auf dem BLL Ergebnisse zu bestimmen. Sie Daten aus der Zeit nach der ursprünglichen Studie gesammelt verwenden auch (BLL Daten lief durch 1986), um eine aus der Testprobe bereitzustellen. Hinzufügen den letzten Jahren ein volle 100 Jahre von Daten. STW berechnet eine Pause sogar Transaktionskostenniveau von 0,27% Prozent pro Trade für die leistungsfähigsten Handelsregel für den gesamten Zeitraum. Da die ursprünglichen Daten BLL abgedeckt mit einer extrem langen Zeitraum von fast 90 Jahren, könnte man erwarten, dass die Strategien, um auch in der aus der Probentests durchführen. Aber Schlussfolgerungen der Studie kann am Ende wird wie ein anderes Potential Beispiel der Efficient Market Hypothesis verwendet. STW gefunden ", dass die Ergebnisse des BLL erscheint robust sein, um Daten-Snooping. Allerdings finden wir auch, dass die überlegene Leistung der besten Trading-Regel wird nicht in der Out-of-Probe Experiment wiederholt für den Zeitraum 1987-1996" und "Es gibt kaum Hinweise darauf, dass technische Vorschriften für den Handel waren jeden wirtschaftlichen Wert im Zeitraum 1987-1996." Dies kann eine weitere Einschränkung für Börsendaten Bergleute und aktive Investoren bieten. Selbst wenn eine Anomalie arbeitete in der Vergangenheit über sehr lange Zeiträume, und selbst wenn Ergebnisse scheinen nicht von den Tücken der Daten Snooping leiden, sobald die Anomalie entdeckt wird es aufhören zu arbeiten für die Zukunft. Vernünftige Leute können eine vernünftige Meinungsverschiedenheit, ohne dass es eine Frage der Ethik oder Glauben haben. Alarmierende Efficiency (RR) von Dow Jones Asset Management (5-6 / 99) ist ein interessanter Artikel, der Data Mining und das Problem diskutiert "Überanpassung." Eingeschlossen sind die Kommentars der Investmentbranche Veteranen David Shaw. Ted Aronson. und Robert Arnott. Der Artikel argumentiert, dass bei einer endlichen Menge von historischen Daten und eine unendliche Anzahl von komplexen Modellen, könnte uninformierte Investoren in "Overfitting" der Daten angelockt werden. Muster, die davon ausgegangen, systematisch zu sein sind tatsächlich probenspezifische und deshalb keinen Wert. Menschen kommen zu uns die ganze Zeit mit Trading-Strategien, die angeblich zu machen sehr große Überschussrenditen. Aber die überwiegende Mehrheit der Dinge, die Menschen entdecken, indem sie mathematische Standardwerkzeuge und Sichtung eines riesigen Datenmengen sind statistische Artefakte. Aronson argumentiert, dass der Markt ist "nahezu vollständig effizient", und dass "Sie täuschen sich, wenn Sie glauben, dass Sie den anderen Kerl um mehr als etwa 51% oder 52% der Zeit outguess." Aronson glaubt, dass Investoren auf der Suche nach Marktineffizienzen haben das Potenzial, um von diesen Anomalien auf den Gegenwert der Transaktionskosten profitieren reduziert. Wenn das der Fall ist, zu minimieren Transaktionskosten entscheidend ist bei dem Versuch, den Markt zu schlagen. So gibt es irgendwelche Anomalien, die in von Stichproben bestätigt worden? In einer weiteren bevorstehenden Journal of Finance Artikel, James L. Davis, Eugene F. Fama. und Kenneth R. Französisch argumentieren, dass die Antwort ist ein klares Ja. Firmen mit niedrigem Preis zu Wertverhältnisse zu buchen treffen und das Muster wurde in beiden US-und ausländischen Märkten dokumentiert. In Eigenschaften, Kovarianzen und Durchschnittskosten: 1929-1997 Die Autoren gehen einen großen Schritt weiter bei der Dokumentation von Renditen von niedrigen Preis zu Value-Aktien von 1929 bis 1963. Buch für die frühere Zeit, war sogar noch größer (0,50% pro der Wert Premium Monat) als die neueren Juli 1963 bis Juni 1997 Zeitraum (0,43% pro Monat). Am Ende haben wir jemals wirklich sicher wissen, welche Strategien in der Zukunft übertreffen wird? Meinungen zu dieser Frage auf jeden Fall unterschiedlich sein, aber die Standard-Erklärung gilt wie immer. Die vergangene Performance ist keine Garantie für zukünftige Performance. Zusätzliche mathematische Diskussionen werden in der Rosinenpickerei enthalten. Stock Market Scam. und Coin-Flipping Seiten. Bitte senden Sie Anregungen und Kommentare zum Investor Home Letztes Update 2001.02.12. 2001 Investor Startseite. Alle Rechte vorbehalten. Haftungsausschluss Ich bin ein professioneller bietet Dienstleistungen in den Bereichen statistische und finanzielle Beratung. Ich habe einen PhD-Abschluss in Statistik und einen PhD in Finance Minor von der Stanford University. Ich habe in der Branche für vier Jahre gearbeitet, die sich auf Projekte im Zusammenhang mit Data Mining, Faktorenanalyse, Clusteranalyse, Zeitreihenanalyse, stochastische Volatilität Modellierung / Asset Pricing, statistische Arbitrage / Entwicklung von Eigenhandelsstrategien, und so weiter. Ebenso wichtig ist, habe ich sechs Jahre finanzielle und statistische Beratungserfahrung. Ich habe Unternehmen, Business-Profis, Forscher und Studenten in den Bereichen Marketing, Medizin, Biologie, Psychologie, Soziologie, Politikwissenschaft, Bildung, Informatik und Finanzen konsultiert. Location-weise, haben meine Kunden in New York, Boston, Philadelphia, Washington, Los Angeles, San Francisco, San Jose, Stanford, Seattle, Chicago, Toronto, Montreal, London, Edinburgh, Bergen, Frankfurt, Kuwait-Stadt, Hong basiert Kong, Adelaide, Melbourne, Sydney und so weiter. Normalerweise treffe ich in Manhattan oder wenden Sie sich per Skype, E-Mail und Telefon, wenn die Clients sind weit von New York. Hinzu kommt, dass, ich, komplette Projekte für meine Kunden, die gegebenenfalls ein Treffen erfordern. Beispiele für Dienste: Datenanalyse in einem der großen Statistikpakete (R, Matlab, SAS, SPSS, Stata), Versuchsplanung, Entwicklung der Preise und Handelssysteme, Dissertation Unterstützung, Beratungssitzungen zur Verbesserung der Allgemeinbildung. Bitte lesen Sie die detaillierte Beschreibung der Arten von Service. Erfahrung. Fallstudien und Zahlungsmöglichkeiten. Es sei denn, die Dringlichkeit beteiligt ist, ist die Rate $ 60 pro Stunde für Standard-Projekte (Regression, ANOVA, Umfrage-Design, nicht-parametrische Tests) und mehr für High-Tech-Material (Data Mining, Clusteranalyse, Paneldaten, multivariate Zeitreihen, Hidden-Markov-Modellen , Markov Chain Monte Carlo, Bayes-Modellierung, GWAS, SAS-Funktionalität, statistische Arbitrage / Handelsstrategien, exotische Asset Pricing, Marktrisikomanagement). Bitte E-Mail mich für weitere detaillierte Preisinformationen oder andere Klarstellung. consultingstanfordphd


No comments:

Post a Comment